Wan 2.2 Video Latent Upscale Full HD with SageAttention + Blockswap + GGUF
세부 정보
파일 다운로드
모델 설명
안녕하세요! ComfyUI에서 Wan 2.2 Latent Video Upscaler를 사용한 제 작업 워크플로우를 소개합니다.
Wan 2.2 T2V 저노이즈 모델(https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/blob/main/T2V/Wan2_2-T2V-A14B-LOW_fp8_e4m3fn_scaled_KJ.safetensors), clip(https://huggingface.co/Kijai/WanVideo_comfy/blob/main/umt5-xxl-enc-bf16.safetensors), 오디오 인코더 및 VAE(Wan 2.1 VAE)가 필요합니다.
GGUF - https://huggingface.co/QuantStack/Wan2.2-T2V-A14B-GGUF/tree/main/LowNoise
또한 더 나은 및 빠른 생성을 위해 Lora https://huggingface.co/Kijai/WanVideo_comfy/tree/main/Lightx2v를 포함했습니다.
최상의 결과를 얻으려면 Lora의 강도를 1.5로 설정하는 것을 추천합니다.
또한 더 빠른 생성을 위해 Sageattention 2.2.0 with Triton(https://huggingface.co/Kijai/PrecompiledWheels/tree/main)과 Torch 2.7.0+가 필요합니다(https://github.com/pytorch/pytorch/releases). 또한 CUDA 12.8(https://developer.nvidia.com/cuda-12-8-0-download-archive) 및 VS Code(https://visualstudio.microsoft.com/downloads/)를 다운로드하고 설치해야 합니다.
Sageattention 설치 방법(1.0.6 버전): Sageattention 2.2.0 설치 방법 - .whl 파일을 .zip으로 이름을 바꾸고, .zip에서 폴더를 ComfyUI\python_embeded\Lib\site-packages에 복사하세요.
작업 흐름에 문제가 있거나 어려움이 있으면 댓글을 남겨주세요.
