Wan 2.2 Video Latent Upscale Full HD with SageAttention + Blockswap + GGUF
詳細
ファイルをダウンロード
モデル説明
私のTGチャンネル - https://t.me/StefanFalkokAI
私のTGチャット - https://t.me/+y4R5JybDZcFjMjFi
こんにちは!私はComfyUI用のWan 2.2 Latent Video Upscalerによる生成動画の作業フローを紹介します。
Wan 2.2 T2V ノイズ低減モデルが必要です:
(https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/blob/main/T2V/Wan2_2-T2V-A14B-LOW_fp8_e4m3fn_scaled_KJ.safetensors)、clip (https://huggingface.co/Kijai/WanVideo_comfy/blob/main/umt5-xxl-enc-bf16.safetensors)、オーディオエンコーダー、およびVAE(Wan 2.1 VAE)
GGUF - https://huggingface.co/QuantStack/Wan2.2-T2V-A14B-GGUF/tree/main/LowNoise
また、より高速で高品質な生成のために、Lora https://huggingface.co/Kijai/WanVideo_comfy/tree/main/Lightx2v を含めています。
最適な結果を得るには、Loraの強度を1.5に設定することをお勧めします。
さらに、より高速な生成にはSageattention 2.2.0(Triton対応)(https://huggingface.co/Kijai/PrecompiledWheels/tree/main)とTorch 2.7.0+ (https://github.com/pytorch/pytorch/releases)が必要です。また、CUDA 12.8 (https://developer.nvidia.com/cuda-12-8-0-download-archive) と VS Code (https://visualstudio.microsoft.com/downloads/) をダウンロードしてインストールしてください。
Sageattentionのインストール方法(1.0.6版):Sageattention 2.2.0をインストールするには、.whlファイルを.zipにリネームし、.zipから抽出したフォルダをComfyUI\python_embeded\Lib\site-packagesに配置してください。
作業フローで問題が発生した場合や不具合を見つけた場合は、コメントをお願いします。
