Wan 2.2 Video Latent Upscale Full HD with SageAttention + Blockswap + GGUF

詳細

ファイルをダウンロード

モデル説明

私のTGチャンネル - https://t.me/StefanFalkokAI

私のTGチャット - https://t.me/+y4R5JybDZcFjMjFi

こんにちは!私はComfyUI用のWan 2.2 Latent Video Upscalerによる生成動画の作業フローを紹介します。

Wan 2.2 T2V ノイズ低減モデルが必要です:

(https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/blob/main/T2V/Wan2_2-T2V-A14B-LOW_fp8_e4m3fn_scaled_KJ.safetensors)、clip (https://huggingface.co/Kijai/WanVideo_comfy/blob/main/umt5-xxl-enc-bf16.safetensors)、オーディオエンコーダー、およびVAE(Wan 2.1 VAE)

GGUF - https://huggingface.co/QuantStack/Wan2.2-T2V-A14B-GGUF/tree/main/LowNoise

また、より高速で高品質な生成のために、Lora https://huggingface.co/Kijai/WanVideo_comfy/tree/main/Lightx2v を含めています。

最適な結果を得るには、Loraの強度を1.5に設定することをお勧めします。

さらに、より高速な生成にはSageattention 2.2.0(Triton対応)(https://huggingface.co/Kijai/PrecompiledWheels/tree/main)とTorch 2.7.0+ (https://github.com/pytorch/pytorch/releases)が必要です。また、CUDA 12.8 (https://developer.nvidia.com/cuda-12-8-0-download-archive) と VS Code (https://visualstudio.microsoft.com/downloads/) をダウンロードしてインストールしてください。

Sageattentionのインストール方法(1.0.6版):Sageattention 2.2.0をインストールするには、.whlファイルを.zipにリネームし、.zipから抽出したフォルダをComfyUI\python_embeded\Lib\site-packagesに配置してください。

作業フローで問題が発生した場合や不具合を見つけた場合は、コメントをお願いします。

このモデルで生成された画像

画像が見つかりません。