Wan 2.2 Workflows (t2v, i2v, v2v, flf2v) with MultiGPU + SageAttention + GGUF + Audio

詳細

ファイルをダウンロード

モデル説明

アップデート!https://huggingface.co/StefanFalkok/ComfyUI_portable_torch_2.9.0_cu129_sageattention_beta_non_official/blob/main/ComfyUI_windows_portable_cu129_p313_torch_2.9.0.zip

これは、Torch 2.9.0 と Sageattention 2.2.0 を組み込んだ修正版 ComfyUI_portable です。一部の機能は正しく動作しないか、動作しませんが、このビルドでは WAN 2.2 を使用してはるかに高速な生成が可能になります。Flux や Qwen との使用は推奨せず、WAN 2.2 の生成のみに使用してください。ComfyUI 内に組み込まれた修正版 Python 3.13.7 のため、一部の Python 設定が正しく動作しない可能性がありますが、oX-COMMAND を使用して Python なしで Python ライブラリをインストールできます。また、このビルドにはいくつかのカスタムノードが既にインストールされています。

私の TG チャンネル - https://t.me/StefanFalkokAI

私の TG チャット - https://t.me/+y4R5JybDZcFjMjFi

こんにちは!ComfyUI 用の WAN 2.2 生成ビデオの動作ワークフローを紹介します。

RES4LYF サンプラー を使用できます:https://github.com/ClownsharkBatwing/RES4LYF
このノード内に、コマンドラインで pip.exe install -r requirements.txt を実行してカスタムノードをインストールしてください。

t2v、i2v、v2v、flf2v(最初と最後のフレーム)、補間付きアップスケーラーの5つのワークフローを含んでいます。

Wan 2.2 モデル(https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/tree/main)、CLIP(https://huggingface.co/Kijai/WanVideo_comfy/blob/main/umt5-xxl-enc-bf16.safetensors)、VAE(WAN 2.1 VAE)を準備してください。

また、より高速かつ高品質な生成のために、4ステップの LoRA を含めました:https://huggingface.co/lightx2v/Wan2.2-Lightning/tree/main/Wan2.2-T2V-A14B-4steps-lora-250928

GGUF の場合は、Lightx LoRA を推奨します:https://huggingface.co/Kijai/WanVideo_comfy/blob/main/Lightx2v/lightx2v_T2V_14B_cfg_step_distill_v2_lora_rank256_bf16.safetensors

NSFW LoRA を必要とする場合は、以下をインストールしてください:/model/1307155?modelVersionId=2073605 および /model/1811313?modelVersionId=2190476

最適な結果を得るには、LoRA の強度を 1.5 に設定することをお勧めします。

さらに、高速生成には Sageattention 2.2.0(Triton 対応)(https://github.com/woct0rdho/SageAttention/releases/tag/v2.2.0-windows)と Torch 2.7.0+(https://github.com/pytorch/pytorch/releases)が必要です。また、CUDA 12.8(https://developer.nvidia.com/cuda-12-8-0-download-archive)と VS Code(https://visualstudio.microsoft.com/downloads/)をダウンロードしてインストールしてください。

Sageattention のインストール方法(1.0.6):Sageattention 2.2.0 をインストールするには、.whl ファイルを .zip にリネームし、.zip 内のフォルダを ComfyUI\python_embeded\Lib\site-packages にコピーしてください。

GPU が 5080 レベル(私の現在のGPU)の場合、KSampler の設定で 720p 16fps の5秒動画は9〜10分、24fps では16〜17分かかります。480p や 540/576p でははるかに高速に生成でき、私の環境では480p 5秒 16fps は3〜4分、24fps は6〜7分で生成可能です。

ワークフローに問題がある場合やトラブルが発生した場合は、コメントをお寄せください。

このモデルで生成された画像

画像が見つかりません。