Lightweight WAN2.2 Animate + LORA 12GB GGUF Version

詳細

ファイルをダウンロード

モデル説明

Wan 2.2 Animate モデルのダウンロードとセットアップ (ComfyUI)

このワークフローを ComfyUI で使用するには、以下のモデルをダウンロードし、指定されたフォルダーに配置してください。
ロードエラーを避けるため、フォルダー名とファイル名は必ず以下に示された通りに正確に合わせてください。


メインのディフュージョンモデル (GGUF)

モデル: Wan2.2-Animate-14B-GGUF
ダウンロード:
https://huggingface.co/QuantStack/Wan2.2-Animate-14B-GGUF

こちらに配置してください:
ComfyUI/models/diffusion_models/

注:
このモデルは GGUF 形式で量子化されています。GPU の VRAM に合わせてバージョンを選択してください:

  • Q4_K_M → 約 10–12 GB VRAM(バランス型)

  • Q5_K_S → 約 14–16 GB VRAM(ミドルレンジ GPU におすすめ)

  • Q6_K → 約 20 GB 以上の VRAM(最高品質)


LoRAs

lightx2v I2V (アニメーション運動用 LoRA)
ダウンロード:
https://huggingface.co/Kijai/WanVideo_comfy/resolve/main/Lightx2v/lightx2v_I2V_14B_480p_cfg_step_distill_rank64_bf16.safetensors

こちらに配置してください:
ComfyUI/models/loras/

WanAnimate リライト LoRA(照明とリアリズム強化用)
ダウンロード:
https://huggingface.co/Kijai/WanVideo_comfy/resolve/main/LoRAs/Wan22_relight/WanAnimate_relight_lora_fp16.safetensors

こちらに配置してください:
ComfyUI/models/loras/


テキストエンコーダ

umt5_xxl_fp8_e4m3fn_scaled.safetensors
ダウンロード:
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors

こちらに配置してください:
ComfyUI/models/text_encoders/


CLIP ビジョンエンコーダ

clip_vision_h.safetensors
ダウンロード:
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/clip_vision/clip_vision_h.safetensors

こちらに配置してください:
ComfyUI/models/clip_visions/


VAE

wan_2.1_vae.safetensors
ダウンロード:
https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/resolve/main/split_files/vae/wan_2.1_vae.safetensors

こちらに配置してください:
ComfyUI/models/vae/


必須のカスタムノード

これらのカスタムノードは、ComfyUI Manager を通じてインストールするか、以下フォルダーに手動でクローンしてください:
ComfyUI/custom_nodes/

comfyui_controlnet_aux
https://github.com/Fannovel16/comfyui_controlnet_aux

ComfyUI-KJNodes
https://github.com/kijai/ComfyUI-KJNodes

ComfyUI-segment-anything-2
https://github.com/kijai/ComfyUI-segment-anything-2

IAMCCS-nodes
https://github.com/IAMCCS/IAMCCS-nodes

ComfyUI-VideoHelperSuite
https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite


すぐに始める方法

  1. ComfyUI でこのワークフローを読み込みます。

  2. 参照画像と入力動画をアップロードします。

  3. プラスとネガティブのプロンプトを調整します。

  4. 検出サブグラフで緑点と赤点が正しく設定されていることを確認します。

  5. 幅と高さの値が 16 の倍数であることを確認します。

  6. ワークフローを実行すると、最終的なアニメーションが自動的に保存されます。


まとめ

このワークフローは、GGUF 形式の Wan 2.2 Animate 14B モデルを使用して、ComfyUI にリアリスティックな動き生成機能を実装しています。
GPU のメモリに合わせてモデルの量子化レベルを調整し、必要なノードをインストールすれば、ワークフローはスムーズに動作します。

このモデルで生成された画像

画像が見つかりません。