WAN 2.2 IMAGE to VIDEO with Caption and Postprocessing

詳細

ファイルをダウンロード

モデル説明

ワークフロー:画像 -> 自動キャプション(プロンプト)-> WAN I2V(アップスケール・フレーム補間・動画拡張付き)

  • 480p または 720p 解像度の動画クリップを作成します。

Florence キャプション版と、LTX プロンプトエンハンサー(LTXPE)版があります。LTXPE は VRAM をより多く消費します。問題が発生した場合は、以下のスレッドをご参照ください:/model/1823416?dialog=commentThread&commentId=955337


MultiClip LTXPE PLUS:Wan 2.2. 14B I2V 版
以下にある MultiClip ワークフローをベースに、改善された LTX プロンプトエンハンサー(LTXPE)機能を搭載(ワークフロー内の注釈をご参照)。まずは以下の MultiClip ワークフローをお試しください。

このワークフローは、プロンプト生成に対する制御を強化するために LTXPE 機能を拡張しており、検閲されていない言語モデルを使用します。動画生成部分は以下のバージョンと同一です。詳細:/model/1823416?modelVersionId=2303138&dialog=commentThread&commentId=972440


MultiClip:Wan 2.2. 14B I2V 版
LightX2V Wan 2.2. LoRA をサポートし、4〜6ステップでクリップを作成し、最大3倍まで拡張可能。投稿された例では15〜20秒の長さの動画が含まれています。

通常版(独自プロンプト使用可能)と、LTXPE(自動プロンプト生成)版の2種類があります。通常版は、LoRA を使用した特定のコンテンツや NSFW クリップに適しています。LTXPE 版は、画像をドロップして幅/高さを設定し、実行ボタンを押すだけで利用可能です。最終的に、複数のクリップが1つの完全な動画に結合されます。

  • 低ステップ用の新しい Wan 2.2. LightX2v LoRA をサポート

  • さらに、「旧版」の LightX2v Wan 2.1 LoRA をインジェクト可能です。これによりスローモーション動画を回避し、よりダイナミックな動きを導入できます(ただし、新しい LightX LoRA バージョン(例:ver.1022)では不要になる可能性があります)。

  • シーケンスごとに Wan 2.2. LoRA をサポート

  • 単一クリップ版も含まれており、以下 V1.0 ワークフローに対応し、「旧版」Wan 2.1. LightX2v LoRA 用の LoRA ローダーを追加しています。

Wan 2.2 は2つのモデルを使用するため、ワークフローが複雑になります。より軽量で豊富な LoRA セレクションを備えた Wan 2.1 MultiClip 版も併せてご検討ください。こちら:/model/1309065?modelVersionId=1998473


V1.0 WAN 2.2. 14B 画像→動画 ワークフロー
LightX2v I2V Wan 2.2 LoRA をサポートし、低ステップ(4〜8ステップ)で処理可能

  • Wan 2.2 は、クリップ処理に高ノイズモデルと低ノイズモデルの2つを順次使用します。

  • LightX2v LoRA と互換性があり、低ステップで高速にクリップを処理可能。

  • 一部の「旧版」Wan2.1 LoRA および「新規」Wan 2.2 LoRA と互換性あり。

  • ワークフロー内の注釈および以下のヒントをご確認ください。

モデルは以下からダウンロード可能です:

モデル(高ノイズ・低ノイズ両方必要、あなたのVRAMに合わせて選択):https://huggingface.co/bullerwins/Wan2.2-I2V-A14B-GGUF/tree/main

Wan 2.2 用 LightX2v LoRA(I2v、Hi、Lo):https://huggingface.co/Kijai/WanVideo_comfy/tree/main/LoRAs/Wan22-Lightning/old

2025年10月14日:2つの新しい LightX 高ノイズ LoRA(MoE と 1030)がリリースされました。強度 > 1.5、7ステップ、SD3 shift = 5.0 で試してください。高ノイズ LoRA を置き換え:

https://huggingface.co/Kijai/WanVideo_comfy/tree/main/LoRAs/Wan22_Lightx2v

2025年10月22日:新たな LightX LoRA(1022)がリリースされました。推奨

https://huggingface.co/lightx2v/Wan2.2-Distill-Loras/tree/main

LightX2v LoRA(旧版 Wan 2.1):https://huggingface.co/lightx2v/Wan2.1-I2V-14B-480P-StepDistill-CfgDistill-Lightx2v/tree/main/loras

VAE(Wan 2.1 と同じ):https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/vae

Textencoder(Wan 2.1 と同じ):https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/text_encoders


WAN 2.2. I2V 5B モデル(GGUF) ワークフロー
Florence または LTXPE 自動キャプション対応

  • 14B モデルより品質が低い

  • 720p @ 24fps

  • FastWan LoRA を使用する場合、CFG=1、ステップ数=4〜5とし、Unet ローダーの後に LoRA ローダーノードを配置して LoRA をインジェクトしてください。

FastWan LoRA:https://huggingface.co/Kijai/WanVideo_comfy/tree/main/FastWan

モデル(GGUF、あなたのVRAMに合わせて選択):https://huggingface.co/QuantStack/Wan2.2-TI2V-5B-GGUF/tree/main

VAE:https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/vae

Textencoder(Wan 2.1 と同じ):https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/text_encoders


これらのファイルを保存する ComfyUI フォルダ内の場所:

Wan GGUF モデル → models/unet
Textencoder → models/clip
VAE → models/vae


ヒント(14B モデル用):

  • Wan 2.2 と LoRA について混乱している場合は、以下のスレッドをご確認ください:/model/1823416?modelVersionId=2063446&dialog=commentThread&commentId=890870

  • Wan 2.2. I2V のプロンプト作成のヒント:/model/1823416?modelVersionId=2063446&dialog=commentThread&commentId=890880

  • どの GGUF モデルをダウンロードすべきか?私は、16GB VRAM / 64GB RAM の環境では、約10GB のサイズのモデル(例:"...Q4_K_M.gguf")を選んでいます。

  • LTXPE 用の検閲解除モデル: "chuanli11/Llama-3.2-3B-Instruct-uncensored"。LTXPE ローダーノード内の LLM_name を置き換えてください。

  • LightX LoRA の強度(約1.5)を調整して、動きを増加・スローモーションを軽減してください。

このモデルで生成された画像

画像が見つかりません。