Daxamur's WAN 2.2 Workflows v1.2.1 (FLF2V | T2V | I2V | GGUF | Easy Bypass | Experimental True Endless Generation)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
Daxamur's Wan 2.2 ワークフロー
ご支援いただける場合は、私の Patreonをご覧ください!
カスタムプロジェクトについてのお問い合わせはDMにてお願いします。
-NEWS-
次のリリースの準備に集中しているため、応答が遅れております。リリース後は通常通りの応答に戻ります!
v1.2.1 がリリースされました! - ComfyUI マネージャーを通じた DaxNodes の更新が必要です
GGUF 対応の FLF2V を追加 - 新しいモデルは不要です
アップスケーリングと補間を独立して有効/無効にできるように修正
専用の解像度選択ノードを追加。v1.3.1 から I2V と FLF2V に自動リサイズ機能を追加
DaxNodes が ComfyUI マネージャー経由で利用可能に! git clone は不要になりました!
現在報告中のバグ:
- 一部のユーザーで KJNodes の Get / Set が「見つからないエラー」を報告する場合があります。この現象が発生した場合は、ComfyUI マネージャーから最新版の DaxNodes をダウンロードし、ワークフローを再インポートしてください! - 進行中
VideoSave やその他の動画関連ノードから "FileNotFoundError ([WinError 2] 指定されたファイルが見つかりません。)" というエラーが表示された場合、FFmpeg がインストールされていないか、システムの PATH に設定されていません。
設定(完全版が必要):
完全版 FFmpeg をダウンロード
確実な場所に展開(例:C:\ffmpeg)
C:\ffmpeg\bin をシステムの PATH に追加:
システムの環境変数の編集 → 環境変数...
システム変数で Path を選択 → 編集...
新規追加し、C:\ffmpeg\bin を入力
保存して閉じる
ComfyUI を再起動(ターミナルまたはコマンドプロンプトも再起動)
これですべて正常に動作するはずです!
v1.3.1 の新機能
セグメントベースのプロンプト
持続的なポジティブプロンプト:動画全体で一貫した詳細を保持(例:「緑の目と茶色の髪を持つ女性が暖かい照明の寝室にいる」)
セグメントポジティブプロンプト:+ で区切り、各セグメント長に1つずつ設定(例:「彼女は日記に書き込んでいる + 日記を閉じて立ち上がる + 彼女は去っていく」)
長い動画での制御が大幅に向上し、I2V の開始時に WAN が起こしやすい不自然なカメラ移動やジャッターを軽減します。
無限ループスタイル
セグメントは「無限に」連結可能(ノードは9999までに制限)、実質的に無限ループを作成可能
Video Execution ID が上書きとステッチングを管理 — 新しいシーケンスを生成するたびに ID をインクリメントしてください
ストリーミング RIFE VFI + アップスケーリング
RIFE VFI とアップスケーリングを改良し、VRAM/RAM に全シーケンスを保持せず、フレームをストリーミング処理
より長い動画、滑らかな補間、高品質なアップスケーリングが OOM エラーなしで可能
顔検出とドリフト補正
インテリジェントな Mediapipe 顔フレーム検出でキャラクターに焦点を固定
ドリフト補正により、最終的な動画は必ず指定した長さ以上に生成 — 中途でカットするのではなく、ターゲットフレーム数に達するまで完全な追加セグメントを挿入
これにより生成されたフレームを無駄にせず、滑らかで完成度の高いセグメントが得られます
完全にオン/オフ可能で、フレームバック設定も調整可能
解像度処理
T2V:標準の WAN 解像度プリセット、オプションで上書き可能
I2V:入力画像は WAN のネイティブ解像度にアスペクト比を保ったままスケーリング。「ネイティブ」パストルーもサポート
QoL と管理
アップスケーリング/補間を独立して切り替え可能
実行IDごとに一時ファイル出力が整理 — 空き容量を確保するため、定期的に /output/.tmp/ を削除してください
今後の展望
このワークフローはまだ実験段階です。今後のバージョンでは、セグメント制御の強化、動き・カメラ動作のより賢い処理、より適応的な顔追跡、さらには映画的なシーケンスのためのオーディオ/ビデオ統合が予定されています。大きな進化が間もなく!
注意事項
設定したいノードは、ワークフローの下部(概ね順次)に配置し、運営/バックエンド関連のノードは上部に配置しました。各ノードは機能に応じて明確にラベルを付けています。
そのほか:
NAG Attention を使用しているため、CFG は 1 に設定したままにしてください。
サンプラーとスケジューラーはデフォルトで uni_pc // simple に設定されています。これは速度と品質のバランスが最適だと判断したためです。(1.1> 以降のみ)若干の品質向上を求めて長時間待つのが許される場合、RES4LYF カスタムノードの res_3s // bong_tangent をお勧めします。
ステップ数は、質と時間のトレードオフが最も顕著な場所であるため、4 ではなく 8(各サンプラーあたり4ステップ)に設定しています。ただし、これはあなたの好み次第です。
このワークフローは、デフォルトで完成した動画を ComfyUI/output/WAN/<T2V|T2I|I2V>/ に保存します。
I2V
- カスタムノード flow2-wan-video は、Wan の画像から動画へのノードと競合するため、動作させるには削除が必要です。ComfyUI マネージャー経由で削除しても、custom_nodes フォルダから完全に削除されないことがあるため、手動で削除してください。
GGUF
GGUF バージョンのワークフローで使用するモデルは、ベースの高ノイズ・低ノイズモデル以外はすべて同じです。ご使用のシステムに最適な GGUF クアンタイズを選び、各 Load WAN 2.2 GGUF ノードに正しいモデルを設定してください。目安として、GGUF モデルは VRAM に収まり、数GBの余裕を持たせるのが理想的です。
GGUF ワークフローの例は、WAN 2.2 I2V と T2V の Q6_K クアンタイズで作成されています。
本ワークフローでテストした WAN 2.2 GGUF クアンタイズは、HuggingFace の以下の場所から取得:
MMAUDIO
- MMAUDIO を設定するには、以下の MMAUDIO モデルをダウンロードし、モデルディレクトリ(ComfyUI/models/mmaudio)に "mmaudio" フォルダを作成して、すべてのダウンロードした mmaudio モデル(apple_DFN5B-CLIP-ViT-H-14-384_fp16.safetensors を含む)を配置してください。
ブロックスワップワークフロー
- 本ワークフローでは廃止しました。私のテストでは、ComfyUIのネイティブメモリスワップの方がメモリ使用量をより節約でき、処理速度の低下も少ないためです。v1.2 の基本ワークフローで OOM が発生した場合は、GGUF バージョンをお試しください!
Triton と SageAttention の問題
ユーザーが最もよく遭遇する問題は、Triton と SageAttention のインストールに関連しています。可能な限りサポートしますが、1人ではすべてのユーザーに対応できないためご了承ください。幸い、@CRAZYAI4U さんが Stability Matrix を教えてくれました。このツールは ComfyUI を自動デプロイでき、Triton と SageAttention のインストール専用スクリプトも備えています。
まず、リポジトリから Stability Matrix をダウンロードし、そのハブから ComfyUI をインストールしてください。ComfyUI がハブ経由でデプロイされたら、ComfyUI インスタンスのエントリの左上にある三点リーダー(三本の横線)をクリックし、「Package Commands」→「Install Triton and SageAttention」を選択してください。完了後、ワークフローをインポートし、ComfyUI マネージャーで不足する依存関係をインストール、モデルを配置して生成を開始できます!
まもなく、この手順についてスクリーンショット付きの専用記事を公開します。
使用モデル
T2V(テキストから動画)
Wan2_2-I2V-A14B-HIGH_fp8_e4m3fn_scaled_KJ.safetensors(ループセグメント用)
Wan2_2-I2V-A14B-LOW_fp8_e4m3fn_scaled_KJ.safetensors(ループセグメント用)
lightx2v_T2V_14B_cfg_step_distill_v2_lora_rank64_bf16.safetensors
Wan21_I2V_14B_lightx2v_cfg_step_distill_lora_rank64.safetensors(ループセグメント用)
I2V(画像から動画)
Wan21_I2V_14B_lightx2v_cfg_step_distill_lora_rank64.safetensors
model.safetensors(renamed to clip-vit-large-patch14.safetensors)

