Daxamur's WAN 2.2 Workflows v1.2.1 (FLF2V | T2V | I2V | GGUF | Easy Bypass | Experimental True Endless Generation)

詳細

モデル説明

Daxamur's Wan 2.2 ワークフロー

ご支援いただける場合は、私の Patreonをご覧ください!
カスタムプロジェクトについてのお問い合わせはDMにてお願いします。


-NEWS-

次のリリースの準備に集中しているため、応答が遅れております。リリース後は通常通りの応答に戻ります!

v1.2.1 がリリースされました! - ComfyUI マネージャーを通じた DaxNodes の更新が必要です

  • GGUF 対応の FLF2V を追加 - 新しいモデルは不要です

  • アップスケーリングと補間を独立して有効/無効にできるように修正

  • 専用の解像度選択ノードを追加。v1.3.1 から I2V と FLF2V に自動リサイズ機能を追加

DaxNodes が ComfyUI マネージャー経由で利用可能に! git clone は不要になりました!


現在報告中のバグ:

  • 一部のユーザーで KJNodes の Get / Set が「見つからないエラー」を報告する場合があります。この現象が発生した場合は、ComfyUI マネージャーから最新版の DaxNodes をダウンロードし、ワークフローを再インポートしてください! - 進行中

VideoSave やその他の動画関連ノードから "FileNotFoundError ([WinError 2] 指定されたファイルが見つかりません。)" というエラーが表示された場合、FFmpeg がインストールされていないか、システムの PATH に設定されていません。

  • 設定(完全版が必要):

  • 完全版 FFmpeg をダウンロード

  • 確実な場所に展開(例:C:\ffmpeg)

  • C:\ffmpeg\bin をシステムの PATH に追加:

  • システムの環境変数の編集 → 環境変数...

  • システム変数で Path を選択 → 編集...

  • 新規追加し、C:\ffmpeg\bin を入力

  • 保存して閉じる

ComfyUI を再起動(ターミナルまたはコマンドプロンプトも再起動)

これですべて正常に動作するはずです!


v1.3.1 の新機能

セグメントベースのプロンプト

  • 持続的なポジティブプロンプト:動画全体で一貫した詳細を保持(例:「緑の目と茶色の髪を持つ女性が暖かい照明の寝室にいる」)

  • セグメントポジティブプロンプト:+ で区切り、各セグメント長に1つずつ設定(例:「彼女は日記に書き込んでいる + 日記を閉じて立ち上がる + 彼女は去っていく」)

  • 長い動画での制御が大幅に向上し、I2V の開始時に WAN が起こしやすい不自然なカメラ移動やジャッターを軽減します。

無限ループスタイル

  • セグメントは「無限に」連結可能(ノードは9999までに制限)、実質的に無限ループを作成可能

  • Video Execution ID が上書きとステッチングを管理 — 新しいシーケンスを生成するたびに ID をインクリメントしてください

ストリーミング RIFE VFI + アップスケーリング

  • RIFE VFI とアップスケーリングを改良し、VRAM/RAM に全シーケンスを保持せず、フレームをストリーミング処理

  • より長い動画、滑らかな補間、高品質なアップスケーリングが OOM エラーなしで可能

顔検出とドリフト補正

  • インテリジェントな Mediapipe 顔フレーム検出でキャラクターに焦点を固定

  • ドリフト補正により、最終的な動画は必ず指定した長さ以上に生成 — 中途でカットするのではなく、ターゲットフレーム数に達するまで完全な追加セグメントを挿入

  • これにより生成されたフレームを無駄にせず、滑らかで完成度の高いセグメントが得られます

  • 完全にオン/オフ可能で、フレームバック設定も調整可能

解像度処理

  • T2V:標準の WAN 解像度プリセット、オプションで上書き可能

  • I2V:入力画像は WAN のネイティブ解像度にアスペクト比を保ったままスケーリング。「ネイティブ」パストルーもサポート

QoL と管理

  • アップスケーリング/補間を独立して切り替え可能

  • 実行IDごとに一時ファイル出力が整理 — 空き容量を確保するため、定期的に /output/.tmp/ を削除してください

今後の展望

このワークフローはまだ実験段階です。今後のバージョンでは、セグメント制御の強化、動き・カメラ動作のより賢い処理、より適応的な顔追跡、さらには映画的なシーケンスのためのオーディオ/ビデオ統合が予定されています。大きな進化が間もなく!


注意事項

設定したいノードは、ワークフローの下部(概ね順次)に配置し、運営/バックエンド関連のノードは上部に配置しました。各ノードは機能に応じて明確にラベルを付けています。

そのほか:

  • NAG Attention を使用しているため、CFG は 1 に設定したままにしてください。

  • サンプラーとスケジューラーはデフォルトで uni_pc // simple に設定されています。これは速度と品質のバランスが最適だと判断したためです。(1.1> 以降のみ)若干の品質向上を求めて長時間待つのが許される場合、RES4LYF カスタムノードの res_3s // bong_tangent をお勧めします。

  • ステップ数は、質と時間のトレードオフが最も顕著な場所であるため、4 ではなく 8(各サンプラーあたり4ステップ)に設定しています。ただし、これはあなたの好み次第です。

  • このワークフローは、デフォルトで完成した動画を ComfyUI/output/WAN/<T2V|T2I|I2V>/ に保存します。

I2V

  • カスタムノード flow2-wan-video は、Wan の画像から動画へのノードと競合するため、動作させるには削除が必要です。ComfyUI マネージャー経由で削除しても、custom_nodes フォルダから完全に削除されないことがあるため、手動で削除してください。

GGUF

  • GGUF バージョンのワークフローで使用するモデルは、ベースの高ノイズ・低ノイズモデル以外はすべて同じです。ご使用のシステムに最適な GGUF クアンタイズを選び、各 Load WAN 2.2 GGUF ノードに正しいモデルを設定してください。目安として、GGUF モデルは VRAM に収まり、数GBの余裕を持たせるのが理想的です。

  • GGUF ワークフローの例は、WAN 2.2 I2V と T2V の Q6_K クアンタイズで作成されています。

  • 本ワークフローでテストした WAN 2.2 GGUF クアンタイズは、HuggingFace の以下の場所から取得:

MMAUDIO

  • MMAUDIO を設定するには、以下の MMAUDIO モデルをダウンロードし、モデルディレクトリ(ComfyUI/models/mmaudio)に "mmaudio" フォルダを作成して、すべてのダウンロードした mmaudio モデル(apple_DFN5B-CLIP-ViT-H-14-384_fp16.safetensors を含む)を配置してください。

ブロックスワップワークフロー

  • 本ワークフローでは廃止しました。私のテストでは、ComfyUIのネイティブメモリスワップの方がメモリ使用量をより節約でき、処理速度の低下も少ないためです。v1.2 の基本ワークフローで OOM が発生した場合は、GGUF バージョンをお試しください!

Triton と SageAttention の問題

  • ユーザーが最もよく遭遇する問題は、Triton と SageAttention のインストールに関連しています。可能な限りサポートしますが、1人ではすべてのユーザーに対応できないためご了承ください。幸い、@CRAZYAI4U さんが Stability Matrix を教えてくれました。このツールは ComfyUI を自動デプロイでき、Triton と SageAttention のインストール専用スクリプトも備えています。

  • まず、リポジトリから Stability Matrix をダウンロードし、そのハブから ComfyUI をインストールしてください。ComfyUI がハブ経由でデプロイされたら、ComfyUI インスタンスのエントリの左上にある三点リーダー(三本の横線)をクリックし、「Package Commands」→「Install Triton and SageAttention」を選択してください。完了後、ワークフローをインポートし、ComfyUI マネージャーで不足する依存関係をインストール、モデルを配置して生成を開始できます!

  • まもなく、この手順についてスクリーンショット付きの専用記事を公開します。

使用モデル

T2V(テキストから動画)

I2V(画像から動画)

MMAUDIO

非ネイティブカスタムノード

このモデルで生成された画像

画像が見つかりません。