WAN VACE Professional Video-to-Video Complete Workflow

詳細

ファイルをダウンロード

モデル説明

🎬 WAN VACEによるプロフェッショナルな動画から動画への変換

この包括的なComfyUIワークフローを使用して、WAN VACEでプロフェッショナルな品質で動画を変換してください。この完全なパイプラインは、長尺動画のシームレスな動画から動画への変換を可能にし、シームレスな結合、アップスケーリング、フレーム補間などの高度な機能を備えています。長い動画を管理しやすいセグメントに分割し、個別に処理した後、一貫した高品質な出力にシームレスに再結合します。

✨ 主な機能

  • 長尺動画処理:セグメントに分割して処理し、シームレスに再結合して長時間の動画コンテンツに対応

  • 完全なV2Vパイプライン:動画から動画への変換ワークフローを完全に実装

  • シームレスな動画結合:目立たないトランジションでプロフェッショナルな動画連結用カスタムノード

  • マルチステップ処理:生成 → 結合 → 結合 → アップスケール → 補間

  • プロフェッショナル品質:カスタマイズ可能な設定で高品質な出力

  • メモリ最適化:さまざまなGPU構成向けに低VRAMオプションを提供

  • バッチ処理:複数の動画セグメントを効率的に処理

  • スケーラブルなアーキテクチャ:インテリジェントなセグメンテーションで任意の長さの動画を処理

📋 必要条件

必須モデルファイル

🔴 WAN GGUFモデル

🟣 WAN VAE

🟣 WANテキストエンコーダ

  • GGUFテキストエンコーダを以下からダウンロード:city96/umt5-xxl-encoder-gguf

  • 配置場所:ComfyUI/models/text_encoders

必須カスタムノード

⚠️ 重要:これらのカスタムノードはComfyUI-Managerから入手できません。このページからダウンロードしてください:

  • seamless_join_video_clips.py

  • combine_video_clips.py

  • 配置場所:ComfyUI/custom_nodes/

ComfyUI拡張機能

⚙️ ComfyUI-Managerを使用して以下のカスタムノードをインストールしてください。

  • ComfyUI-GGUF

  • ComfyUI-VideoHelperSuite

  • ComfyUI-KJNodes

  • ComfyUI-ControlNet-Aux

  • ComfyUI-Frame-Interpolation

  • ComfyUI-Easy-Use

📖 ステップバイステップガイド

初期設定

  1. 定数を設定

    • 幅/高さ:576x1024(9:16アスペクト比)またはソース動画に合わせる

    • 長さ:1セグメントあたり81フレーム

    • スキップフレーム:0から開始

    • ファイル名プレフィックス:出力フォルダとプレフィックスを設定

  2. ソース素材の読み込み

    • 再スタイル化するソース動画を読み込む

    • 参照画像を読み込む(動画の最初のフレームと似たポーズであることを確認)

    • 最適なポーズマッチングにはSDXL/FLUXにLoRAとControlNetを使用

ステップ1:WAN動画の生成

  1. プロンプトの作成

    • キャラクター、衣装、背景を詳細に記述

    • 動的な結果を得るためにアクション表現を含める

  2. 動画セグメントの生成

    • 実行ボタンをクリックして最初の81フレームの動画セグメントを生成

    • スキップフレームを81増やして次のセグメントを処理

    • ソース動画の全長にわたって繰り返す

    • 最終セグメントは短くなる可能性があり、品質がやや低下する場合あり

    • 長尺動画の場合:全時間分をカバーするまでこのプロセスを継続

ステップ2:動画をシームレスに結合

  1. 結合設定

    • 生成した動画が保存されているフォルダパスを設定

    • 生成ファイルと一致するファイル名プレフィックスを設定

    • ファイル名サフィックスを1から開始

    • ステップ1で使用したプロンプトをそのまま使用

  2. 結合プロセス

    • 実行して最初と2番目の動画を結合

    • ファイル名サフィックスを1増やす

    • 2番目と3番目の動画を結合して実行

    • すべてのセグメントが結合されるまで繰り返す

ステップ3:結合・アップスケール・補間

  1. 最終処理設定

    • 結合済み動画が保存されているフォルダパスを設定

    • ファイル名サフィックスは1のまま(固定)

    • 最終出力用の結合ファイル名を設定

    • エンハンス版用のアップスケールファイル名を設定

  2. 最終パイプラインの実行

    • すべての結合動画を統合

    • RealESRGANを使用してアップスケール(2倍スケール)

    • FILM VFIを使用してフレーム補間(2倍フレームレート)


⚙️ 上級設定

低VRAM構成

  • メモリ最適化にはUnetLoaderGGUFDisTorchMultiGPUノードを使用

  • 12GB以下GPUの場合、virtual_vram_gbを2.0–4.0に設定

  • use_other_vramを有効にして追加メモリのフォールバックを有効化

パフォーマンス最適化

  • Tritonが利用できない場合はPathchSageAttentionKJとModelPatchTorchSettingsをスキップ

  • GPUメモリに応じてバッチサイズを調整

  • ハードウェアに適した量子化レベルを使用


🎯 最高品質の結果を得るためのヒント

  1. 長尺動画の戦略:セグメンテーションを計画——1セグメント81フレームで滑らかなトランジションを確保しつつ、処理負荷を管理

  2. 参照画像の品質:ソース動画の最初のフレームと似たポーズを持つ高品質な参照画像を使用

  3. プロンプト設計:被写体の詳細、衣装、背景要素を具体的に記述

  4. セグメント計画:動画全体の物語的連続性を維持するようにセグメントを計画

  5. ハードウェア考慮:GPUの能力に応じて設定を調整——長尺動画は最適化されたVRAM設定で恩恵を受ける

  6. 一貫性の維持:すべてのセグメントでプロンプトを一貫して使用し、最終的な長尺動画の視覚的整合性を確保


🩺 トラブルシューティング

  • OOMエラー:virtual_vram_gbを増やすか、バッチサイズを減らす

  • ノードが見つからない:すべてのカスタムノードが正しくインストールされていることを確認

  • 品質の問題:参照画像のアライメントとプロンプトの具体性を確認

  • 処理が遅い:高速生成のために低量子化モデルを使用


🔧 カスタムノードパラメータガイド

WanVideoVaceSeamlessJoinノード

このカスタムノードは、インテリジェントなマスクを使用して2つの動画クリップをシームレスに結合します。

パラメータ:

  • mask_last_frames(INT):最初の動画の末尾にマスクするフレーム数

    • デフォルト:0

    • 範囲:0–20

    • マスク不要の場合は0、軽いブレンドには5–10を使用

  • mask_first_frames(INT):2番目の動画の先頭にマスクするフレーム数

    • デフォルト:10

    • 範囲:0–20

    • 滑らかなトランジションには10フレームを推奨

  • frame_load_cap(INT):各動画から読み込む最大フレーム数

    • デフォルト:81

    • 範囲:1–1000

    • セグメント長と一致させる(通常81)

  • first_video_path(STRING):最初の動画ファイルの完全なパス

    • 形式:"C:\path\to\video1.mp4"

    • 信頼性のために絶対パスを使用

  • second_video_path(STRING):2番目の動画ファイルの完全なパス

    • 形式:"C:\path\to\video2.mp4"

    • ファイルが存在し、アクセス可能であることを確認

出力:

  • image:結合された動画フレームを画像シーケンスとして出力

  • mask:トランジション領域用に生成されたマスク


CombineVideoClipsノード

このノードは、高度なマスクオプションを備えて複数の動画クリップを1つの連続シーケンスに結合します。

パラメータ:

  • frame_load_cap(INT):各動画から読み込む最大フレーム数

    • デフォルト:81

    • 範囲:1–1000

    • セグメントのフレーム数と一致させる

  • mask_last_frames(INT):各動画(最終動画を除く)の末尾にマスクするフレーム数

    • デフォルト:0

    • 範囲:0–20

    • クリーンカットには0、フェード効果には5–10を使用

  • mask_first_frames(INT):各動画(最初の動画を除く)の先頭にマスクするフレーム数

    • デフォルト:10

    • 範囲:0–20

    • 滑らかなトランジションには10を推奨

  • first_video_path(STRING):シーケンスの最初の動画のパス

    • ベース動画——通常は生成されたオリジナル動画
  • first_joined_video_path(STRING):最初のシームレス結合動画のパス

    • 最初のWanVideoVaceSeamlessJoin操作の結果
  • second_joined_video_path(STRING):2番目のシームレス結合動画のパス

    • 2番目のWanVideoVaceSeamlessJoin操作の結果
  • third_joined_video_path(STRING):3番目のシームレス結合動画のパス

    • 追加セグメントのパターンに従って継続
  • fourth_joined_video_path(STRING):4番目のシームレス結合動画のパス

    • オプション——この数のセグメントがある場合に使用
  • fifth_joined_video_path(STRING):5番目のシームレス結合動画のパス

    • オプション——サポートされる最大セグメント数
  • last_video_path(STRING):シーケンスの最終動画のパス

    • 最終生成された動画セグメント

出力:

  • image:最終処理用に結合された動画シーケンスを画像フレームとして出力

パラメータ最適化のヒント:

シームレス結合の場合

  • 短いトランジションmask_first_frames = 5mask_last_frames = 0

  • 滑らかなブレンドmask_first_frames = 10mask_last_frames = 5

  • 長いクロスフェードmask_first_frames = 15mask_last_frames = 10

ファイルパスの場合

  • 実行前にすべての動画ファイルが存在することを確認

  • バッチ処理を容易にするために一貫した命名規則を使用

フレーム数の考慮

  • frame_load_capをセグメント長(通常81)と一致させる

  • 小さすぎる値は長めのセグメントを切り詰める可能性あり


このワークフローは、生成から最終出力までの全パイプラインを包括的に制御できる、プロフェッショナルグレードの動画変換機能を提供します。

このモデルで生成された画像

画像が見つかりません。