WAN2.2 5B Ultimate Suite - T2V, I2V & T2I2V Pro

詳細

ファイルをダウンロード

モデル説明

CivitAIで最も先進的で包括的なWAN2.2 5Bワークフローです。このワンストップソリューションは、テキストから動画、画像から動画、テキストから画像再到動画の生成を、ローカルLLM(Ollama)によって動的で知的なプロンプト強化を実現します。単純なプロンプトの使用をやめ、知的なモーションデザインで映画的な滑らかなアニメーションを生成しましょう。

ワークフローの説明

この丁寧に設計され、機能豊富なComfyUIワークフローで、WAN2.2 5Bモデルの可能性を最大限に引き出してください。これは単なるパイプラインではなく、あなたのアイデアと圧倒的なAI生成動画を知的に橋渡しするプロフェッショナルなコンテンツ制作ツールです。

このワークフローが際立つ理由:

* 🤖 AI駆動の知性: 統合されたOllama LLMが、テキストや画像を分析し、WAN2.2の動画機能に最適化された豊かで動的なプロンプトを生成します。静的な概念を、動き、照明、映画的な生命に満ちた記述に変換します。

* 🎬 マルチモーダルの達人: ワークフローを変更せずに、3つの強力な生成モードをシームレスに切り替えられます。

* ⚙️ 最適化・堅牢: 安定性と効率性を重視して構築。GPUメモリ自動管理、フレーム補間、プロフェッショナルな動画出力システムを備えています。

* 🔄 オールインワンパイプライン: 簡単なアイデアや画像から、滑らかな最終動画ファイルまで、すべてが接続され自動化されています。

機能と技術的詳細

🧩 コアコンポーネント:

* モデル: wan2.2_ti2v_5B_fp16.safetensors

* VAE: wan2.2_vae.safetensors

* 主要LoRA: Wan2.2_5B_FastWanFullAttn(スタイルLoRA)

* アップスケーラー: 入力画像の前処理に統合。

* フレーム補間: RIFE VFIにより、なめらかな2倍フレーム生成(24fpsと48fps動画を出力)。

🔧 統合AIエンジン(Ollama):

* テキスト用(T2V): huihui_ai/gemma3-abliterated:12b-q8_0 — 簡単なテキストを分析し、動き、カメラワーク、雰囲気を含む詳細な動画プロンプトを生成。

* ビジョン用(I2V): qwen2.5vl:7b-q8_0 — 提供した画像を分析し、その内容に基づいて最適なアニメーションプロンプトを作成。

* T2I(Fluxグループ)用: gemma3:latest — 高品質な画像生成用に簡単なテキスト記述を強化し、その後アニメーション化可能に。

📊 出力:

* 解像度: 入力画像サイズまたは定義された潜在サイズに適応。

* フレーム数: 設定可能(デフォルト:121フレーム)。

* フォーマット: メタデータを正しく含むMP4(H.264)。

* デュアル出力: 標準24fpsと補間された48fps動画が自動保存されます。

使い方 / 実行手順

前提条件:

1. ComfyUI Manager: 欠落しているカスタムノードをインストールするために必須。

2. Ollama: システムにインストール・起動済み。必要なLLMモデル(gemma3, qwen2.5vl)をプル済みであること。

3. すべてのモデル/LoRA: ワークフロー内のすべてのパスが、実際にお持ちのファイルを指していることを確認。最も一般的なエラーはモデルの欠落です!

4. カスタムノード: ワークフローは、不足しているノードをComfyUI Manager経由でインストールするよう促します。主なノードスイート:

* comfyui-ollama

* comfyui-videohelpersuite

* comfyui-frame-interpolation

* comfyui-easy-use

* gguf(Flux読み込み用)

使用方法:

1. テキストから動画(T2V)

1. 緑色の**「ここに簡単なプロンプトを入力」**ノードを見つけます。

2. テキストを置き換え、簡単なアイデアを入力(例:「雨の森で剣を抜く騎士」)。

3. OllamaConnectivityV2ノードがOllamaサーバーを指していることを確認(デフォルト:http://192.168.0.210:11434)。

4. プロンプトをキューアップ。Ollamaノードが詳細な映画的プロンプトを生成し、それを基に動画が作成されます。

2. 画像から動画(I2V)

1. **「画像読み込み」**ノードで、開始画像をアップロード。

2. 画像はQwenビジョンモデルによって自動分析されます。

3. Ollamaノードが画像の内容に合わせたモーションプロンプトを生成。

4. プロンプトをキューアップ。ワークフローはAIが生成した記述に基づいて画像をアニメーション化します。

3. テキストから画像再到動画(T2I2V)

1. ワークフローの左側にあるFlux/Kreaグループを使用。

2. PrimitiveStringMultilineノードに、生成したい画像の説明を入力(例:「ジャングルでバナナを食べるゴリラ」)。

3. プロンプトを実行。このグループは高品質な画像を生成します。

4. 画像が生成されたら、手動でメインのI2Vパイプラインに接続するか、提供されている「自動最終フレーム抽出」グループを使って、最新の生成画像を自動的に検出しアニメーション化。

⏯️ 出力: 完成した動画はComfyUIのoutput/video/フォルダに保存されます。ワークフローは最初のフレームのプレビューも保存します。

ヒントとコツ

* Ollamaサーバー: このワークフローはIP 192.168.0.210用に事前設定されています。すべてのOllamaConnectivityV2ノードで、これをhttp://localhost:11434またはご自分のサーバーIPに変更する必要があります。

* スピード vs. 品質: KSamplerのsteps(デフォルト:8)を調整。低いほど高速、高いほど品質が向上する可能性があります。

* コントロール: Ollamaノードを完全にバイパスすることも可能。自分で作成した優れたポジティブプロンプトを**「CLIP Text Encode(ポジティブプロンプト)」**ノードに直接挿入してください。

* トラブルシューティング: エラーが発生した場合、ComfyUIコンソールを確認。ほとんどの問題はOllamaサーバーのアドレス不正またはモデルファイルの欠落が原因です。

このワークフローは、アクセス可能なAI動画生成の最先端を示しています。拡散モデルとLLMを組み合わせることで、単一のモデルでは達成できないはるかに優れた結果を生み出す可能性を実証しています。

作成を楽しんで、素晴らしい結果をぜひ共有してください!

このモデルで生成された画像

画像が見つかりません。