Yet Another Workflow: easy t2v + i2v (Wan 2.2)

詳細

ファイルをダウンロード

モデル説明

その他のワークフロー:簡単なt2v + i2v

私はComfyUIの使いやすいUIを目指しました。複雑さと使いやすさのバランスをとり、このワークフローでは、何に注目すべきかを明確に示しながら、役に立つコントロールを提供することを目的としています。ComfyUIの品質やUIの難しさに悩んでいる方々にとって、このワークフローが役立つことを願っています。色分けと多くの注釈を丁寧に加えました。注釈を必ずお読みください!役に立つように心がけました。

これは私が実際に使っているワークフローで、スキルレベルを意識したものではありません。いくつかのUI上の妥協とラベリングを加えることで、初心者でも簡単に操作・調整できるように設計されています。公式の例ワークフローは壊れやすく、このワークフローはそれよりも洗練された体験を提供します。

このワークフローの主な目的は、テキストから動画(T2V)または画像から動画(I2V)を生成する際の基礎的な立ち位置を提供し、あまり煩わせずに済むようにすることです。Lightx2\ningはデフォルトで有効になっています。(これは多様性を犠牲にして生成速度を向上させるアクセラレーターです。)

緑色のコントロールは、通常調整したい項目です。

副次的な目的は、異なるサンプラーと一貫したインターフェースでやり取りできるようにすることです。

バージョン

メインワークフローは基本的なksamplerノードをサポートしていますが、経験を積んで試してみたい場合、Clownsharkサンプラーを有効にするトグルも含まれています。

バージョンv0.3では、追加のクリーンアップやその他の微細な改善に加え、TripleKSamplerを導入しました。これは新しいノードを追加し、加速用LoRAなしで初期ノイズパターンを生成する、より高度な3サンプラー技術を可能にします。これにより、Vanilla Wanのダイナミクスをより維持した動画が作成可能になります(その代わりに時間が約15〜30%増加します)。

今後も代替バージョンを継続的に更新します。

v0.35では、ネガティブプロンプトの適合性を向上させるためにNAGを追加し、最終動画のフレームレートを変更するトグルも追加しました。

ComfyとWanにまったく慣れていない方? MoEバージョンをご利用ください。いくつかのノードを削除しつつ、ほぼ同じインターフェースを提供し、視覚的複雑さを少し減らして慣れやすくしています。このバージョンに慣れてきたら、より多くのオプションを持つメインバージョンにステップアップしてください。

エッジケースでのプロンプト適合性をより高めたいですか? WanVideoノードをサポートするバージョンを用意しました。標準バージョンに慣れるまで、このバージョンの使用はお勧めしません。 視覚的複雑さが増します。これらのノードは他のシステムとはまったく異なる動作をしますが、同じインターフェースで利用できるようにすることで、より使いやすくすることを目指しています。WanVideoはまったく異なる結果を生み出すため、興味深い探索対象になります。

また、Smooth MixチェックポイントをサポートするSmooth Mixバージョンも作成しました。これは何ですか?Stable Diffusionのチェックポイントと同様、複数のLoRAをWan 2.2のベースモデルに統合し、より明確な意見を持った動画生成モデルを作成します。私は、公式ワークフローの推奨に基づいてv0.35ワークフローを更新し、より優れたYAW UI体験を提供しています。このチェックポイントはディテールと動きが優れていますが、動きアーチファクトが発生しやすく、アニメ風スタイルにもある程度対応しています。内蔵の自己強制LoRA(Lightx\ning)により、このバージョンのサンプラー選択はシンプルに保たれています。ただし、このチェックポイントは80GBという追加サイズを必要とするため、 私のRunPodテンプレート ではオプションダウンロードとしてのみ提供されます。

v0.36は、NAG調整後にモデルシフトが正しくパッチされなかった関連の小さなバグ修正であり、更新された2つのテンプレートのみに影響します。

v0.37は、標準v0.36ワークフローに含まれるTripleSamplerのカスタムノードのWanVideo版を追加した新しいWanVideoバージョンです。

気に入りましたか?

使用する際はリソースとしてタグを付けてください!いいねを押してください! バズは正直必要ありませんが、RunPodのクレジットコードをメッセージで送ってくださったら、とても感謝します!

サポートが必要ですか?

私はこの分野で人が立ち上がるのを助けるのが好きです。もし助けが必要なら、メッセージをください。細かい手順を丁寧に説明し、質問に答え、追加のヒントやトリック、スクリプトを提供します。これまで数名の方々にこうしたサポートを提供してきました。お金とストレスを節約できます。(このサポートを受けた場合は、RunPodクレジットコードを送っていただけると嬉しいです。)

また、こちらの記事を執筆しました。 新しいRunPodテンプレートを追加し、セットアップを大幅に簡略化・迅速化しています。

一般的なアドバイス

  • 数多くの動画を作成しましょう!動画を投稿しましょう!テクノロジーにこだわらず、時間の使い方を賢くしましょう。好きな動画を作るよりも、動画がうまく動くようにすることに時間を費やしすぎると、すぐに疲れてしまいます。だからこそ、私はこれらのワークフローを公開しています。

  • RunPodを使いましょう。L40Sを使いましょう。私のWan 2.2テンプレートを使いましょう。RunPodをまだ使ったことがない方は、私のリンクで登録してください。両者に無料クレジットが付与されます。詳細は記事をご覧ください。

  • RunPodなどのサービスを使用する場合、I2Vを行う際は、サーバーを効率的に稼働させるために、事前に画像を用意しておくと良いでしょう。

  • いくつかのカスタムノードをインストールする必要があります。Comfyインターフェースの上部にある「Manager」ボタンをクリックし、「Install Missing Custom Nodes」をクリックしてください。表示された各ノードに対して「Install」をクリックしてください(順番に推奨)。各ノードのインストールが完了するまで待ちましょう。すべてのノードがインストールされるまでComfyUIを再起動しないでください。(RunPodテンプレートにはすでにインストールされています。)

  • 線が気になったら、フローティングUIの右下にあるボタンで線を非表示にできます。

  • Lightx2\ningとは何ですか? これは、Lightx2とLightning(Wan 2.2のバージョン)の自己強制LoRAを指す私の略称です。

  • もし試したい場合はLightx2\ningを無効化することも容易にできますが、その場合、生成速度は大幅に遅くなります。

  • このワークフローは.safetensorsモデル用に設定されていますが、必要に応じてGGUFを使用することも可能です。

  • UIにClownshark/TripleKサンプラーが表示されて気になった場合は、そのグループを削除しても問題ありません。(サンプラー選択の紫のミュートノードも削除できます。)

コストは?

興味があるかもしれませんが、例示した動画(720x1280)は約6.5分かかります。(私は普段、試作や実験の際にはこの解像度は使いません。)通常、2〜3分で見た目が良い動画を作成できます。私は基本的に時給0.90ドルで動作しており、一般的に1時間あたり9〜20本の高品質動画が生成できるため、1本あたり約0.045〜0.10ドル(小数点切り上げ)です(L40S使用時)。(Podの起動コストを含めると、1本あたり1セント程度追加されます。)私の理想的な生成時間は1〜2分ですが、やや長めです。これはコストの考慮です。より高速なGPUを使えば目標に到達できますが、コストが高すぎます。現状の技術では、これが私にとって最適なバランスです。

問題解決

ワークフローを開いたときに、ノードが欠けている(明るい赤い太い枠と警告が表示される)場合は、「Manager」>「Install Missing Custom Nodes」に進み、表示されたノードすべてに「Install」を押してインストールしてください。

カスタムノードに関するエラーが発生した場合、ソフトウェアが最近変更された可能性があります。このような状況では、最後の「安定版」ビルドに戻すと役立つことがあります。

たとえば、WanVideoWrapperのナイトリービルドでは、前回はなかったエラーが発生することがあります。ワークフローを開いた状態で、「Manager」>「Custom Nodes in Workflow」に進むと、すべてのカスタムノードが表示されます。「Switch Ver」をクリックすると、すべてのリリースが表示されるので、リストの上部にある最初の番号付きバージョンを試してみてください。

それでも解決しない場合、または重大な問題が発生している場合で、RunPodを使用している場合は、CUDA 12.8を選択し忘れている可能性があります。サーバーを再起動してください。それでも解決しない場合は、Podを終了して新しく作成してください。これにより、予想外の多くの問題が解決します。

長い動画のサポートは?

いつか。おそらく。

私はこの問題の良い解決策を常に探しています。しかし、まだ複雑すぎない良い解決策は見つかっていません。少し説明すると:

Wan AnimateやInfinite Talkのような専用ソリューションは、他の技術を利用して動画を長くしています(動きの再マッピングや、会話する頭部動画の作成など)。VACEは有望ですが、セットアップと使用が非常に複雑で、複数のステップが必要です。また、シーンのキーフレームを作成し、最初と最後のフレームを使ってアニメーションを補完し、その後の補間処理でシームを隠す手法もあります。これらの大半は、色補正やipadapterを使用して顔の整合性を保つ必要があります。

結局のところ、短い動画を作るのに膨大な手間がかかるか、すでに妥協しているものをさらに妥協することになります。これが私が提供しようとしているものではありません。

私は、この問題がAI動画分野における最大の課題だと考えています。趣味で行っている大多数のユーザーにとっても、ビジネスとして本格的に活用しようとしている企業にとっても同様です。これらの問題はWanに特有のものではなく、企業ごとに異なります。動画を長くするための技術的課題があり、おそらく今後、経済的圧力と研究の集中により、「より多くのVRAM」ではなく、より良い動画が実現されるでしょう(なぜならVRAMの増加はスケーラブルではありません)。

明確にしておきます:最後のフレームを保存してそれらをつなぎ合わせる方法で、現在でもこの作業は可能です。しかし、私はその結果を一般的に好まないため、このような手法からより良い・より安定した出力が得られるまで、公式にサポートすることは控えます。

このモデルで生成された画像

画像が見つかりません。