Wan 2.2 GGUF - T2V I2V and FLF2V workflow for VRAM or RAM limited people
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
3つの他のソースから派生させ、より少ないVRAMまたはRAMでより多くの処理を可能にするように再設計された3つのワークフローのコレクション。VRAMにとどまったままRAMの使用を回避し、ComfyUIのクラッシュを防止します(RAMが飽和する可能性が低くなります)。同じグラフィックカードでより大きなモデルを、より良い設定で使用できるようになります。
その代償として、WAN 2.2モデルは毎回メモリに読み込む必要があり、時間がかかります。しかし、何もしないよりはましです。SSDドライブからモデルを読み込むことを推奨します。ComfyUIのメインディレクトリにあるextra_model_paths.yamlファイルを確認してください。
ワークフローの手順にいくつかのタイプミスがありました。ここに全体のワークフローファイルを更新するのは手間がかかりすぎます(「example.pngが偉大なフェニックスに変化する」をN回も提出しなければなりません)。そのため、修正版を以下に掲載します。ご不便をおかけして申し訳ありません。
- 準備:
すべての必要なファイルが揃っていることを確認してください。ファイルをSSDに保存していない場合、多くの時間が無駄になります。
Part 1とPart 2をこの順序で複数回別々に実行すると、モデルが繰り返しメモリに読み込まれます。これは全体のRAMまたはVRAMの使用量を減らしますが、処理に時間がかかります。この方法は、代替手段がワークフロー全体の失敗(たとえば、終盤でのクラッシュ)であるような場合に有用です。この方法では1回の生成につき追加で1分20秒かかりますが、すべてをVRAMに保つことで時間の節約にもなります。Wan 2.2 FLF2Vにはこの方法は競争力がありますが、Wan 2.2 T2Vにはそれほど有効ではありません。
- 第1部:
「Enable Part 1」を有効にし、「Enable Part 2」を無効にします。通常の設定を適用してワークフローを実行します。これにより、High CFG部分のみが処理されます。ワークフローの第1部が終了すると、.latentファイルがキャッシュディレクトリに保存されます。このファイルの保存パスを適宜調整する必要があるでしょう。
- 第2部:
「Enable Part 2」を有効にし、「Enable Part 1」を無効にします。latentファイルのパスが正しいことを確認してください。ワークフローを実行します。
元のワークフロー:
t2v:
/model/1835262/wan22-t2v-gguf-lightx2v-lora
I2v:
/model/1822764/wan-22-i2v-gguf-compact-speed-wf-or-lightning-lora-44-steps
(ネイティブで非常に優秀)
FLF2V:
/model/1884402/flf2v-wan-22-video-generation-first-frame-to-last-frame-with-frame-interpolation
(これは私が作成したモデルであり、リンクされている元のモデルとは大きく異なりました)