Wan2.1 I2V GGUF w/ Optimization Nodes + Causvid/FusionX/LightX Workflow
詳細
ファイルをダウンロード
モデル説明
16GB VRAMではもはやOOMエラーは発生しません。このワークフローを参考に、これらの最適化ノードをご自身のワークフローに組み込んでください。または、本当に必要ならこのままご使用ください。
私はdefinitelynotadogが作成したバージョン1のワークフローを、16GB VRAM向けに最適化しました(おそらくより低いVRAMでも動作すると思います)。彼が主なモデルを作成してくれたことに感謝します - /model/1622023?modelVersionId=1835720
私はSageAttention、BlockSwap、TeaCacheノードを追加しました。480p GGUFモデルでは約3分、720p GGUFモデルでは約6分で処理できます。私が追加した最適化ノードを自由に持ってきて、彼のV2ワークフローまたはご自身のワークフローに組み込んでください。
まず、より良いパフォーマンスのために、ご希望のWan2.1モデルのGGUFバージョンをダウンロードしてください。Q数が高いほど品質が向上します。個人的には、Q8と比較して品質の差が非常に小さく、速度が速いQ3を採用しました。
LoRaアクセラレーター:
Causvid LoRAは、FusionXまたはLightX LoRAに置き換え可能です(組み込み機能らしいので、どちらか一方を選んでください)。
SelfForcing - /model/1713337/wan-self-forcing-rank-16-accelerator
FusionX - /model/1678575/wan21fusionx-the-lora
CausVid - /model/1585622/self-forcing-causvid-accvid-lora-massive-speed-up-for-wan21-made-by-kijai
モデル:
以下はI2V 720p GGUFモデルです - https://huggingface.co/city96/Wan2.1-I2V-14B-720P-gguf/tree/main
I2V 480p GGUFモデル - https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/tree/main
欠落しているVAE、CLIP Vision、CLIPも必ずダウンロードしてください。
カスタムノードと依存関係をインストールするためにCustom Managerを導入してください。ただし、この特定のノードは手動でインストールする必要があるかもしれません:https://github.com/city96/ComfyUI-GGUF
設定:
FusionX LoRAまたはCausvid LoRAを使用する場合、ステップ数は4〜10に設定してください。16fps、最大長81を維持してください。私にとって最適なステップ数は7で、それ以下にすると多くのアーティファクトやギミックが発生します。480pは848、720pは1280です。
最適化:
SageAttentionは約25%の速度向上をもたらします。ご自身のシステムにSageAttentionがインストールされていない場合、Windowsでの設定ガイドはこちら:https://www.reddit.com/r/StableDiffusion/comments/1h7hunp/how_to_run_hunyuanvideo_on_a_single_24gb_vram_card/(誤って実行するとComfyUIが破損する可能性があります)
BlockSwapノードはVRAMをシステムRAMにオフロードします(これでOOMエラーは発生しません)。14Bモデルには40、1.3Bモデルには30に設定してください。生成中にVRAM使用量を確認して最適値を見つけてください。ブロック数が多いほどVRAM使用量が少なります。解像度がVRAM使用量に大きな影響を与える点に注意してください。
TeaCacheノードは2倍の速度を提供しますが、品質を犠牲にします。動画があまりにもぼやけていたり、四肢が欠けている場合は、しきい値を0.140に下げてください。または、結果が気に入らない場合はこのノードを無効化または削除してください。私はまだ最適な設定を探している途中です。
私はこれらのノードの初心者なので、他のユーザーの助けになるような有用な情報をご提供ください。
