Wan 2.2 - SVI Pro 2.0 - I2V for 12GB VRAM (Different Loras Per Stage)(Optimized for Speed)

詳細

ファイルをダウンロード

モデル説明

WAN 2.2 / SVI Pro 2 / I2V 用 12GB VRAM

[SVI Pro 2.0 用低VRAM(8GB)] の修正版

および [Wan2.2 SVI Pro Example KJ]

  • 7段階のサンプル設定。各段階に独自のLoRAを適用し、Sage Attention Cudaと組み合わせて高速化。

  • 必要に応じて各段階のクリップを保存可能。

  • 最終出力にはアップスケーラー + RIFEを適用し、滑らかな60FPSを実現。

  • ファストグループバイパス:迅速なアクセス用。

### 必要なモデルとLoRAs

GGUFメインモデル:

* [DaSiWa-Wan 2.2 I2V] または

* [Smooth Mix Version] または

* [Enhanced NSFW Camera Prompt Adherence]

> 注意: 使用可能なVRAMに応じて適切な量子化(例:Q4またはQ5)を選択してください。Lightning LoRAが組み込まれているため、SVI LoRAのみが必要となるDaSiWa-Wanの高/低モデルを強く推奨します。

SVI PRO LoRAs(Wan2.2-I2V-A14B):

* 両方必須

[SVI PRO - HIGH (Rank 128)]

[SVI PRO - LOW (Rank 128)]

テキストエンコーダー:

[WAN UMT5] または

[NSFW WAN UMT5]

VAE:

[Wan 2.1 VAE]

以下はnVidiaカードの速度向上用設定です。既に動作している場合はスキップしてください!

Sage Attentionノード(sageattn_qk_int8_pv_fp16_cuda)+モデルパッチTorch設定ノードを使用して高速化:

136.56秒でプロンプト実行 <- Sage Attention無効 / FP16累積無効 / Allow Compile = False

104.38秒でプロンプト実行 <- Sage Attention有効 / FP16累積有効 / Allow Compile = False

96.26秒でプロンプト実行 <- Sage Attention有効 / FP16累積有効 / Allow Compile = True

この設定により、1段階あたり最大40秒以上を節約できます!

Sage Attentionが動作しない、またはComfyUIがクラッシュする場合は以下の手順を実行してください(またはCTRL+Bでノードをバイパスできますが、高速化のためSage Attentionの動作を強く推奨します):

  • 以下の手順はComfyUI_windows_portable専用です。他の環境では行わないでください!

    • ステップ1 — PyTorchおよびCUDAのバージョンを確認

    ComfyUI Portableフォルダ(run_nvidia_gpu.batと同じディレクトリ)でCMDを開き、以下のコマンドを実行:

    .\python_embeded\python.exe -c "import torch; print(torch.version, torch.version.cuda)"

    出力例:2.9.1+cu130 13.0

    Python埋め込みバージョンを確認:

    .\python_embeded\python.exe -V

    出力例:Python 3.13.9

    つまり:

    Python:3.13(埋め込み)

    PyTorch:2.9.1

    CUDA:13.0

    警告: 以下の手順が不安な場合は、エラーコードをGrok/ChatGPTに貼り付けて詳細な分析を受けてください。

    ステップ1のPython + PyTorch + CUDAの出力に一致するワheelを選択してください。

    つまり、あなたの環境に適したSageAttentionのワheelは以下のようなものになります:

    sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl

    以下のリンクから、あなたの環境に合った正しいワheelをダウンロード:

    [ワheel一覧]

    これはPython 3.13(cp313-cp313)、PyTorch 2.9.x、CUDA 13.0に対応しています。

    パッチバージョンのわずかな差異(2.9.1 vs 2.9.0)は問題ありません。このワheelはPyTorch 2.9.xで動作します。

    • ステップ2 — ワheelをインストール(ファイルが\ComfyUI_windows_portable内、run_nvidia_gpu.batと同じディレクトリにあることを確認)

    ComfyUI PortableフォルダでCMDを開き、正しいワheelファイルを使用して以下のコマンドを実行(例):

    .\python_embeded\python.exe -m pip install "sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl"

    • ステップ3 — 動作確認方法:

    ComfyUI PortableフォルダでCMDを開き、以下のコマンドを実行:

    .\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print(dir(sageattention))"

    以下のような出力が表示されるはずです:

    SageAttention import successful!

    ['builtins', 'cached', 'doc', 'file', 'loader', 'name', 'package', 'path', 'spec', '_fused', '_qattn_sm80', '_qattn_sm89', '_qattn_sm90', 'core', 'quant', 'sageattn', 'sageattn_qk_int8_pv_fp16_cuda', 'sageattn_qk_int8_pv_fp16_triton', 'sageattn_qk_int8_pv_fp8_cuda', 'sageattn_qk_int8_pv_fp8_cuda_sm90', 'sageattn_varlen', 'triton']

    • ステップ4 — Tritonアテンションモードが利用可能か確認:

    ComfyUI PortableフォルダでCMDを開き、以下のコマンドを実行:

    .\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print('Triton mode available:' , hasattr(sageattention, 'sageattn_qk_int8_pv_fp16_triton'))"

    以下のような出力が表示されるはずです:

    SageAttention import successful!

    Triton mode available: True

    Tritonエラーが発生した場合は、以下のコマンドを実行:

    .\python_embeded\python.exe -m pip install triton

    • ステップ5 — これで「sageattn_qk_int8_pv_fp16_cuda」を、Patch Sage AttentionおよびModel Patch Torch Settingsノードと共に正しく使用できるようになります。

このモデルで生成された画像

画像が見つかりません。