Wan 2.2 - SVI Pro 2.0 - I2V for 12GB VRAM (Different Loras Per Stage)(Optimized for Speed)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
WAN 2.2 / SVI Pro 2 / I2V 用 12GB VRAM
[SVI Pro 2.0 用低VRAM(8GB)] の修正版
および [Wan2.2 SVI Pro Example KJ]
7段階のサンプル設定。各段階に独自のLoRAを適用し、Sage Attention Cudaと組み合わせて高速化。
必要に応じて各段階のクリップを保存可能。
最終出力にはアップスケーラー + RIFEを適用し、滑らかな60FPSを実現。
ファストグループバイパス:迅速なアクセス用。
### 必要なモデルとLoRAs
GGUFメインモデル:
* [DaSiWa-Wan 2.2 I2V] または
* [Smooth Mix Version] または
* [Enhanced NSFW Camera Prompt Adherence]
> 注意: 使用可能なVRAMに応じて適切な量子化(例:Q4またはQ5)を選択してください。Lightning LoRAが組み込まれているため、SVI LoRAのみが必要となるDaSiWa-Wanの高/低モデルを強く推奨します。
SVI PRO LoRAs(Wan2.2-I2V-A14B):
* 両方必須
テキストエンコーダー:
[WAN UMT5] または
VAE:
以下はnVidiaカードの速度向上用設定です。既に動作している場合はスキップしてください!
Sage Attentionノード(sageattn_qk_int8_pv_fp16_cuda)+モデルパッチTorch設定ノードを使用して高速化:
136.56秒でプロンプト実行 <- Sage Attention無効 / FP16累積無効 / Allow Compile = False
104.38秒でプロンプト実行 <- Sage Attention有効 / FP16累積有効 / Allow Compile = False
96.26秒でプロンプト実行 <- Sage Attention有効 / FP16累積有効 / Allow Compile = True
この設定により、1段階あたり最大40秒以上を節約できます!
Sage Attentionが動作しない、またはComfyUIがクラッシュする場合は以下の手順を実行してください(またはCTRL+Bでノードをバイパスできますが、高速化のためSage Attentionの動作を強く推奨します):
以下の手順はComfyUI_windows_portable専用です。他の環境では行わないでください!
- ステップ1 — PyTorchおよびCUDAのバージョンを確認
ComfyUI Portableフォルダ(run_nvidia_gpu.batと同じディレクトリ)でCMDを開き、以下のコマンドを実行:
.\python_embeded\python.exe -c "import torch; print(torch.version, torch.version.cuda)"
出力例:2.9.1+cu130 13.0
Python埋め込みバージョンを確認:
.\python_embeded\python.exe -V
出力例:Python 3.13.9
つまり:
Python:3.13(埋め込み)
PyTorch:2.9.1
CUDA:13.0
警告: 以下の手順が不安な場合は、エラーコードをGrok/ChatGPTに貼り付けて詳細な分析を受けてください。
ステップ1のPython + PyTorch + CUDAの出力に一致するワheelを選択してください。
つまり、あなたの環境に適したSageAttentionのワheelは以下のようなものになります:
sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl
以下のリンクから、あなたの環境に合った正しいワheelをダウンロード:
これはPython 3.13(cp313-cp313)、PyTorch 2.9.x、CUDA 13.0に対応しています。
パッチバージョンのわずかな差異(2.9.1 vs 2.9.0)は問題ありません。このワheelはPyTorch 2.9.xで動作します。
- ステップ2 — ワheelをインストール(ファイルが\ComfyUI_windows_portable内、run_nvidia_gpu.batと同じディレクトリにあることを確認)
ComfyUI PortableフォルダでCMDを開き、正しいワheelファイルを使用して以下のコマンドを実行(例):
.\python_embeded\python.exe -m pip install "sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl"
- ステップ3 — 動作確認方法:
ComfyUI PortableフォルダでCMDを開き、以下のコマンドを実行:
.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print(dir(sageattention))"
以下のような出力が表示されるはずです:
SageAttention import successful!
['builtins', 'cached', 'doc', 'file', 'loader', 'name', 'package', 'path', 'spec', '_fused', '_qattn_sm80', '_qattn_sm89', '_qattn_sm90', 'core', 'quant', 'sageattn', 'sageattn_qk_int8_pv_fp16_cuda', 'sageattn_qk_int8_pv_fp16_triton', 'sageattn_qk_int8_pv_fp8_cuda', 'sageattn_qk_int8_pv_fp8_cuda_sm90', 'sageattn_varlen', 'triton']
- ステップ4 — Tritonアテンションモードが利用可能か確認:
ComfyUI PortableフォルダでCMDを開き、以下のコマンドを実行:
.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print('Triton mode available:' , hasattr(sageattention, 'sageattn_qk_int8_pv_fp16_triton'))"
以下のような出力が表示されるはずです:
SageAttention import successful!
Triton mode available: True
Tritonエラーが発生した場合は、以下のコマンドを実行:
.\python_embeded\python.exe -m pip install triton
- ステップ5 — これで「sageattn_qk_int8_pv_fp16_cuda」を、Patch Sage AttentionおよびModel Patch Torch Settingsノードと共に正しく使用できるようになります。
