Wan 2.2 - SVI Pro 2.0 - I2V for 12GB VRAM (Different Loras Per Stage)(Optimized for Speed)
详情
下载文件
关于此版本
模型描述
WAN 2.2 / SVI Pro 2 / I2V 适用于 12GB 显存
基于 [SVI Pro 2.0 低显存版(8GB)] 的修改版本
7 阶段采样设置,每个阶段配备独立的 LoRA,并结合 Sage Attention CUDA 以提升速度。
如需,可保存每个阶段的视频片段。
最终输出包含超分辨率 + RIFE,实现流畅的 60FPS 效果。
快速组旁路器 —— 便于快速访问。
### 所需模型与 LoRAs
GGUF 主模型:
* [Smooth Mix 版本] 或
> 注意: 请根据您的可用显存选择合适的量化版本(如 Q4 或 Q5)。我强烈推荐 DaSiWa-Wan 高/低配模型,因为 Lightning LoRA 已内嵌,您只需加载 SVI LoRA 即可。
SVI PRO LoRAs(Wan2.2-I2V-A14B):
* 两者均需
文本编码器:
VAE:
以下内容为 NVIDIA 显卡提速设置 —— 若已正常运行请跳过!
使用 Patch Sage Attention 节点(sageattn_qk_int8_pv_fp16_cuda)+ Model Patch Torch 设置节点(提升速度):
提示执行耗时 136.56 秒 <- Sage Attention 禁用 / FP16 累积禁用 / 允许编译 = False
提示执行耗时 104.38 秒 <- Sage Attention 启用 / FP16 累积启用 / 允许编译 = False
提示执行耗时 96.26 秒 <- Sage Attention 启用 / FP16 累积启用 / 允许编译 = True
使用此设置,单个阶段即可节省 40 秒以上!
若 Sage Attention 无法工作或导致 ComfyUI 崩溃,请按以下操作(或使用 CTRL+B 绕过节点,但我强烈建议您修复以获得显著提速):
以下仅适用于 ComfyUI_windows_portable,若您使用其他环境请勿操作!
- 步骤 1 — 检查您的 PyTorch + CUDA 版本
在 ComfyUI 可移植文件夹中打开 CMD(与 run_nvidia_gpu.bat 同目录),运行以下命令:
.\python_embeded\python.exe -c "import torch; print(torch.version, torch.version.cuda)"
输出示例:2.9.1+cu130 13.0
检查嵌入式 Python 版本:
.\python_embeded\python.exe -V
输出示例:Python 3.13.9
这意味着:
Python:3.13(嵌入式)
PyTorch:2.9.1
CUDA:13.0
警告!若您不确定如何继续,请将您的错误代码粘贴至 Grok/ChatGPT 以获取更详细的分析。
从步骤 1 的输出中选择匹配的 wheel 文件。
因此,适用于您环境的正确 SageAttention wheel 文件应类似如下:
sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl
从以下链接下载匹配您环境的 wheel 文件:
该文件匹配 Python 3.13(cp313-cp313)、PyTorch 2.9.x 和 CUDA 13.0。
补丁版本的微小差异(2.9.1 vs 2.9.0)无影响 —— 此 wheel 文件兼容 PyTorch 2.9.x。
- 步骤 2 — 安装 wheel 文件(请确保文件位于 \ComfyUI_windows_portable 目录,与 run_nvidia_gpu.bat 同目录)
在 ComfyUI 可移植文件夹中打开 CMD,运行以下命令(示例如下):
.\python_embeded\python.exe -m pip install "sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl"
- 步骤 3 — 检查是否安装成功:
在 ComfyUI 可移植文件夹中打开 CMD,运行:
.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print(dir(sageattention))"
您应看到:
SageAttention import successful!
['builtins', 'cached', 'doc', 'file', 'loader', 'name', 'package', 'path', 'spec', '_fused', '_qattn_sm80', '_qattn_sm89', '_qattn_sm90', 'core', 'quant', 'sageattn', 'sageattn_qk_int8_pv_fp16_cuda', 'sageattn_qk_int8_pv_fp16_triton', 'sageattn_qk_int8_pv_fp8_cuda', 'sageattn_qk_int8_pv_fp8_cuda_sm90', 'sageattn_varlen', 'triton']
- 步骤 4 — 确认 Triton 注意力模式是否可用:
在 ComfyUI 可移植文件夹中打开 CMD,运行:
.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print('Triton mode available:' , hasattr(sageattention, 'sageattn_qk_int8_pv_fp16_triton'))"
您应看到:
SageAttention import successful!
Triton mode available: True
若出现 Triton 错误,请运行:
.\python_embeded\python.exe -m pip install triton
步骤 5 — 现在您应能正确使用 "sageattn_qk_int8_pv_fp16_cuda" 配合 Patch Sage Attention 和 Model Patch Torch 设置节点。
