Wan 2.2 - SVI Pro 2.0 - I2V for 12GB VRAM (Different Loras Per Stage)(Optimized for Speed)

详情

模型描述

WAN 2.2 / SVI Pro 2 / I2V 适用于 12GB 显存

基于 [SVI Pro 2.0 低显存版(8GB)] 的修改版本

以及 [Wan2.2 SVI Pro 示例 KJ]

  • 7 阶段采样设置,每个阶段配备独立的 LoRA,并结合 Sage Attention CUDA 以提升速度。

  • 如需,可保存每个阶段的视频片段。

  • 最终输出包含超分辨率 + RIFE,实现流畅的 60FPS 效果。

  • 快速组旁路器 —— 便于快速访问。

### 所需模型与 LoRAs

GGUF 主模型:

* [DaSiWa-Wan 2.2 I2V]

* [Smooth Mix 版本]

* [增强 NSFW 摄像头提示契合度]

> 注意: 请根据您的可用显存选择合适的量化版本(如 Q4 或 Q5)。我强烈推荐 DaSiWa-Wan 高/低配模型,因为 Lightning LoRA 已内嵌,您只需加载 SVI LoRA 即可。

SVI PRO LoRAs(Wan2.2-I2V-A14B):

* 两者均需

[SVI PRO - 高阶(Rank 128)]

[SVI PRO - 低阶(Rank 128)]

文本编码器:

[WAN UMT5]

[NSFW WAN UMT5]

VAE:

[Wan 2.1 VAE]

以下内容为 NVIDIA 显卡提速设置 —— 若已正常运行请跳过!

使用 Patch Sage Attention 节点(sageattn_qk_int8_pv_fp16_cuda)+ Model Patch Torch 设置节点(提升速度):

提示执行耗时 136.56 秒 <- Sage Attention 禁用 / FP16 累积禁用 / 允许编译 = False

提示执行耗时 104.38 秒 <- Sage Attention 启用 / FP16 累积启用 / 允许编译 = False

提示执行耗时 96.26 秒 <- Sage Attention 启用 / FP16 累积启用 / 允许编译 = True

使用此设置,单个阶段即可节省 40 秒以上!

若 Sage Attention 无法工作或导致 ComfyUI 崩溃,请按以下操作(或使用 CTRL+B 绕过节点,但我强烈建议您修复以获得显著提速):

  • 以下仅适用于 ComfyUI_windows_portable,若您使用其他环境请勿操作!

    • 步骤 1 — 检查您的 PyTorch + CUDA 版本

在 ComfyUI 可移植文件夹中打开 CMD(与 run_nvidia_gpu.bat 同目录),运行以下命令:

.\python_embeded\python.exe -c "import torch; print(torch.version, torch.version.cuda)"

输出示例:2.9.1+cu130 13.0

检查嵌入式 Python 版本:

.\python_embeded\python.exe -V

输出示例:Python 3.13.9

这意味着:

Python:3.13(嵌入式)

PyTorch:2.9.1

CUDA:13.0

警告!若您不确定如何继续,请将您的错误代码粘贴至 Grok/ChatGPT 以获取更详细的分析。

从步骤 1 的输出中选择匹配的 wheel 文件。

因此,适用于您环境的正确 SageAttention wheel 文件应类似如下:

sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl

从以下链接下载匹配您环境的 wheel 文件:

[Wheel 文件列表]

该文件匹配 Python 3.13(cp313-cp313)、PyTorch 2.9.x 和 CUDA 13.0。

补丁版本的微小差异(2.9.1 vs 2.9.0)无影响 —— 此 wheel 文件兼容 PyTorch 2.9.x。

  • 步骤 2 — 安装 wheel 文件(请确保文件位于 \ComfyUI_windows_portable 目录,与 run_nvidia_gpu.bat 同目录)

在 ComfyUI 可移植文件夹中打开 CMD,运行以下命令(示例如下):

.\python_embeded\python.exe -m pip install "sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl"

  • 步骤 3 — 检查是否安装成功:

在 ComfyUI 可移植文件夹中打开 CMD,运行:

.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print(dir(sageattention))"

您应看到:

SageAttention import successful!

['builtins', 'cached', 'doc', 'file', 'loader', 'name', 'package', 'path', 'spec', '_fused', '_qattn_sm80', '_qattn_sm89', '_qattn_sm90', 'core', 'quant', 'sageattn', 'sageattn_qk_int8_pv_fp16_cuda', 'sageattn_qk_int8_pv_fp16_triton', 'sageattn_qk_int8_pv_fp8_cuda', 'sageattn_qk_int8_pv_fp8_cuda_sm90', 'sageattn_varlen', 'triton']

  • 步骤 4 — 确认 Triton 注意力模式是否可用:

在 ComfyUI 可移植文件夹中打开 CMD,运行:

.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print('Triton mode available:' , hasattr(sageattention, 'sageattn_qk_int8_pv_fp16_triton'))"

您应看到:

SageAttention import successful!

Triton mode available: True

若出现 Triton 错误,请运行:

.\python_embeded\python.exe -m pip install triton

步骤 5 — 现在您应能正确使用 "sageattn_qk_int8_pv_fp16_cuda" 配合 Patch Sage Attention 和 Model Patch Torch 设置节点。

此模型生成的图像

未找到图像。