Wan 2.2 - SVI Pro 2.0 - I2V for 12GB VRAM (Different Loras Per Stage)(Optimized for Speed)
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
WAN 2.2 / SVI Pro 2 / I2V for 12GB VRAM
[SVI Pro 2.0 for Low VRAM (8GB)]의 수정 버전
7단계 샘플 설정. 각 단계는 고유한 LoRA를 사용하며, Sage Attention Cuda와 결합되어 더 빠른 속도를 제공합니다.
필요시 각 단계의 클립을 저장할 수 있습니다.
최종 출력: 업스케일러 + RIFE를 사용하여 부드러운 60FPS 생성.
빠른 그룹 바이패스 - 빠른 접근을 위한 기능.
### 필요 모델 및 LoRAs
GGUF 주 모델:
* [DaSiWa-Wan 2.2 I2V] 또는
* [Smooth Mix Version] 또는
* [Enhanced NSFW Camera Prompt Adherence]
> 참고: 사용 가능한 VRAM에 맞는 양자화(Q4 또는 Q5 등)를 선택하세요. Lightning LoRA가 내장되어 있어 SVI LoRA만 필요하므로, DaSiWa-Wan 고/저 모델을 강력히 추천합니다.
SVI PRO LoRAs (Wan2.2-I2V-A14B):
* 둘 다 필수
텍스트 인코더:
[WAN UMT5] 또는
VAE:
다음은 nVidia 카드의 속도 향상을 위한 설정입니다. 이미 잘 작동한다면 이 섹션은 건너뛰세요!
Sage Attention 노드(sageattn_qk_int8_pv_fp16_cuda) + 모델 패치 Torch 설정 노드 사용 시 속도 향상:
프롬프트 실행 시간: 136.56초 <- Sage Attention 비활성화 / FP16 누적: 비활성화 / 컴파일 허용: False
프롬프트 실행 시간: 104.38초 <- Sage Attention 활성화 / FP16 누적: 활성화 / 컴파일 허용: False
프롬프트 실행 시간: 96.26초 <- Sage Attention 활성화 / FP16 누적: 활성화 / 컴파일 허용: True
이 설정을 사용하면 한 단계당 40초 이상을 절약할 수 있습니다!
Sage Attention이 작동하지 않거나 ComfyUI가 충돌하는 경우 다음을 수행하거나 (CTRL+B로 노드 바이패스 가능하지만, 큰 속도 향상을 위해 반드시 작동시키는 것을 강력히 권장합니다):
다음은 ComfyUI_windows_portable 전용 설정입니다. 다른 환경에서는 이 방법을 사용하지 마세요!
- 단계 1 — PyTorch + CUDA 버전 확인
ComfyUI Portable 폴더( run_nvidia_gpu.bat과 동일한 디렉토리)에서 CMD를 열고 다음 명령 실행:
.\python_embeded\python.exe -c "import torch; print(torch.version, torch.version.cuda)"
출력 예: 2.9.1+cu130 13.0
Python 임베디드 버전 확인:
.\python_embeded\python.exe -V
출력 예: Python 3.13.9
즉:
Python: 3.13 (임베디드)
PyTorch: 2.9.1
CUDA: 13.0
경고! 다음 단계를 진행하는 방법을 모르겠다면, 오류 코드를 Grok/ChatGPT에 붙여넣어 더 자세한 분석을 받으세요.
단계 1의 Python + PyTorch + CUDA 출력에 맞는 wheel 파일을 선택하세요.
즉, 이 설정에 맞는 올바른 SageAttention wheel은 다음과 같은 형태입니다:
sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl
다음 링크에서 자신의 설정에 맞는 wheel을 다운로드하세요:
이 wheel은 Python 3.13(cp313-cp313), PyTorch 2.9.x, CUDA 13.0과 호환됩니다.
패치 버전 차이(2.9.1 대 2.9.0)는 문제가 되지 않으며, 이 wheel은 PyTorch 2.9.x와 모두 호환됩니다.
- 단계 2 — Wheel 설치 (파일이 \ComfyUI_windows_portable 폴더에 있어야 하며, run_nvidia_gpu.bat과 동일한 디렉토리여야 합니다)
ComfyUI Portable 폴더에서 CMD를 열고, 아래와 같이 올바른 wheel 파일로 설치하세요(예시):
.\python_embeded\python.exe -m pip install "sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl"
- 단계 3 — 작동 여부 확인
ComfyUI Portable 폴더에서 CMD를 열고 다음 명령 실행:
.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print(dir(sageattention))"
다음과 같은 출력이 나와야 합니다:
SageAttention import successful!
['builtins', 'cached', 'doc', 'file', 'loader', 'name', 'package', 'path', 'spec', '_fused', '_qattn_sm80', '_qattn_sm89', '_qattn_sm90', 'core', 'quant', 'sageattn', 'sageattn_qk_int8_pv_fp16_cuda', 'sageattn_qk_int8_pv_fp16_triton', 'sageattn_qk_int8_pv_fp8_cuda', 'sageattn_qk_int8_pv_fp8_cuda_sm90', 'sageattn_varlen', 'triton']
- 단계 4 — Triton 어텐션 모드 사용 가능 여부 확인
ComfyUI Portable 폴더에서 CMD를 열고 다음 명령 실행:
.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print('Triton mode available:' , hasattr(sageattention, 'sageattn_qk_int8_pv_fp16_triton'))"
다음과 같은 출력이 나와야 합니다:
SageAttention import successful!
Triton mode available: True
Triton 오류가 발생하면 다음 명령 실행:
.\python_embedded\python.exe -m pip install triton
- 단계 5 — 이제 "sageattn_qk_int8_pv_fp16_cuda"를 Patch Sage Attention + Model Patch Torch Settings 노드와 함께 정상적으로 사용할 수 있습니다.
