Wan 2.2 - SVI Pro 2.0 - I2V for 12GB VRAM (Different Loras Per Stage)(Optimized for Speed)

세부 정보

파일 다운로드

모델 설명

WAN 2.2 / SVI Pro 2 / I2V for 12GB VRAM

[SVI Pro 2.0 for Low VRAM (8GB)]의 수정 버전

[Wan2.2 SVI Pro Example KJ]

  • 7단계 샘플 설정. 각 단계는 고유한 LoRA를 사용하며, Sage Attention Cuda와 결합되어 더 빠른 속도를 제공합니다.

  • 필요시 각 단계의 클립을 저장할 수 있습니다.

  • 최종 출력: 업스케일러 + RIFE를 사용하여 부드러운 60FPS 생성.

  • 빠른 그룹 바이패스 - 빠른 접근을 위한 기능.

### 필요 모델 및 LoRAs

GGUF 주 모델:

* [DaSiWa-Wan 2.2 I2V] 또는

* [Smooth Mix Version] 또는

* [Enhanced NSFW Camera Prompt Adherence]

> 참고: 사용 가능한 VRAM에 맞는 양자화(Q4 또는 Q5 등)를 선택하세요. Lightning LoRA가 내장되어 있어 SVI LoRA만 필요하므로, DaSiWa-Wan 고/저 모델을 강력히 추천합니다.

SVI PRO LoRAs (Wan2.2-I2V-A14B):

* 둘 다 필수

[SVI PRO - HIGH (Rank 128)]

[SVI PRO - LOW (Rank 128)]

텍스트 인코더:

[WAN UMT5] 또는

[NSFW WAN UMT5]

VAE:

[Wan 2.1 VAE]

다음은 nVidia 카드의 속도 향상을 위한 설정입니다. 이미 잘 작동한다면 이 섹션은 건너뛰세요!

Sage Attention 노드(sageattn_qk_int8_pv_fp16_cuda) + 모델 패치 Torch 설정 노드 사용 시 속도 향상:

프롬프트 실행 시간: 136.56초 <- Sage Attention 비활성화 / FP16 누적: 비활성화 / 컴파일 허용: False

프롬프트 실행 시간: 104.38초 <- Sage Attention 활성화 / FP16 누적: 활성화 / 컴파일 허용: False

프롬프트 실행 시간: 96.26초 <- Sage Attention 활성화 / FP16 누적: 활성화 / 컴파일 허용: True

이 설정을 사용하면 한 단계당 40초 이상을 절약할 수 있습니다!

Sage Attention이 작동하지 않거나 ComfyUI가 충돌하는 경우 다음을 수행하거나 (CTRL+B로 노드 바이패스 가능하지만, 큰 속도 향상을 위해 반드시 작동시키는 것을 강력히 권장합니다):

  • 다음은 ComfyUI_windows_portable 전용 설정입니다. 다른 환경에서는 이 방법을 사용하지 마세요!

    • 단계 1 — PyTorch + CUDA 버전 확인

ComfyUI Portable 폴더( run_nvidia_gpu.bat과 동일한 디렉토리)에서 CMD를 열고 다음 명령 실행:

.\python_embeded\python.exe -c "import torch; print(torch.version, torch.version.cuda)"

출력 예: 2.9.1+cu130 13.0

Python 임베디드 버전 확인:

.\python_embeded\python.exe -V

출력 예: Python 3.13.9

즉:

Python: 3.13 (임베디드)

PyTorch: 2.9.1

CUDA: 13.0

경고! 다음 단계를 진행하는 방법을 모르겠다면, 오류 코드를 Grok/ChatGPT에 붙여넣어 더 자세한 분석을 받으세요.

단계 1의 Python + PyTorch + CUDA 출력에 맞는 wheel 파일을 선택하세요.

즉, 이 설정에 맞는 올바른 SageAttention wheel은 다음과 같은 형태입니다:

sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl

다음 링크에서 자신의 설정에 맞는 wheel을 다운로드하세요:

[Wheel 목록]

이 wheel은 Python 3.13(cp313-cp313), PyTorch 2.9.x, CUDA 13.0과 호환됩니다.

패치 버전 차이(2.9.1 대 2.9.0)는 문제가 되지 않으며, 이 wheel은 PyTorch 2.9.x와 모두 호환됩니다.

  • 단계 2 — Wheel 설치 (파일이 \ComfyUI_windows_portable 폴더에 있어야 하며, run_nvidia_gpu.bat과 동일한 디렉토리여야 합니다)

ComfyUI Portable 폴더에서 CMD를 열고, 아래와 같이 올바른 wheel 파일로 설치하세요(예시):

.\python_embeded\python.exe -m pip install "sageattention-2.2.0.post3+cu130torch2.9.0-cp313-cp313-win_amd64.whl"

  • 단계 3 — 작동 여부 확인

ComfyUI Portable 폴더에서 CMD를 열고 다음 명령 실행:

.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print(dir(sageattention))"

다음과 같은 출력이 나와야 합니다:

SageAttention import successful!

['builtins', 'cached', 'doc', 'file', 'loader', 'name', 'package', 'path', 'spec', '_fused', '_qattn_sm80', '_qattn_sm89', '_qattn_sm90', 'core', 'quant', 'sageattn', 'sageattn_qk_int8_pv_fp16_cuda', 'sageattn_qk_int8_pv_fp16_triton', 'sageattn_qk_int8_pv_fp8_cuda', 'sageattn_qk_int8_pv_fp8_cuda_sm90', 'sageattn_varlen', 'triton']

  • 단계 4 — Triton 어텐션 모드 사용 가능 여부 확인

ComfyUI Portable 폴더에서 CMD를 열고 다음 명령 실행:

.\python_embeded\python.exe -c "import sageattention; print('SageAttention import successful!'); print('Triton mode available:' , hasattr(sageattention, 'sageattn_qk_int8_pv_fp16_triton'))"

다음과 같은 출력이 나와야 합니다:

SageAttention import successful!

Triton mode available: True

Triton 오류가 발생하면 다음 명령 실행:

.\python_embedded\python.exe -m pip install triton

  • 단계 5 — 이제 "sageattn_qk_int8_pv_fp16_cuda"를 Patch Sage Attention + Model Patch Torch Settings 노드와 함께 정상적으로 사용할 수 있습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.