Wan2.1 I2V GGUF w/ Optimization Nodes + Causvid/FusionX/LightX Workflow
세부 정보
파일 다운로드
모델 설명
16GB VRAM으로 더 이상 OOM 오류가 없습니다. 이 워크플로우를 참고하여 이러한 최적화 노드를 자신의 워크플로우에 통합하거나, 정말 원한다면 직접 사용하세요.
저는 definitelynotadog의 버전 1 워크플로우를 16GB VRAM에 최적화하도록 수정했습니다(더 낮은 VRAM도 작동할 것이라 확신합니다). 그가 핵심 작업을 만들어주었기에 감사의 인사를 드립니다 - /model/1622023?modelVersionId=1835720
저는 SageAttention, BlockSwap, TeaCache 노드를 추가했습니다. 480p GGUF 모델을 사용할 경우 약 3분, 720p GGUF 모델을 사용할 경우 약 6분이 소요됩니다. 제가 추가한 최적화 노드를 마음껏 가져다 그의 V2 워크플로우나 자신의 워크플로우에 추가하셔도 됩니다.
우선, 더 나은 성능을 위해 원하는 Wan2.1 모델의 GGUF 버전을 다운로드하세요. Q 숫자가 높을수록 품질이 높습니다. 저는 개인적으로 Q3을 선택했습니다. Q8보다 빠르고, 품질 차이가 거의 없어 보였기 때문입니다.
LoRa 가속기:
Causvid LoRa는 내장 기능이 있으므로 FusionX 또는 LightX LoRa 중 하나를 선택하여 대체할 수 있습니다.
SelfForcing - /model/1713337/wan-self-forcing-rank-16-accelerator
FusionX - /model/1678575/wan21fusionx-the-lora
CausVid - /model/1585622/self-forcing-causvid-accvid-lora-massive-speed-up-for-wan21-made-by-kijai
모델:
I2V 720p GGUF 모델 - https://huggingface.co/city96/Wan2.1-I2V-14B-720P-gguf/tree/main
I2V 480p GGUF 모델 - https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/tree/main
부족한 VAE, clip vision, clip도 반드시 다운로드하세요:
Custom Manager를 사용하여 커스텀 노드 및 종속성을 설치해야 하지만, 다음 노드는 수동으로 설치해야 할 수도 있습니다: https://github.com/city96/ComfyUI-GGUF
설정:
FusionX LoRa 또는 Causvid LoRa 사용 시 4-10스텝으로 설정하고, 16fps, 최대 81프레임을 유지하세요. 저에게는 7스텝이 가장 적절했습니다. 그 이하로 줄이면 아티팩트/글리치가 많이 발생합니다. 480p는 848, 720p는 1280으로 설정하세요.
최적화:
SageAttention은 약 25% 더 빠른 속도를 제공합니다. 시스템에 SageAttention이 설치되지 않았다면, Windows용 가이드를 참조하세요. 잘못하면 ComfyUI가 손상될 수 있습니다: https://www.reddit.com/r/StableDiffusion/comments/1h7hunp/how_to_run_hunyuanvideo_on_a_single_24gb_vram_card/
BlockSwap 노드는 VRAM을 시스템 RAM으로 오프로드합니다(더 이상 OOM 오류 없음). 14B 모델의 경우 40으로 설정, 1.3B 모델의 경우 30으로 설정하세요. 생성 중 VRAM 사용량을 확인하여 최적의 값을 찾으세요. 블록 수가 많을수록 VRAM 사용량은 줄어듭니다. 해상도가 VRAM 사용량에 큰 영향을 준다는 점을 기억하세요.
TeaCache 노드는 속도를 2배로 향상시키지만 품질을 희생합니다. 영상이 너무 흐릿하거나 팔다리가 사라진다면 임계값을 0.140으로 낮추세요. 결과가 마음에 들지 않으면 이 노드를 무시하거나 삭제하셔도 됩니다. 저는 아직 최적의 설정을 찾기 위해 조정 중입니다.
이 노드들에 익숙하지 않아서, 다른 사용자들에게 도움이 될 만한 유용한 정보가 있다면 언제든지 알려주세요.
