WAN 2.2 IMAGE to VIDEO with Caption and Postprocessing
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
워크플로우: 이미지 -> 자동 캡션(프롬프트) -> WAN I2V(업스케일 및 프레임 보간 및 비디오 확장 포함)
- 480p 또는 720p 해상도로 비디오 클립을 생성합니다.
Florence 캡션 버전과 LTX 프롬프트 향상기(LTXPE) 버전이 있습니다. LTXPE는 VRAM을 더 많이 사용합니다.
10월 25일: 새로운 LightX LoRA(MoE) 출시, 강도 > 1.5, 7스텝, SD3 shift = 5.0으로 시도하세요. 고노이즈 LoRA를 교체하세요:
https://huggingface.co/Kijai/WanVideo_comfy/tree/main/LoRAs/Wan22_Lightx2v
10월 22일: 또 다른 LightX LoRA가 출시되었습니다(이름: 1022):
https://huggingface.co/lightx2v/Wan2.2-Distill-Loras/tree/main
MultiClip LTXPE PLUS: Wan 2.2. 14B I2V 버전. 아래 MultiClip 워크플로우 기반으로 개선된 LTX 프롬프트 향상기(LTXPE) 기능을 사용합니다(워크플로우 설명 참조).
이 워크플로우는 프롬프트 생성에 대한 더 많은 제어를 가능하게 하며, 검열되지 않은 언어 모델을 사용합니다. 비디오 생성 부분은 아래 버전과 동일합니다. 자세한 정보: /model/1823416?modelVersionId=2303138&dialog=commentThread&commentId=972440
MultiClip: Wan 2.2. 14B I2V 버전 — LightX2V Wan 2.2 LoRA를 지원하여 4-6스텝으로 클립을 생성하고 최대 3배까지 확장할 수 있습니다. 15-20초 길이의 예시가 게시되었습니다.
일반 버전은 사용자 지정 프롬프트를 사용할 수 있고, LTXPE 버전은 자동 프롬프트 생성을 제공합니다. 일반 버전은 LoRA를 사용한 특정 또는 NSFW 클립에 잘 작동하며, LTXPE는 단순히 이미지를 드롭하고 너비/높이를 설정한 후 실행하기만 하면 됩니다. 최종적으로 모든 클립이 하나의 전체 비디오로 결합됩니다.
낮은 스텝(4-8스텝)을 위한 새로운 Wan 2.2. LightX2v LoRA 지원
추가로 “오래된” LightX2v Wan 2.1 LoRA를 주입할 수 있습니다. 이는 느린 모션을 방지하고 더 역동적인 움직임을 도입하는 데 도움이 됩니다.
시퀀스별로 Wan 2.2. LoRA 지원
단일 클립 버전 포함 — 아래 V1.0 워크플로우와 동일하며, “오래된” Wan 2.1. LightX2v LoRA를 위한 LoRA 로더를 추가로 제공합니다.
Wan 2.2는 2개의 모델을 사용하므로 워크플로우가 복잡해집니다. 그래도 훨씬 가볍고 다양한 LoRA를 제공하는 Wan 2.1 MultiClip 버전을 확인하는 것을 권장합니다. 여기서 찾을 수 있습니다: /model/1309065?modelVersionId=1998473
V1.0 WAN 2.2. 14B 이미지에서 비디오로 워크플로우 — LightX2v I2V Wan 2.2 LoRA 지원(낮은 스텝: 4-8스텝)
Wan 2.2.는 클립 처리를 위해 고노이즈 모델과 저노이즈 모델을 순차적으로 사용합니다.
LightX2v LoRA와 호환되어 낮은 스텝으로 빠르게 클립을 처리할 수 있습니다.
일부 “오래된” Wan2.1 LoRA 및 “새로운” Wan 2.2. LoRA와 호환됩니다.
워크플로우 및 아래 팁 참조.
모델은 여기서 다운로드할 수 있습니다:
모델(고노이즈 및 저노이즈 모두 필요, VRAM에 맞는 모델 선택): https://huggingface.co/bullerwins/Wan2.2-I2V-A14B-GGUF/tree/main
Wan 2.2.용 LightX2v LoRA(I2v, Hi, Lo): https://huggingface.co/Kijai/WanVideo_comfy/tree/main/LoRAs/Wan22-Lightning/old
LightX2v LoRA(오래된 Wan 2.1): https://huggingface.co/lightx2v/Wan2.1-I2V-14B-480P-StepDistill-CfgDistill-Lightx2v/tree/main/loras
VAE(Wan 2.1과 동일): https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/vae
Textencoder(Wan 2.1과 동일): https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/text_encoders
WAN 2.2. I2V 5B 모델(GGUF) 워크플로우 — Florence 또는 LTXPE 자동 캡션 지원
14B 모델보다 품질이 낮음
720p @ 24fps
FastWan LoRA 사용 시 CFG를 1로 설정하고 4-5스텝 사용, Unet 로더 뒤에 LoraLoader 노드를 배치하여 LoRA를 주입하세요.
FastWan LoRA: https://huggingface.co/Kijai/WanVideo_comfy/tree/main/FastWan
모델(GGUF, VRAM에 맞는 모델 선택): https://huggingface.co/QuantStack/Wan2.2-TI2V-5B-GGUF/tree/main
VAE: https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/vae
Textencoder(Wan 2.1과 동일): https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/text_encoders
ComfyUI 폴더 내 저장 위치:
Wan GGUF 모델 → models/unet
Textencoder → models/clip
VAE → models/vae
팁(14B 모델용):
Wan 2.2 및 LoRA에 대해 혼란스러우신가요? 이 스레드를 확인하세요: /model/1823416?modelVersionId=2063446&dialog=commentThread&commentId=890870
Wan 2.2. I2V 프롬프팅 팁: /model/1823416?modelVersionId=2063446&dialog=commentThread&commentId=890880
어떤 GGUF 모델을 다운로드해야 하나요? 일반적으로 16GB VRAM/64GB RAM을 사용할 경우 약 10GB 크기의 모델을 선택합니다(예: "...Q4_K_M.gguf" 모델)
LTXPE용 검열되지 않은 모델: "chuanli11/Llama-3.2-3B-Instruct-uncensored". LTXPE 로더 노드의 LLM_name에 교체하세요.

