Wan2.1vdieo GGUF (t2v/i2v/FunCon/InP)
세부 정보
파일 다운로드
모델 설명
Funcon&InP
ENG:
VRAM이 부족한 경우 단계별로 생성하는 것을 추천합니다. (제 12GB 환경에서는 SD1.5만 일회성 생성이 가능합니다. Pony & Flux를 사용하려면 12GB 이상의 VRAM이 필요하거나, 단계적으로 생성하고 스위치를 끈 후 다음 워크플로우로 이동해야 합니다.) Funcon과 Inp는 서로 다른 두 개의 워크플로우이므로 동시에 실행하지 마세요. 이미지를 사용할 때는 첫 번째 프레임 동영상과 일치시키기 위해 이미지-이미지 변환을 수행하여 새로운 이미지를 생성합니다. OOM 오류가 발생하면 단계별로 생성하거나 모델을 언로드한 후 다시 시도하세요. 워크플로우에는 영어 및 중국어 설명이 포함되어 있습니다.
Reward-LoRAs (MPS)
https://huggingface.co/alibaba-pai/Wan2.1-Fun-Reward-LoRAs/tree/main
PS:
1.3B:funcontrol,
https://huggingface.co/alibaba-pai/Wan2.1-Fun-1.3B-InP/tree/main
inp
https://huggingface.co/alibaba-pai/Wan2.1-Fun-1.3B-Control/tree/main
GGUF14b:
funcontrol
https://huggingface.co/city96/Wan2.1-Fun-14B-Control-gguf/tree/main
inp
https://huggingface.co/city96/Wan2.1-Fun-14B-InP-gguf/tree/main
중국어:
VRAM이 부족한 경우 단계별 생성을 권장합니다. (제 12GB 장치에서는 일회성 생성을 사용하려면 SD1.5만 가능하므로, Pony & Flux를 사용하려면 더 큰 VRAM이 필요하거나, 단계적으로 생성한 후 스위치를 끈 후 다음 워크플로우로 이동해야 합니다.) Funcon과 Inp는 두 개의 별도 워크플로우이므로 동시에 실행하지 마세요. 이미지를 사용할 때는 첫 프레임 동영상과 일치시키기 위해 이미지-이미지 변환을 수행하여 새로운 이미지를 생성합니다. OOM 오류가 발생하면 단계별로 생성하거나 모델을 언로드한 후 다시 시도하세요. 워크플로우에는 영어 및 중국어 설명이 포함되어 있습니다. 아래는 다운로드 링크입니다.
Reward-LoRAs (MPS)
https://huggingface.co/alibaba-pai/Wan2.1-Fun-Reward-LoRAs/tree/main
1.3B:
funcontrol,
https://huggingface.co/alibaba-pai/Wan2.1-Fun-1.3B-InP/tree/main
inp
https://huggingface.co/alibaba-pai/Wan2.1-Fun-1.3B-Control/tree/main
GGUF14b:
funcontrol
https://huggingface.co/city96/Wan2.1-Fun-14B-Control-gguf/tree/main
inp
https://huggingface.co/city96/Wan2.1-Fun-14B-InP-gguf/tree/main
이것은 제 개인적인 Wan2 워크플로우입니다. 제 장치는 RTX 3060 12GB이므로 GGUF를 사용하여 생성해야 합니다. 그러나 이 워크플로우에는 특별한 점이 없으며 단순한 기본 프로세스입니다. 이미 다른 워크플로우를 보유하고 있다면 무시하셔도 됩니다.
사용 시 유의사항:
기본 T5 모델을 반드시 사용해야 합니다. 링크
ComfyUI 및 GGUF를 최신 버전으로 업데이트해야 합니다.
이 모델이 마음에 드시면 👍 좋아요와 리뷰를 남겨주세요! 또한 ⚡를 주시면 큰 도움이 됩니다. 마음에 들지 않으시더라도 왜 그런지 알려주시면 개선에 참고하겠습니다!
※ 저는 Forge 또는 ComfyUI를 사용하여 생성합니다. 결과가 제 것과 정확히 일치하지 않는 경우, 이 이유를 참고하세요. 일부 체크포인트에서는 LORA가 작동하지 않을 수 있습니다. 그러한 경우 다른 체크포인트로 전환해 주세요.
