Hunyuan - Image2Video (Jan/2025) - obsolete
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
**모델에 좋아요 👍를 잊지 마세요. ;)
!!!이 워크플로는 폐기되었습니다!!! 더 나은 옵션:
Wan2.1 (최고 품질, 가장 느림, 높은 VRAM 사용량으로 훌륭한 결과, 하지만 GGUF 옵션도 있음)
/model/1300201/wan-ai-img2vid-video-extend
Skyreels (Hunyuan 변형) (좋은 품질, 중간 VRAM 사용량)
/model/1278247/skyreels-hunyuan-img2vid
Hunyuan WF (가장 빠름. 품질은 별로라고 느껴지지만 아직 테스트 중입니다. 가장 낮은 VRAM 사용량과 빠른 LoRA!)
/model/1328592/hunyuan-wf-img2vid-fast
*많은 사용자들이 _자동 이미지 크기 조정_ 기능에서 오류를 겪어, 이 기능을 제거한 버전을 추가했습니다. 수동 버전은 100% 문제없이 작동합니다. 죄송합니다 :)
**오류: unsupported operand type(s) for //: 'int' and 'NoneType'" 해결 방법: https://github.com/kijai/ComfyUI-HunyuanVideoWrapper/issues/269
이것은 오늘날(2025년 1월) 사용 가능한 자원을 활용한 Hunyuan 모델을 이용한 이미지에서 비디오로 변환하는 워크플로입니다. I2V LeapFusion LoRA와 IP2V 인코딩을 사용하면 매우 일관성 있게 작동하며, 제 경험상 일관성 면에서 오래된 Kling 버전과 비교할 만큼 훌륭합니다. 완벽하지는 않지만, 특히 인물 영상에 적절히 사용하면 안정적인 결과를 제공합니다.
가능한 한 단순화했으며, 이번에는 얼굴 교체 노드를 포함하지 않았습니다. 그러나 인물 영상을 생성하려는 경우 이 기능은 매우 유용합니다. VRAM 사용량은 생성하려는 비디오의 길이와 해상도에 크게 의존하지만, 좋은 결과를 얻기 위해 12GB VRAM이 이상적입니다.
항상 그렇듯이, 워크플로에 지침과 링크가 모두 포함되어 있습니다. Comfy와 HunyuanVideoWrapper 노드를 최신 버전으로 업데이트하는 것을 잊지 마세요!
이제 끝입니다. 좋아요를 눌러주시고 즐겁게 사용하세요!



