Vid2Vid Hunyuan GGUF + Upscaler 12GB & 16GB & 24GB V2V Workflow

세부 정보

모델 설명

⋆.°🌸 몇 가지 고려사항 🌸˚˖⋆

ComfyUI_Manager로 설치할 수 있는 노드 외에, 이 워크플로우를 실행하려면 Kijai 노드가 필요합니다.

.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.

hunyuan t2v 720p GGUF Q4_K_M, 평균 GGUF, 73프레임 생성을 사용할 때:

12GB VRAM: 약 1.3배 확대 (240x320) 🫤
16GB VRAM: 약 2.5배 확대 (240x320) 😏
24GB VRAM: 약 3.5배 확대 (240x320) 😎 ~14분 @ RTX3090

.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.

Hunyuan이 생성하지 않은 입력 동영상에 대해:

프레임 로드 제한에서 화살표를 사용하여 Hunyuan의 프레임 규칙(4*x+1)에 따라 자동으로 설정하세요.

.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.

프롬프트 작성

현재는 수동으로 진행됩니다. Joytag 또는 OpenAI의 Clip Vision을 사용해 자동 버전을 만들 생각입니다.

.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.・。゚.

JK CHSTR 2025 - 텐센트의 Hunyuan

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.