Hunyuan Video T2V With 3 LoRA(s) - (With 2 Phases Upscale and Frame Interpolation)
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
이것은 훈원 텍스트-동영상(T2V) 워크플로입니다. 사실 새로운 것이 아니라 다른 워크플로의 더 간단한 버전입니다.
이것은 @iljoe가 만든 "Hunyuan video t2v with face detailer POC"의 더 간단한 버전이며, @LatentDream의 샘플링 원리를 기반으로 합니다. 꼭 확인해 보세요!
핵심 노드:
이 노드는 전체 모드 전에 더 이상 처리할 적절한 동영상을 찾기 위한 것입니다. 첫 번째를 선택하고 나머지는 끄세요.

최대 3개의 LoRA를 설정할 수 있습니다. 아니면... 더 필요할 사람이 있을까요?

여기서 시드를 관리할 수 있습니다:

네, 알고 있습니다. 이건 오래된 샘플러입니다. TTP_teacache 샘플러로 대체할 수 있습니다. 하지만 없다면, 때로는 오래된 방식을 유지하는 것이 가장 좋은 방법이기도 합니다 :)

여기서 동영상 차원을 설정하세요. 이 설정은 저해상도 초기 동영상용입니다. 길이는 97프레임으로, 24fps/4초 동영상입니다. 더 높은 초기 차원을 설정할 수 있습니다. 장점은 초기 동영상이 해부학적 정확도(해부학적 정합성)가 더 나아질 가능성이 있다는 것이고, 단점은 명백하게 생성 시간이 더 길어진다는 점입니다.
여기서 FPS를 조정하세요:

"타버리거나 픽셀화된" 동영상이 나오면, 노이즈 제거, ModelSamplingSD3, 스텝을 조정해 보세요. @LatentDream의 글을 읽어보세요: 팁: 💥 Hunyuan 💥 지금 당신이 잊고 있는 폭탄.
피드백을 환영합니다!
건승!

