HyVid - High Quality & Fast Speed Generation for 24GB Cards - Hunyuan Video Workflow
详情
下载文件
关于此版本
模型描述
此工作流可生成分辨率为 416x736、24FPS、时长 5 秒的视频片段,耗时 90-120 秒(生成约 75 秒,解码约 25 秒),使用 BF16 模型配合多个 LoRA。(上采样会增加时间)[若无法使用编译或 TeaCache,生成时间将更长。] 生成时约占用 18GB 显存。
我专门为 RTX 4090(24GB 显存,64GB 内存,Windows 10 系统)设计了此工作流,无法为其他硬件或操作系统提供推荐建议。
我更偏好 Hunyuan 视频的 BF16 模型输出,配合 Triton Torch 编译和 TeaCache,生成时间可控制在 90-120 秒(缓存预热后)(根据你的 PyTorch 版本,可能需要修改一个 PyTorch 文件,工作流笔记中有详细指南)。模型加载期间可能会严重卡顿你的电脑,但请耐心等待。
截至目前,我发现最佳速度和效果的参数为:416x736 分辨率(或翻转)、121 帧(24FPS 对应 5 秒视频)、步数在 20-30 之间(具体取决于你使用的 LoRA)。
我测试过的大多数 LoRA,强度设置在 0.5 到 1 之间效果最佳。混合多个 LoRA 时,你可能需要降低其中一个或多个的强度。如果视频出现模糊或噪点,尝试降低强度。
这些优化大多基于反复试验,尤其是关于 Triton Torch 编译和 TeaCache 的设置,因此我可能无法提供超出当前配置的更多指导。在 Windows 上安装 Triton 是一场噩梦——我使用了这份指南:https://old.reddit.com/r/StableDiffusion/comments/1h7hunp/how_to_run_hunyuanvideo_on_a_single_24gb_vram_card/
若没有 kijai 及 ComfyUI-HunyuanVideoWrapper 团队的努力,这一切都不可能实现,向他们致以巨大感谢!
需要以下自定义节点包:
Impact Pack —(用于通配符提示)- https://github.com/ltdrdata/ComfyUI-Impact-Pack
KJNodes —(用于获取/设置节点)- https://github.com/kijai/ComfyUI-KJNodes
HunyuanVideo Wrapper —(用于加载 Hunyuan 模型)- https://github.com/kijai/ComfyUI-HunyuanVideoWrapper(请确保自 2025-01-18 以来已更新)
VideoHelperSuite —(用于生成视频输出)- https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite
ComfyUI Frame Interpolation —(用于帧插值)- https://github.com/Fannovel16/ComfyUI-Frame-Interpolation
需要以下模型:
Hunyuan 视频 Safe Tensors — 我最推荐 BF16 版本 — /model/1018217?modelVersionId=1141746
Hunyuan 视频 VAE — /model/1018217?modelVersionId=1141674
Hunyuan 文本编码器 — https://github.com/Tencent/HunyuanVideo/blob/main/ckpts/README.md#download-text-encoder
上采样与帧插值模型:
4x_foolhardy_Remacri — https://huggingface.co/FacehugmanIII/4x_foolhardy_Remacri
Film Net FP32 — /model/1167575?modelVersionId=1314385
如果你觉得此工作流有帮助,请考虑捐赠 buzz,以支持我进一步开发 LoRA 训练和工作流。
如发现任何改进或问题,请在帖子下方留言。



