Animate from still using CogVideoX-5b-I2V

详情

模型描述

启用 enable_sequential_cpu_offload 为 false 时,渲染速度提升超过 60%

适用于 >=24GB 显存

现在你可以使用我的 Outpainting FLUX/SDXL for CogVideo 准备你的图像。

使用 CogVideoX-5b-I2V 从静态图像生成动画。

请确保已下载 .safetensors 模型的全部三个部分,路径为:models/CogVideo/CogVideoX-5b-I2V/transformer
diffusion_pytorch_model-00001-of-00003 4.64 GB
diffusion_pytorch_model-00002-of-00003 4.64 GB
diffusion_pytorch_model-00003-of-00003 1.18 GB
https://huggingface.co/THUDM/CogVideoX-5b-I2V/tree/main/transformer

我在 GitHub 页面上发现了这个问题,这似乎是部分用户遇到的错误:
https://github.com/kijai/ComfyUI-CogVideoXWrapper/issues/55

如果渲染耗时过长:在 CogVideo Sampler 中,尝试将 “steps” 从 50 降低至 20 或 25,虽然运动效果可能很微弱,但或许能成功运行。

看起来它仅要求 “num_frames” 为 49。


在低显存系统上,请分开运行各组。

此模型生成的图像

未找到图像。