Stable Video Diffusion (SDV) Workflow ComfyUI
详情
下载文件
模型描述
Stable Video Diffusion(原始Stability发布)
截至撰写本文时,有两个图像到视频的检查点。以下是官方检查点:用于生成14帧视频的版本 和 用于生成25帧视频的版本。将它们放入 ComfyUI/models/checkpoints 文件夹中。
使用图像到视频模型最简单的方法是提供一个初始图像,例如以下使用14帧模型的工作流。您可以下载这个WebP动图,加载到 ComfyUI 中,或直接拖拽到界面中以获取该工作流。
参数说明:
video_frames:要生成的视频帧数。
motion_bucket_id:数值越高,视频中的运动越强烈。
fps:fps越高,视频越流畅。
augmentation level:添加到初始图像的噪声量,数值越高,生成的视频与初始图像的相似度越低。如需增加运动效果,可提高此值。
VideoLinearCFGGuidance:此节点可略微改善这些视频模型的采样效果,其作用是在线性地在整个视频帧间缩放CFG值。在上述示例中,第一帧的CFG为1.0(节点中的min_cfg),中间帧为1.75,最后一帧为2.5(采样器中设置的CFG)。这样,离初始帧越远的帧,其CFG值会逐渐升高。
转载自:
https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt/tree/main


