Stable Video Diffusion (SDV) Workflow ComfyUI

详情

模型描述

Stable Video Diffusion(原始Stability发布)

截至撰写本文时,有两个图像到视频的检查点。以下是官方检查点:用于生成14帧视频的版本用于生成25帧视频的版本。将它们放入 ComfyUI/models/checkpoints 文件夹中。

使用图像到视频模型最简单的方法是提供一个初始图像,例如以下使用14帧模型的工作流。您可以下载这个WebP动图,加载到 ComfyUI 中,或直接拖拽到界面中以获取该工作流。

参数说明:

video_frames:要生成的视频帧数。

motion_bucket_id:数值越高,视频中的运动越强烈。

fps:fps越高,视频越流畅。

augmentation level:添加到初始图像的噪声量,数值越高,生成的视频与初始图像的相似度越低。如需增加运动效果,可提高此值。

VideoLinearCFGGuidance:此节点可略微改善这些视频模型的采样效果,其作用是在线性地在整个视频帧间缩放CFG值。在上述示例中,第一帧的CFG为1.0(节点中的min_cfg),中间帧为1.75,最后一帧为2.5(采样器中设置的CFG)。这样,离初始帧越远的帧,其CFG值会逐渐升高。

转载自:
https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt/tree/main

此模型生成的图像

未找到图像。