Midnight1111 ANIMATEDIFF LITE+
详情
下载文件
模型描述
MIDNIGHT1111 ANIMATEDIFF LITE+ 工作流
ComfyUI 工作流 // v01.09.25
MIDNIGHT1111 LITE+ 是一个专为使用 Stable Diffusion 1.5 生成视频而优化的自定义 ComfyUI 工作流。它融合了多种先进技术,如 ControlNet、隐空间输入切换和专用 LoRA 堆栈,同时提供灵活的批处理和分辨率缩放控制。
步骤 1:加载初始组件
视频上传节点:
请确保在视频上传节点中上传视频以启动流程,即使在选择切换器编号节点时可能不会使用它们。右侧的视频上传节点用于参考,左侧的视频上传节点用于 CNet 提取 ControlNet 功能。检查点加载器:
使用 CheckpointLoaderSimple 节点加载您所需的 Stable Diffusion 模型。
确保正确选择了 VAE 和 CLIP 模型。
LoRA 堆栈设置:
使用 CR LoRA Stack 节点加载多个具有特定权重的 LoRA,以控制风格。
调整 LoRA 混合比例以符合您的视觉目标。
步骤 2:运动与上下文选项
运动 LoRA 加载器:
- 使用 ADE_AnimateDiffLoRALoader 节点加载运动 LoRA。
上下文选项:
- 配置 ADE_LoopedUniformContextOptions 节点以处理动画中的均匀循环。
步骤 3:应用 ControlNet 模型(可选)
使用视频输入时的 ControlNet 加载器:
使用以下节点加载并应用多种 ControlNet 模型:
CNet 姿态:ControlNetLoaderAdvanced
CNet 深度:ControlNetLoaderAdvanced
CNet 边缘:ControlNetLoaderAdvanced
CNet Canny:ControlNetLoaderAdvanced
步骤 4:生成初始帧
采样器配置:
- 使用 SamplerCustom 节点,通过所需的采样方法生成帧(例如 DPM++ 2M SDE)。
Sigmas 与随机种子生成器:
配置 AlignYourStepsScheduler 节点以调整 sigma 值。
使用 Seed Generator 节点随机化种子,或设置特定种子以获得一致结果。
步骤 5:应用超分辨率
隐空间与像素超分辨率:
使用 NNLatentUpscale 节点进行隐空间超分辨率。
使用 PixelKSampleUpscalerProvider 节点进行像素级超分辨率。
步骤 6:最终输出与保存
视频合成:
使用 VHS_VideoCombine 节点将帧合成为视频。
根据需要调整帧率和编码选项。

