Kiko WanWrapper

详情

模型描述

🎞️ ComfyUI 图像转视频工作流 - WAN 2.1 封装器(Kiko WAN v3)

这是一个高性能、多通道的图像转视频工作流,专为ComfyUI设计,由WAN 2.1 封装器驱动,并内置 torch.compileSage Attention 等高级优化技术,以实现更快、更智能的帧生成。我尽可能地暴露了 Kijai 提供的所有我能理解的设置 😉。这并非你在这里能找到的最快工作流,但却是我用来制作 20 秒视频的首选。

本工作流由 ❤️ 在 Arch Linux 上精心打造,使用 RTX 4090 显卡和 128 GB 内存——这套配置专为高强度推理和丝滑流畅的视频生成而优化。

🚀 功能亮点

  • 🧠 WAN 2.1 封装器,实现电影级图像转视频转换

  • 🔂 双通道生成:初始生成 + 细化/扩展

  • 🐌 可选慢动作 + 帧插值(RIFE、FILM 等)

  • 🧽 锐化超分辨率(如 RealESRGAN、SwinIR)

  • 🛠️ 集成 torch.compile 加速推理

  • 🌀 集成 Sage Attention 提升注意力效率

  • 📏 可自定义提示词、种子、时长与宽高比逻辑

  • 🌀 最终循环优化:使用“扩展最后一帧”平滑过渡

⚙️ 系统配置

  • 操作系统:Arch Linux(滚动更新版)

  • 显卡:NVIDIA RTX 4090(24GB 显存)

  • 内存:128 GB DDR5

  • Python:3.12.9(通过 pyenv 安装)

  • ComfyUI:GitHub 最新版本

  • torch:2.x 版本,并启用 torch.compile

  • Sage Attention:通过打补丁的注意力机制启用

🛠️ 工作流概览

🔹 输入与调整大小

  • 导入图像,可选调整尺寸以匹配 WAN 2.1 的预期输入。

🔹 WAN 2.1 封装器核心

  • 使用 torch.compile 加速处理

  • 通过 Sage Attention 增强(可通过自定义节点或环境变量设置)

🔹 第一阶段:生成 + 可选慢动作

  • 帧级合成

  • 通过插值节点(RIFE 或 FILM)添加慢动作

🔹 第二阶段:扩展与合并

  • 延伸运动序列,确保更平滑的过渡

  • 将运动与精细化的提示引导相结合

🔹 最终精修

  • 锐化与超分辨率处理

  • 如需,进行最终插值

  • 通过扩展最后一帧生成可循环输出

🧪 性能提示

  • 请根据你的系统调整 torch.compile 设置,不同设备配置各异,我的设置未必适用于你。

  • 关于 Sage Attention:

    • 使用对应节点即可
  • 在较低端显卡上运行?请关闭超分辨率并减少帧数。

🧰 所需组件

  • ComfyUI

  • WAN 2.1 封装器节点

  • 可选组件:

    • RIFEFILMDAIN 用于帧插值

    • RealESRGAN / SwinIR 用于超分辨率

    • Sage Attention 补丁或节点

▶️ 使用方法

  1. kiko-wan-v3.json 文件加载到 ComfyUI 中。

  2. 将你的图像拖入输入节点。

  3. 自定义提示词、时长和帧数。

  4. 点击 Queue Prompt 开始生成。

  5. 生成的视频将保存在输出文件夹中。

📁 文件列表

  • kiko-wan-v3.json — 导出的工作流(即将发布)

  • kiko-wan-v3.png — 工作流示意图

🧠 灵感与致谢

  • ComfyUI

  • WAN 2.1 封装器

  • Real-ESRGAN、RIFE、FILM、Sage Attention 的贡献者

  • Arch Linux + NVIDIA 生态系统,成就顶级工作站性能 😉

💡 未来计划

  • 增加批量图像转视频模式

  • 支持音频?

⚙️ 在 kiko-wan-wrapper-v3.json 中使用的自定义节点

此模型生成的图像

未找到图像。