Daxamur's WAN 2.2 Workflows v1.2.1 (FLF2V | T2V | I2V | GGUF | Easy Bypass | Experimental True Endless Generation)

详情

模型描述

Daxamur 的 Wan 2.2 工作流

如果你愿意支持我,请查看我的 Patreon
DM 询问定制项目。


-新闻-

由于我正全力准备下一个版本的发布,回复可能会延迟——一旦发布完成,回复将恢复正常!

v1.2.1 现已发布!—— 需通过 ComfyUI 管理器更新 DaxNodes

  • 已添加 FLF2V 并支持 GGUF——无需新模型

  • 修复了独立启用/禁用超分辨率和插值的功能

  • 新增专用分辨率选择器节点,从 v1.3.1 起为 I2V 和 FLF2V 添加自动调整大小功能

DaxNodes 现已可通过 ComfyUI 管理器安装,无需再使用 git clone!


当前已知问题:

  • 部分用户报告 KJNodes 的 Get / Set 功能出现缺失错误,若出现此情况,请确保从 ComfyUI 管理器下载最新版 DaxNodes 并重新导入工作流!—— 处理中

如果你在使用 VideoSave 或其他视频相关节点时看到 "FileNotFoundError ([WinError 2] 系统找不到指定的文件。)",说明 FFmpeg 缺失或未添加到系统 PATH 中。

  • 设置(需完整版本):

  • 下载 完整版 FFmpeg

  • 解压至稳定路径(例如:C:\ffmpeg)

  • 将 C:\ffmpeg\bin 添加到系统 PATH:

  • 打开“编辑系统环境变量”→“环境变量…”

  • 在系统变量中选择 Path → 编辑…

  • 点击“新建”,添加 C:\ffmpeg\bin

  • 保存并退出

重启 ComfyUI(以及你的终端/命令提示符)

完成以上操作后,一切应可正常运行!


v1.3.1 新功能

基于片段的提示

  • 持久化正面提示:在整个视频中保持一致的细节(例如:“一位拥有绿色眼睛和棕色头发的女性,在温暖灯光的卧室中”)。

  • 片段正面提示:以 + 分隔,每个片段长度对应一个提示(例如:“她正在写日记 + 她合上日记本并站起来 + 她走开了”)。

  • 在长视频中提供更强的控制力,有助于减少 WAN 在 I2V 起始时渲染奇怪的摄像机运动或卡顿。

无限循环风格

  • 片段可“无限”串联(我将节点上限设为 9999),实现近乎无限的循环。

  • 视频执行 ID 负责管理覆盖与拼接——生成新序列时,只需递增该 ID 即可。

流式 RIFE VFI + 超分辨率

  • 调整后的 RIFE VFI 和超分辨率现在逐帧流式处理,而非将整个序列保留在 VRAM/RAM 中。

  • 可生成更长的视频,实现更平滑的插值和更清晰的超分辨率,且不会出现 OOM 错误。

人脸检测与漂移校正

  • 智能 Mediapipe 人脸帧检测锁定角色焦点。

  • 漂移校正确保最终视频至少达到请求的时长——而非在生成中途截断,而是自动添加完整额外片段,直至达到或超过目标帧数。

  • 这样可避免浪费任何已生成的帧,并始终获得平滑、完整的片段。

  • 完全可开关,并支持可调的帧回溯设置。

分辨率处理

  • T2V:使用标准 WAN 分辨率预设,可选覆盖。

  • I2V:输入图像按比例缩放至 WAN 原生分辨率,保持宽高比。“原生”直通模式已支持。

体验优化与管理

  • 可独立开关超分辨率/插值功能。

  • 临时文件按执行 ID 组织——定期清理 /output/.tmp/ 以节省空间。

未来展望

此工作流仍属实验阶段,未来版本将扩展片段控制、更智能的运动/摄像机行为处理、更自适应的人脸追踪,甚至集成音频/视频以生成电影级序列。大动作即将来临!


注意事项

我已尽量将你可能需要配置的节点放置在流程的下部(大致按顺序),而大部分操作/后端内容则位于顶部。所有节点均已尽可能清晰地标明其功能。

除此之外:

  • 已启用 NAG Attention,建议将 CFG 保持为 1。

  • 采样器和调度器默认设置为 uni_pc // simple,我发现这是速度与质量的最佳平衡(仅限 1.1>)。若你不介意等待(据我经验需要很长)以换取略微更好的效果,我推荐使用 RES4LYF 自定义节点中的 res_3s // bong_tangent。

  • 我将默认步数设为 8(每个采样器 4 步),而非 4,因为这是我观察到质量与时间权衡最显著的点——但这完全取决于你的偏好。

  • 此流程默认将完成的视频保存至 ComfyUI/output/WAN/<T2V|T2I|I2V>/。

I2V

  • 自定义节点 flow2-wan-video 会与 Wan 图像转视频节点冲突,必须移除才能正常工作。我发现通过 ComfyUI 管理器卸载时,该节点并未完全从 custom_nodes 文件夹中删除,需手动删除。

GGUF

  • 使用 GGUF 版本工作流的所有模型均相同,仅基础高噪声和低噪声模型除外。你需要根据系统情况选择最适合的 GGUF 量化版本,并在各自的 Load WAN 2.2 GGUF 节点中正确设置模型。一般规则:理想情况下,你的 GGUF 模型应能装入你的 VRAM 并留有数 GB 余量。

  • GGUF 工作流的示例使用了 WAN 2.2 I2V 和 T2V 的 Q6_K 量化版本。

  • 本工作流测试的 WAN 2.2 GGUF 量化版本来自 HuggingFace 的以下位置:

MMAUDIO

  • 要设置 MMAUDIO,你必须下载下方的 MMAUDIO 模型,在你的模型目录中(ComfyUI/models/mmaudio)创建一个 "mmaudio" 文件夹,并将所有下载的 mmaudio 模型放入此文件夹(包括 apple_DFN5B-CLIP-ViT-H-14-384_fp16.safetensors)。

模块交换工作流

  • 由于我在测试中发现原生 ComfyUI 内存交换能节省更多内存且速度下降更少,此功能将被停用。若你在使用基础 v1.2 工作流时遇到 OOM,建议尝试 GGUF 版本!

Triton 和 SageAttention 问题

  • 我最常遇到的用户问题是 Triton 和 SageAttention 的安装问题——虽然我很乐意提供帮助,但我只是一个人,无法及时回复所有人。幸运的是,@CRAZYAI4U 向我推荐了 Stability Matrix,它可以自动部署 ComfyUI,并提供专门的脚本来安装 Triton 和 SageAttention。

  • 你首先需要从其仓库下载 Stability Matrix,并通过其平台下载 ComfyUI。一旦通过平台部署了 ComfyUI,点击 ComfyUI 实例条目左上角的三个横线菜单,选择“Package Commands”→“Install Triton and SageAttention”。完成后,你就能导入工作流、通过 ComfyUI 管理器安装缺失的依赖项、放入你的模型并开始生成了!

  • 我将很快发布一篇带截图的专门文章说明此过程。

使用的模型

T2V(文本到视频)

I2V(图像到视频)

MMAUDIO

非原生自定义节点

此模型生成的图像

未找到图像。