Daxamur's WAN 2.2 Workflows v1.2.1 (FLF2V | T2V | I2V | GGUF | Easy Bypass | Experimental True Endless Generation)
详情
下载文件
关于此版本
模型描述
Daxamur 的 Wan 2.2 工作流
如果你愿意支持我,请查看我的 Patreon!
DM 询问定制项目。
-新闻-
由于我正全力准备下一个版本的发布,回复可能会延迟——一旦发布完成,回复将恢复正常!
v1.2.1 现已发布!—— 需通过 ComfyUI 管理器更新 DaxNodes
已添加 FLF2V 并支持 GGUF——无需新模型
修复了独立启用/禁用超分辨率和插值的功能
新增专用分辨率选择器节点,从 v1.3.1 起为 I2V 和 FLF2V 添加自动调整大小功能
DaxNodes 现已可通过 ComfyUI 管理器安装,无需再使用 git clone!
当前已知问题:
- 部分用户报告 KJNodes 的 Get / Set 功能出现缺失错误,若出现此情况,请确保从 ComfyUI 管理器下载最新版 DaxNodes 并重新导入工作流!—— 处理中
如果你在使用 VideoSave 或其他视频相关节点时看到 "FileNotFoundError ([WinError 2] 系统找不到指定的文件。)",说明 FFmpeg 缺失或未添加到系统 PATH 中。
设置(需完整版本):
下载 完整版 FFmpeg
解压至稳定路径(例如:C:\ffmpeg)
将 C:\ffmpeg\bin 添加到系统 PATH:
打开“编辑系统环境变量”→“环境变量…”
在系统变量中选择 Path → 编辑…
点击“新建”,添加 C:\ffmpeg\bin
保存并退出
重启 ComfyUI(以及你的终端/命令提示符)
完成以上操作后,一切应可正常运行!
v1.3.1 新功能
基于片段的提示
持久化正面提示:在整个视频中保持一致的细节(例如:“一位拥有绿色眼睛和棕色头发的女性,在温暖灯光的卧室中”)。
片段正面提示:以 + 分隔,每个片段长度对应一个提示(例如:“她正在写日记 + 她合上日记本并站起来 + 她走开了”)。
在长视频中提供更强的控制力,有助于减少 WAN 在 I2V 起始时渲染奇怪的摄像机运动或卡顿。
无限循环风格
片段可“无限”串联(我将节点上限设为 9999),实现近乎无限的循环。
视频执行 ID 负责管理覆盖与拼接——生成新序列时,只需递增该 ID 即可。
流式 RIFE VFI + 超分辨率
调整后的 RIFE VFI 和超分辨率现在逐帧流式处理,而非将整个序列保留在 VRAM/RAM 中。
可生成更长的视频,实现更平滑的插值和更清晰的超分辨率,且不会出现 OOM 错误。
人脸检测与漂移校正
智能 Mediapipe 人脸帧检测锁定角色焦点。
漂移校正确保最终视频至少达到请求的时长——而非在生成中途截断,而是自动添加完整额外片段,直至达到或超过目标帧数。
这样可避免浪费任何已生成的帧,并始终获得平滑、完整的片段。
完全可开关,并支持可调的帧回溯设置。
分辨率处理
T2V:使用标准 WAN 分辨率预设,可选覆盖。
I2V:输入图像按比例缩放至 WAN 原生分辨率,保持宽高比。“原生”直通模式已支持。
体验优化与管理
可独立开关超分辨率/插值功能。
临时文件按执行 ID 组织——定期清理 /output/.tmp/ 以节省空间。
未来展望
此工作流仍属实验阶段,未来版本将扩展片段控制、更智能的运动/摄像机行为处理、更自适应的人脸追踪,甚至集成音频/视频以生成电影级序列。大动作即将来临!
注意事项
我已尽量将你可能需要配置的节点放置在流程的下部(大致按顺序),而大部分操作/后端内容则位于顶部。所有节点均已尽可能清晰地标明其功能。
除此之外:
已启用 NAG Attention,建议将 CFG 保持为 1。
采样器和调度器默认设置为 uni_pc // simple,我发现这是速度与质量的最佳平衡(仅限 1.1>)。若你不介意等待(据我经验需要很长)以换取略微更好的效果,我推荐使用 RES4LYF 自定义节点中的 res_3s // bong_tangent。
我将默认步数设为 8(每个采样器 4 步),而非 4,因为这是我观察到质量与时间权衡最显著的点——但这完全取决于你的偏好。
此流程默认将完成的视频保存至 ComfyUI/output/WAN/<T2V|T2I|I2V>/。
I2V
- 自定义节点 flow2-wan-video 会与 Wan 图像转视频节点冲突,必须移除才能正常工作。我发现通过 ComfyUI 管理器卸载时,该节点并未完全从 custom_nodes 文件夹中删除,需手动删除。
GGUF
使用 GGUF 版本工作流的所有模型均相同,仅基础高噪声和低噪声模型除外。你需要根据系统情况选择最适合的 GGUF 量化版本,并在各自的 Load WAN 2.2 GGUF 节点中正确设置模型。一般规则:理想情况下,你的 GGUF 模型应能装入你的 VRAM 并留有数 GB 余量。
GGUF 工作流的示例使用了 WAN 2.2 I2V 和 T2V 的 Q6_K 量化版本。
本工作流测试的 WAN 2.2 GGUF 量化版本来自 HuggingFace 的以下位置:
MMAUDIO
- 要设置 MMAUDIO,你必须下载下方的 MMAUDIO 模型,在你的模型目录中(ComfyUI/models/mmaudio)创建一个 "mmaudio" 文件夹,并将所有下载的 mmaudio 模型放入此文件夹(包括 apple_DFN5B-CLIP-ViT-H-14-384_fp16.safetensors)。
模块交换工作流
- 由于我在测试中发现原生 ComfyUI 内存交换能节省更多内存且速度下降更少,此功能将被停用。若你在使用基础 v1.2 工作流时遇到 OOM,建议尝试 GGUF 版本!
Triton 和 SageAttention 问题
我最常遇到的用户问题是 Triton 和 SageAttention 的安装问题——虽然我很乐意提供帮助,但我只是一个人,无法及时回复所有人。幸运的是,@CRAZYAI4U 向我推荐了 Stability Matrix,它可以自动部署 ComfyUI,并提供专门的脚本来安装 Triton 和 SageAttention。
你首先需要从其仓库下载 Stability Matrix,并通过其平台下载 ComfyUI。一旦通过平台部署了 ComfyUI,点击 ComfyUI 实例条目左上角的三个横线菜单,选择“Package Commands”→“Install Triton and SageAttention”。完成后,你就能导入工作流、通过 ComfyUI 管理器安装缺失的依赖项、放入你的模型并开始生成了!
我将很快发布一篇带截图的专门文章说明此过程。
使用的模型
T2V(文本到视频)
Wan2_2-I2V-A14B-HIGH_fp8_e4m3fn_scaled_KJ.safetensors(用于循环片段)
Wan2_2-I2V-A14B-LOW_fp8_e4m3fn_scaled_KJ.safetensors(用于循环片段)
lightx2v_T2V_14B_cfg_step_distill_v2_lora_rank64_bf16.safetensors
Wan21_I2V_14B_lightx2v_cfg_step_distill_lora_rank64.safetensors(用于循环片段)
I2V(图像到视频)
Wan21_I2V_14B_lightx2v_cfg_step_distill_lora_rank64.safetensors
model.safetensors(重命名为 clip-vit-large-patch14.safetensors)
