Wan 2.2 - FFLF - XT 404 - Master UI
详情
下载文件
关于此版本
模型描述
这只是我的个人工作流程,我并不负责创建该模型或节点!!!
请使用下方描述中的节点和模型!!!
节点 > https://github.com/XT-404/XT-404_SKYNET
Lora Loader https://github.com/HenkDz/rgthree-comfy
模型 > https://civarchive.com/models/2244942?modelVersionId=2527274
🤖 XT-404 Skynet 套件:Wan 2.2 集成
ComfyUI 的“Omega 版本”
XT-404 Skynet 套件 是一套专为 ComfyUI 设计的高度专业化、经过实战检验的自定义节点集合,专为 Wan 2.1 和 2.2 视频扩散模型优化。
与标准节点不同,该套件聚焦于“视觉至高性”——以数学精度实现 8K、OLED 级别的画质。它摒弃了通用处理方式,采用启发式、上下文感知算法,保护信号完整性,精准管理 VRAM,并消除数字伪影。
⚠️ 系统要求
ComfyUI:推荐使用最新版本。
Wan 2.2 模型:请确保您已拥有 VAE、CLIP 和 UNet/Transformer 模型。
Python:3.10 或以上版本。
FFmpeg:Compressor 节点必需(通常通过
imageio-ffmpeg安装)。
注意
渗透协议(GGUF):若要在 Cyberdyne 模型中心 中使用 GGUF 量化模型,必须安装 ComfyUI-GGUF 引擎。📥 下载引擎:city96/ComfyUI-GGUF。若未安装此引擎,Cyberdyne 模型中心将仅以 Safetensors 模式运行。
🚀 核心功能
零点噪声注入:消除视频生成中的静态“雪花”现象。
ARRI 渐变色调映射:即使在高对比度场景中也能防止白色过曝。
Nano-Repair(Genisys):实时监控张量,防止因 TF32 精度导致的黑屏/NaN 问题。
OLED/8K 工作流:专为深黑、有机颗粒和微观细节幻觉设计的专用管道。
哨兵遥测:实时控制台日志(“The Mouchard”),逐帧分析饱和度、过曝和 VRAM 使用情况。
📦 安装步骤
进入您的 ComfyUI 自定义节点目录:
cd ComfyUI/custom_nodes/
克隆本仓库:
git clone https://github.com/YourUsername/XT-404-Skynet-Suite.git
安装依赖项:
pip install imageio-ffmpeg scikit-image
🛠️ 模块详解
1. 核心引擎(XT404_Skynet_Nodes.py)
生成过程的核心。以专为 Wan 的 Flow Matching 优化的混合引擎替代标准 KSamplers。
零点修复:确保
0 + 噪声 = 纯噪声,注入前清空潜在空间。Wan Sigma 计算器:使用 Wan 2.1/2.2 所需的特定偏移公式。
链式架构:通过在节点间传递主 sigma 时钟,实现“高分辨率修复”。
2. 通用加载器(cyberdyne_model_hub.py)
统一加载 Checkpoints、SafeTensors 和 GGUF 模型。
递归搜索:自动在子目录中查找模型。
GGUF 路由:自动识别 GGUF 文件并转发至对应后端。
智能卸载:积极将未使用的模型卸载至 RAM,为采样器释放 VRAM。
3. 视觉至高性套件(wan_visual_supremacy.py)
治愈“AI 塑料感”的“秘密配方”。
Latent Detailer X:在解码前注入微观细节,同时防止信号饱和。
Temporal Lock Pro:解码后稳定器,通过融合低差异帧消除闪烁。
OLED Dynamix(ARRI 渐变):对数压缩曲线,保留高光纹理。
4. Nano-Repair 系统(wan_genisys.py)
节点:
Cyberdyne Genisys [OMNISCIENT]功能:通过计算张量漂移并在其达到 NaN 前钳制数值,解决 TF32/BF16 中的“黑屏”问题。
5. T-X 插值器(wan_tx_node.py)
功能:在起始图像与结束图像之间生成视频。
创新:使用逆结构排斥机制,强制模型幻化出转换路径,而非简单混合。
🎛️ 推荐工作流策略
为获得终极 8K OLED 效果,请按以下顺序连接节点:
加载器:
Cyberdyne 模型中心(加载模型与 VAE)。提示词:
Wan 文本缓存与Wan 视觉缓存。生成:
WanImageToVideoUltra→XT-404 Skynet 1(主控)。精修:
XT-404 Skynet 3(精修器)(去噪 0.3)。解码:
VAE 解码。视觉至高性堆栈:
Temporal Lock Pro(稳定像素)。OLED Dynamix(塑造光影)。Organic Skin(添加纹理)。
最终润色:
Wan Chroma Mimic(验证信号并锐化)。编码:
视频合成→Wan 压缩器。
📟 控制台 HUD(XT-Mouchard)
请勿忽视控制台!该套件会实时报告信号健康状况:
🟢 绿色:信号正常。
🟡 黄色:检测到高信号(渐变已激活)。
🔴 红色:严重饱和/过曝(请降低
specular_pop)。
示例日志:
[XT-MIMIC] 🎨 最终验证 | 动态范围: [0.000, 0.982]
└── 信号完整性:正常(过曝:0.00%)
这表明数学上完美的黑白,且最高亮度被限制在 98.2%,以保留显示时的光晕效果。
📜 致谢
架构师:XT-404 Omega
公司:Cyberdyne 系统
状态:黄金主版本(V3.8)
"命运并非注定,而是由我们亲手创造。"
由 Cyberdyne 研究部维护。如遇“渗透报告”,请提交 Issue。
🤖 XT-404 Skynet:Wan 2.2 哨兵套件(Omega 版)
Cyberdyne 系统公司 | T-800 系列 | 型号 101
"未来并非注定。命运,由我们亲手创造。"
⚠️ 关键系统依赖
注意
渗透协议(GGUF):若要在 Cyberdyne 模型中心 中使用 GGUF 量化模型,必须安装 ComfyUI-GGUF 引擎。
📥 下载引擎:city96/ComfyUI-GGUF
若未安装此引擎,Cyberdyne 模型中心将仅以 Safetensors 模式运行。
🚀 为何选择 XT-404 Skynet?(竞品分析)
标准节点依赖通用实现。XT-404 Skynet 是专为 Wan 2.2 的特性量身打造的定制架构。
| 功能 | 标准节点 / 竞品 | 🤖 XT-404 Skynet 架构 |
|---|---|---|
| 精度 | 标准 FP16/BF16(易产生色带) | 混合 FP32/TF32 上下文切换(零色带) |
| 插值 | 基础线性淡入淡出(静态/冻结) | T-X 双相封装(原生 VAE 注入) |
| 色彩科学 | RGB 过曝 | LAB 空间转换 + OLED 动态(电影级) |
| 缓存 | 基础 TeaCache(有运动冻结风险) | T-3000 Genisys + 动量与 Nano-Repair |
| 缩放 | 双线性(模糊) | Lanczos/Bicubic FP32(像素级精准) |
| 内存 | 高 VRAM 占用(OOM 风险) | 手术级固定内存(DMA) + 激进清理 |
🌍 神经网络导航
🇺🇸 英文文档
🇫🇷 法文文档
查阅法文版以获取完整技术细节。
🇺🇸 英文文档
🎨 第零阶段:视觉工程(Wan Chroma Mimic)
文件:wan_chroma_mimic.py
终极色彩分级引擎。这并非简单滤镜。它在 GPU 上实时运行,将图像张量转换为 LAB 色彩空间,分离亮度与色彩信息,实现电影级参考而不破坏光照数据。
🔥 核心功能与配置
架构:100% PyTorch GPU,0% CPU 延迟。
形态学滤波器:在视频扩散产生的微小伪影(黑白点)扩散前予以清除。
OLED 动态:在 0.5 处应用非线性 S 曲线,加深黑色同时保留高光峰值。
参数 推荐值 描述reference_image 必需 源图像(风格参考)。情绪由此提取。effect_intensity 0.25 LAB 转移的混合强度。oled_contrast 0.00 “Netflix”风格。 增强动态范围。0.0 = 中性。skin_metal_smooth 0.25 智能表面模糊。 平滑皮肤/金属,同时检测边缘以保持锐度。detail_crispness 0.2 影院锐化。 使用高斯差分法增强微细节。
🛡️ 阶段 1:渗透(Cyberdyne 模型中心)
文件: cyberdyne_model_hub.py
一个统一加载器,连接 Safetensors 和 GGUF 架构。它自动解决 Wan 2.2 的“双UNet”需求。
- 递归扫描器: 在子文件夹中查找模型。
- 天网协议: 主动管理 VRAM。在加载前计算校验和(SHA256)并清除内存,以防止碎片化。
- 混合加载: 可同时加载高分辨率 FP16 模型和低分辨率 GGUF 模型。
🧠 阶段 2:神经网络核心(XT-404 采样器)
文件: XT404_Skynet_Nodes.py
“哨兵”引擎。与标准采样器不同,这些采样器硬编码了 Wan 2.2 所需的 simple(线性)调度器,避免了使用标准 KSamplers 时出现的“输出过曝”问题。
🔴 XT-404 Skynet 1(主控)
- 偏移值(5.0): Wan 2.2 潜在时间的关键设置。
- Bongmath 引擎: 自定义纹理噪声注入系统。
True:添加模拟胶片颗粒一致性。False:纯数字纯净度。
🟡 XT-404 Skynet 2(链式)
- 种子锁定: 通过
options字典自动继承主控节点的种子,确保生成过程中的时间一致性。
🟢 XT-404 Skynet 3(精炼器)
- 重采样模式: 在链路末尾注入受控噪声,以幻觉高频细节。
💀 阶段 3:T-3000 Genisys(全知缓存)
文件: wan_genisys.py
优于 TeaCache。 标准 TeaCache 在差异过低时会冻结视频运动。T-3000 使用“动能动量”。
- 动能动量: 若检测到运动,则强制计算接下来的 X 帧,防止出现“人偶挑战”效应。
- 纳米修复: 检测张量流中的
NaN或Inf值(黑屏错误),并使用软钳位(-10/+10)而非硬裁剪进行外科手术式修复。 - HUD: 在控制台中实时显示信号完整性和漂移指标。
🎭 阶段 4:仿生渲染(I2V 超高清与保真度)
文件: nodes_wan_ultra.py / wan_fast.py
🌟 Wan Ultra(质量之王)
- 核级归一化: 使用双三次抗锯齿将输入图像严格标准化至 0.0–1.0 范围。
- 细节增强: 在 VAE 编码前应用锐化卷积矩阵,以抵消压缩模糊。
- 运动放大: 使用“软限幅器”(Tanh 曲线)放大运动向量,同时不破坏物理一致性。
⚡ Wan Fidelity(速度之王)
- 优化: 使用
torch.full替代拼接,以提升内存效率。 - 逻辑: 恢复原始 Wan 2.1 的上下文窗口逻辑,实现完美的时间连贯性。
🧪 阶段 6.5:多维合金(T-X 双相)[新增]
文件: wan_tx_node.py
插值奇点。 标准 I2V 模型难以精确到达特定末帧(常出现冻结或风格丢失)。T-X 引擎 使用原生 VAE 注入封装器,完美衔接时间轴。
- 关键帧注入: 临时覆盖 VAE 的内部逻辑,编码
[起始帧 -> 空白 -> 终止帧],而不破坏潜在空间。 - 流畅变形: 强制 Wan 2.2 模型求解 A 点与 B 点之间的物理方程,防止出现“幻灯片”效果。
- 智能 VRAM 扫描器: 自动检测 GPU 容量,在“安全模式”(512px 分块)和“超高清模式”(1280px 分块)间切换。
参数 描述start_image 起始帧(第 0 帧)。end_image 目标帧(第 N 帧)。T-X 引擎强制收敛至该图像。motion_amp 放大关键帧间的潜在运动向量。detail_boost 预处理锐化,以在 VAE 压缩中保留纹理。
⚡ 阶段 5:传感器与加速器(Omega 工具)
🚀 Wan 硬件加速器(防烧毁 V4)
文件: wan_accelerator.py 性能的“秘密配方”。
- 问题: 在 Wan 2.2 上启用 TF32 通常因归一化错误导致图像“烧毁”(对比度问题)。
- 解决方案(上下文切换): 此节点全局启用 TF32 以提升速度,但拦截
GroupNorm和LayerNorm层,强制其使用 FP32 精度。 - 结果: 获得 TF32 的 30% 速度提升,同时保持 FP32 的视觉质量。
👁️ Wan 视觉与文本缓存(DMA)
文件: wan_i2v_tools.py
- 固定内存: 使用 CPU 页锁定内存(DMA)将文本嵌入即时传输至 GPU。
- 视觉哈希: 对图像内容(包括步幅)进行哈希,避免重复编码相同的 CLIP 视觉输入。
🛠️ 阶段 6:后处理与自动化
- Wan 压缩器(Omega): 线程安全的 H.265 编码。限制 CPU 线程数为 16,防止 Threadripper/i9 崩溃。
- Wan 循环终结器: 使用 Windows API
EmptyWorkingSet清除 RAM 待机列表(防止系统卡顿)。 - 自动 Wan 优化器: 智能重缩放器,强制执行
Modulo 16尺寸(Wan 所需),并防止 OOM(>1024px)。

