Wan 2.2 - FFLF - XT 404 - Master UI

详情

模型描述

这只是我的个人工作流程,我并不负责创建该模型或节点!!!

请使用下方描述中的节点和模型!!!

节点 > https://github.com/XT-404/XT-404_SKYNET

Lora Loader https://github.com/HenkDz/rgthree-comfy

模型 > https://civarchive.com/models/2244942?modelVersionId=2527274

🤖 XT-404 Skynet 套件:Wan 2.2 集成

ComfyUI 的“Omega 版本”

Skynet Banner Version Architecture License

XT-404 Skynet 套件 是一套专为 ComfyUI 设计的高度专业化、经过实战检验的自定义节点集合,专为 Wan 2.1 和 2.2 视频扩散模型优化。

与标准节点不同,该套件聚焦于“视觉至高性”——以数学精度实现 8K、OLED 级别的画质。它摒弃了通用处理方式,采用启发式、上下文感知算法,保护信号完整性,精准管理 VRAM,并消除数字伪影。


⚠️ 系统要求

  • ComfyUI:推荐使用最新版本。

  • Wan 2.2 模型:请确保您已拥有 VAE、CLIP 和 UNet/Transformer 模型。

  • Python:3.10 或以上版本。

  • FFmpeg:Compressor 节点必需(通常通过 imageio-ffmpeg 安装)。

注意

渗透协议(GGUF):若要在 Cyberdyne 模型中心 中使用 GGUF 量化模型,必须安装 ComfyUI-GGUF 引擎。📥 下载引擎city96/ComfyUI-GGUF。若未安装此引擎,Cyberdyne 模型中心将仅以 Safetensors 模式运行。


🚀 核心功能

  • 零点噪声注入:消除视频生成中的静态“雪花”现象。

  • ARRI 渐变色调映射:即使在高对比度场景中也能防止白色过曝。

  • Nano-Repair(Genisys):实时监控张量,防止因 TF32 精度导致的黑屏/NaN 问题。

  • OLED/8K 工作流:专为深黑、有机颗粒和微观细节幻觉设计的专用管道。

  • 哨兵遥测:实时控制台日志(“The Mouchard”),逐帧分析饱和度、过曝和 VRAM 使用情况。


📦 安装步骤

进入您的 ComfyUI 自定义节点目录:

cd ComfyUI/custom_nodes/

克隆本仓库:

git clone https://github.com/YourUsername/XT-404-Skynet-Suite.git

安装依赖项:

pip install imageio-ffmpeg scikit-image

🛠️ 模块详解

1. 核心引擎(XT404_Skynet_Nodes.py

生成过程的核心。以专为 Wan 的 Flow Matching 优化的混合引擎替代标准 KSamplers。

  • 零点修复:确保 0 + 噪声 = 纯噪声,注入前清空潜在空间。

  • Wan Sigma 计算器:使用 Wan 2.1/2.2 所需的特定偏移公式。

  • 链式架构:通过在节点间传递主 sigma 时钟,实现“高分辨率修复”。

2. 通用加载器(cyberdyne_model_hub.py

统一加载 Checkpoints、SafeTensors 和 GGUF 模型。

  • 递归搜索:自动在子目录中查找模型。

  • GGUF 路由:自动识别 GGUF 文件并转发至对应后端。

  • 智能卸载:积极将未使用的模型卸载至 RAM,为采样器释放 VRAM。

3. 视觉至高性套件(wan_visual_supremacy.py

治愈“AI 塑料感”的“秘密配方”。

  • Latent Detailer X:在解码前注入微观细节,同时防止信号饱和。

  • Temporal Lock Pro:解码后稳定器,通过融合低差异帧消除闪烁。

  • OLED Dynamix(ARRI 渐变):对数压缩曲线,保留高光纹理。

4. Nano-Repair 系统(wan_genisys.py

  • 节点Cyberdyne Genisys [OMNISCIENT]

  • 功能:通过计算张量漂移并在其达到 NaN 前钳制数值,解决 TF32/BF16 中的“黑屏”问题。

5. T-X 插值器(wan_tx_node.py

  • 功能:在起始图像与结束图像之间生成视频。

  • 创新:使用逆结构排斥机制,强制模型幻化出转换路径,而非简单混合。


🎛️ 推荐工作流策略

为获得终极 8K OLED 效果,请按以下顺序连接节点:

  1. 加载器Cyberdyne 模型中心(加载模型与 VAE)。

  2. 提示词Wan 文本缓存Wan 视觉缓存

  3. 生成WanImageToVideoUltraXT-404 Skynet 1(主控)

  4. 精修XT-404 Skynet 3(精修器)(去噪 0.3)。

  5. 解码VAE 解码

  6. 视觉至高性堆栈

    • Temporal Lock Pro(稳定像素)。

    • OLED Dynamix(塑造光影)。

    • Organic Skin(添加纹理)。

  7. 最终润色Wan Chroma Mimic(验证信号并锐化)。

  8. 编码视频合成Wan 压缩器


📟 控制台 HUD(XT-Mouchard)

请勿忽视控制台!该套件会实时报告信号健康状况:

  • 🟢 绿色:信号正常。

  • 🟡 黄色:检测到高信号(渐变已激活)。

  • 🔴 红色:严重饱和/过曝(请降低 specular_pop)。

示例日志:

[XT-MIMIC] 🎨 最终验证 | 动态范围: [0.000, 0.982]
   └── 信号完整性:正常(过曝:0.00%)

这表明数学上完美的黑白,且最高亮度被限制在 98.2%,以保留显示时的光晕效果。


📜 致谢

  • 架构师:XT-404 Omega

  • 公司:Cyberdyne 系统

  • 状态:黄金主版本(V3.8)

"命运并非注定,而是由我们亲手创造。"


由 Cyberdyne 研究部维护。如遇“渗透报告”,请提交 Issue。


🤖 XT-404 Skynet:Wan 2.2 哨兵套件(Omega 版)

Cyberdyne 系统公司 | T-800 系列 | 型号 101

Version Architecture Engine New Module

"未来并非注定。命运,由我们亲手创造。"


⚠️ 关键系统依赖

注意

渗透协议(GGUF):若要在 Cyberdyne 模型中心 中使用 GGUF 量化模型,必须安装 ComfyUI-GGUF 引擎

📥 下载引擎city96/ComfyUI-GGUF

若未安装此引擎,Cyberdyne 模型中心将仅以 Safetensors 模式运行。


🚀 为何选择 XT-404 Skynet?(竞品分析)

标准节点依赖通用实现。XT-404 Skynet 是专为 Wan 2.2 的特性量身打造的定制架构。

功能 标准节点 / 竞品 🤖 XT-404 Skynet 架构
精度 标准 FP16/BF16(易产生色带) 混合 FP32/TF32 上下文切换(零色带)
插值 基础线性淡入淡出(静态/冻结) T-X 双相封装(原生 VAE 注入)
色彩科学 RGB 过曝 LAB 空间转换 + OLED 动态(电影级)
缓存 基础 TeaCache(有运动冻结风险) T-3000 Genisys + 动量与 Nano-Repair
缩放 双线性(模糊) Lanczos/Bicubic FP32(像素级精准)
内存 高 VRAM 占用(OOM 风险) 手术级固定内存(DMA) + 激进清理

🌍 神经网络导航

🇺🇸 英文文档

  1. 视觉工程(Wan Chroma Mimic)

  2. 渗透(模型加载器)

  3. 神经网络核心(XT-404 采样器)

  4. T-3000 Genisys(全知缓存)

  5. 仿生渲染(I2V Ultra 与保真度)

  6. 多维合金(T-X 双相) 🆕

  7. 传感器与加速器(Omega 工具)

  8. 后处理与自动化

🇫🇷 法文文档

查阅法文版以获取完整技术细节。


🇺🇸 英文文档

🎨 第零阶段:视觉工程(Wan Chroma Mimic)

文件wan_chroma_mimic.py

终极色彩分级引擎。这并非简单滤镜。它在 GPU 上实时运行,将图像张量转换为 LAB 色彩空间,分离亮度与色彩信息,实现电影级参考而不破坏光照数据。

🔥 核心功能与配置

  • 架构:100% PyTorch GPU,0% CPU 延迟。

  • 形态学滤波器:在视频扩散产生的微小伪影(黑白点)扩散前予以清除。

  • OLED 动态:在 0.5 处应用非线性 S 曲线,加深黑色同时保留高光峰值。

参数 推荐值 描述
reference_image 必需 源图像(风格参考)。情绪由此提取。
effect_intensity 0.25 LAB 转移的混合强度。
oled_contrast 0.00 “Netflix”风格。 增强动态范围。0.0 = 中性。
skin_metal_smooth 0.25 智能表面模糊。 平滑皮肤/金属,同时检测边缘以保持锐度。
detail_crispness 0.2 影院锐化。 使用高斯差分法增强微细节。


🛡️ 阶段 1:渗透(Cyberdyne 模型中心)

文件: cyberdyne_model_hub.py

一个统一加载器,连接 Safetensors 和 GGUF 架构。它自动解决 Wan 2.2 的“双UNet”需求。

  • 递归扫描器: 在子文件夹中查找模型。
  • 天网协议: 主动管理 VRAM。在加载前计算校验和(SHA256)并清除内存,以防止碎片化。
  • 混合加载: 可同时加载高分辨率 FP16 模型和低分辨率 GGUF 模型。

🧠 阶段 2:神经网络核心(XT-404 采样器)

文件: XT404_Skynet_Nodes.py

“哨兵”引擎。与标准采样器不同,这些采样器硬编码了 Wan 2.2 所需的 simple(线性)调度器,避免了使用标准 KSamplers 时出现的“输出过曝”问题。

🔴 XT-404 Skynet 1(主控)

  • 偏移值(5.0): Wan 2.2 潜在时间的关键设置。
  • Bongmath 引擎: 自定义纹理噪声注入系统。
    • True:添加模拟胶片颗粒一致性。
    • False:纯数字纯净度。

🟡 XT-404 Skynet 2(链式)

  • 种子锁定: 通过 options 字典自动继承主控节点的种子,确保生成过程中的时间一致性。

🟢 XT-404 Skynet 3(精炼器)

  • 重采样模式: 在链路末尾注入受控噪声,以幻觉高频细节。

💀 阶段 3:T-3000 Genisys(全知缓存)

文件: wan_genisys.py

优于 TeaCache。 标准 TeaCache 在差异过低时会冻结视频运动。T-3000 使用“动能动量”。

  • 动能动量: 若检测到运动,则强制计算接下来的 X 帧,防止出现“人偶挑战”效应。
  • 纳米修复: 检测张量流中的 NaNInf 值(黑屏错误),并使用软钳位(-10/+10)而非硬裁剪进行外科手术式修复。
  • HUD: 在控制台中实时显示信号完整性和漂移指标。

🎭 阶段 4:仿生渲染(I2V 超高清与保真度)

文件: nodes_wan_ultra.py / wan_fast.py

🌟 Wan Ultra(质量之王)

  • 核级归一化: 使用双三次抗锯齿将输入图像严格标准化至 0.0–1.0 范围。
  • 细节增强: 在 VAE 编码前应用锐化卷积矩阵,以抵消压缩模糊。
  • 运动放大: 使用“软限幅器”(Tanh 曲线)放大运动向量,同时不破坏物理一致性。

⚡ Wan Fidelity(速度之王)

  • 优化: 使用 torch.full 替代拼接,以提升内存效率。
  • 逻辑: 恢复原始 Wan 2.1 的上下文窗口逻辑,实现完美的时间连贯性。

🧪 阶段 6.5:多维合金(T-X 双相)[新增]

文件: wan_tx_node.py

插值奇点。 标准 I2V 模型难以精确到达特定末帧(常出现冻结或风格丢失)。T-X 引擎 使用原生 VAE 注入封装器,完美衔接时间轴。

  • 关键帧注入: 临时覆盖 VAE 的内部逻辑,编码 [起始帧 -> 空白 -> 终止帧],而不破坏潜在空间。
  • 流畅变形: 强制 Wan 2.2 模型求解 A 点与 B 点之间的物理方程,防止出现“幻灯片”效果。
  • 智能 VRAM 扫描器: 自动检测 GPU 容量,在“安全模式”(512px 分块)和“超高清模式”(1280px 分块)间切换。

参数 描述
start_image 起始帧(第 0 帧)。
end_image 目标帧(第 N 帧)。T-X 引擎强制收敛至该图像。
motion_amp 放大关键帧间的潜在运动向量。
detail_boost 预处理锐化,以在 VAE 压缩中保留纹理。


⚡ 阶段 5:传感器与加速器(Omega 工具)

🚀 Wan 硬件加速器(防烧毁 V4)

文件: wan_accelerator.py 性能的“秘密配方”。

  • 问题: 在 Wan 2.2 上启用 TF32 通常因归一化错误导致图像“烧毁”(对比度问题)。
  • 解决方案(上下文切换): 此节点全局启用 TF32 以提升速度,但拦截 GroupNormLayerNorm 层,强制其使用 FP32 精度。
  • 结果: 获得 TF32 的 30% 速度提升,同时保持 FP32 的视觉质量。

👁️ Wan 视觉与文本缓存(DMA)

文件: wan_i2v_tools.py

  • 固定内存: 使用 CPU 页锁定内存(DMA)将文本嵌入即时传输至 GPU。
  • 视觉哈希: 对图像内容(包括步幅)进行哈希,避免重复编码相同的 CLIP 视觉输入。

🛠️ 阶段 6:后处理与自动化

  • Wan 压缩器(Omega): 线程安全的 H.265 编码。限制 CPU 线程数为 16,防止 Threadripper/i9 崩溃。
  • Wan 循环终结器: 使用 Windows API EmptyWorkingSet 清除 RAM 待机列表(防止系统卡顿)。
  • 自动 Wan 优化器: 智能重缩放器,强制执行 Modulo 16 尺寸(Wan 所需),并防止 OOM(>1024px)。

此模型生成的图像

未找到图像。