MOTION-FORGE Wan 2.2 14B 4 Steps MoE I2V Noob-Friendly
详情
下载文件
模型描述
基于 Wan 2.2 14B MoE 构建的 streamlined 图像转视频工作流,配备双高噪声/低噪声专家,可从单张参考图像中生成清晰的运动与稳定的细节。正/负 CLIP 提示词用于条件化 WanImageToVideo 中的运动规划,随后 WanMoeKSampler 将高噪声与低噪声轨迹融合,实现动态但连贯的去噪。该流程原生输出 16 FPS 视频,并可选通过 RealESRGAN x2 超分和 RIFE 插值提升至 32 FPS,以生成社交媒体就绪的输出。
主要特性
通过 WanMoeKSampler 使用高噪声与低噪声模型进行双专家采样,兼顾运动能量与细节稳定性。
自动继承参考图像尺寸,避免长宽比失真,简化设置流程。
后处理堆栈:VAEDecode 转为帧,CreateVideo 生成 MP4,可选 RealESRGAN 超分,以及 RIFE x10 时间插值。
输入
参考图像加载器、正负 CLIP 提示词,可选音频透传(通过 writer)。
默认设置:960×960,65 帧长度,16 FPS 基础帧率。
推荐设置
采样器:UniPC + Beta 调度器,步数 4–5,去噪强度 1.0,边界值 0.5,sigma 偏移 5。
LoRA:LightX2V 高噪声强度 5.6,低噪声强度 2.0。
各模型部署位置
扩散模型(GGUF):
Wan2.2-I2V-A14B-HighNoise-Q8_0.gguf — 由 LoaderGGUF 加载并路由至高噪声分支。置于 GGUF 加载器使用的 models 文件夹中。
Wan2.2-I2V-A14B-LowNoise-Q8_0.gguf — 由 LoaderGGUF 加载并路由至低噪声分支。与上述模型置于同一 models 文件夹。
VAE:pig_wan_vae_fp32-f16.gguf — 由 VaeGGUF 加载,并连接至 WanImageToVideo 和 VAEDecode。置于 models/vae 文件夹。
CLIP 文本编码器:cow-umt5xxl-q8_0.gguf — 由 ClipLoaderGGUF 加载,vision 选 “wan”,projection 选 “default”。置于 models/clip 文件夹。
LoRAs:wan_loras/lightx2v_I2V_14B_480p_cfg_step_distill_rank128_bf16.safetensors — 通过 LoraLoaderModelOnly 按分支加载,再输入 Power Lora Loader。置于 models/loras/wan_loras 文件夹。
超分模型:RealESRGAN_x2plus.pth — 通过 UpscaleModelLoader 输入 ImageUpscaleWithModel。置于 models/upscale_models 文件夹。
帧插值:rife49.pth — 由 RIFE VFI 节点使用,插值因子 10,缩放比例 2。置于 models/rife 文件夹。
节点亮点
WanImageToVideo:根据指定宽高及帧长,从图像与提示词生成潜变量。
WanMoeKSampler:按分支结合高/低专家,使用 CFG 实现质量控制。
CreateVideo:16 FPS 组装;RIFE 后使用第二个 writer 输出 32 FPS。
工具:多个 cleanGpuUsed 与 RAMCleanup 节点,用于在有限显存下稳定长时间运行。
