Wan2.2 Stand-in Video Face Swap Practice

详情

模型描述

此工作流是一个实用的Wan2.2替身换脸流水线:您加载一张源人脸图像,通过替身预处理器(FaceProcessorLoader → ApplyFaceProcessor)提取干净的面部/颈部区域(可选参数如 with_neck / face_only_mode),然后将该身份信号与目标视频结合,使生成结果在各帧中一致保留新人物的面部特征。

在生成端,它通过将目标视频编码为潜空间(WanVideoEncode) 构建视频条件,再通过WanVideoAddStandInLatent 注入替身身份潜变量,随后使用Wan2.2及常规包装栈(模型加载器 + LoRA选择 + 采样器)进行采样。关键控制参数是您传入采样器的视频去噪强度(denoise_strength):较低值保留更多原始运动/内容,较高值则更倾向于“重绘”,可能导致源视频结构被削弱——因此您需根据希望换脸的激进程度调整去噪强度。

🎥 YouTube 视频教程

想了解这个工作流到底做什么,以及如何快速上手?

本视频将说明工具定位、一键启动方法,以及我的核心设计思路——无需本地部署,无需复杂环境配置。

所有操作直接在 RunningHub 上进行,您可第一时间体验实际效果。

👉 YouTube 教程: https://youtu.be/mfQVh9oXByQ

开始前建议完整观看视频——掌握整体逻辑能帮助您更快上手,避免常见误区。

⚙️ RunningHub 工作流

立即在线体验,无需安装。

👉 工作流: https://www.runninghub.ai/post/2004807686212513794/?inviteCode=rh-v1111

若效果符合预期,您后续可部署至本地进行定制化调整。

🎁 粉丝福利: 注册即送1000积分,每日登录额外100积分,畅享4090性能与48GB超强算力!

📺 Bilibili 更新(中国大陆及亚太地区)

若您身处亚太地区,可通过下方视频观看该工作流的实测演示与创意解析。

📺 B站视频: https://www.bilibili.com/video/BV1uiviBME4g/

我会在夸克网盘持续更新模型资源:👉 https://pan.quark.cn/s/20c6f6f8d87b 这些资源主要面向本地用户,便于创作与学习。


☕ 在 Ko-fi 支持我

若您觉得我的内容有帮助,并希望支持未来创作,欢迎请我喝杯咖啡 ☕。

每一份支持都助我持续创作——如同微小火花,终可点燃熊熊烈焰。

👉 Ko-fi: https://ko-fi.com/aiksk

💼 商务合作

如需合作或咨询,请添加微信:aiksk95

此模型生成的图像

未找到图像。