WAN 2.2 S2V Lipsync Workflow with SageAttention + BlockSwap + GGUF (include Upscale and Interpolation)
详情
下载文件
模型描述
我的 TG 频道 - https://t.me/StefanFalkokAI
我的 TG 聊天室 - https://t.me/+y4R5JybDZcFjMjFi
大家好!我向大家介绍我在 ComfyUI 中使用 Wan 2.2 S2V 生成视频的工作流程。
你需要拥有 Wan 2.2 S2V 模型。
你需要拥有 Wan 2.2 模型(https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/tree/main/S2V)、clip(https://huggingface.co/Kijai/WanVideo_comfy/blob/main/umt5-xxl-enc-bf16.safetensors)、audio_encoder(https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/audio_encoders)和 vae(wan 2.1 vae)。
GGUF - https://huggingface.co/QuantStack/Wan2.2-S2V-14B-GGUF/tree/main
此外,我还包含了 Lora https://huggingface.co/Kijai/WanVideo_comfy/tree/main/Lightx2v,以实现更优和更快的生成效果。
我建议将 Lora 的强度设置为 1.5,以获得最佳效果。
你还需安装 Sageattention 2.2.0(带 Triton)(https://huggingface.co/Kijai/PrecompiledWheels/tree/main)和 Torch 2.7.0+ 以实现更快的生成(https://github.com/pytorch/pytorch/releases),同时需要下载并安装 CUDA 12.8(https://developer.nvidia.com/cuda-12-8-0-download-archive)和 VS Code(https://visualstudio.microsoft.com/downloads/)。
安装 Sageattention 的说明(1.0.6 版本;如何安装 Sageattention 2.2.0:将 .whl 文件重命名为 .zip,然后将 .zip 中的文件夹复制到 ComfyUI\python_embeded\Lib\site-packages)。
只需使用音频、图像、撰写提示词,即可享受生成过程!
如果遇到问题或发现工作流程有故障,请留下评论。
