WAN 2.2 Animate Workflow with SageAttention + BlockSwap + GGUF (include Upscale and Interpolation)

详情

模型描述

你好!我向大家介绍我使用 Wan 2.2 Animate 为 ComfyUI 生成视频的工作流程。

这是一个实验性工作流程,仅供娱乐尝试。

你需要拥有 Wan 2.2 Animate 模型
https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/tree/main)、
clip(https://huggingface.co/Kijai/WanVideo_comfy/blob/main/umt5-xxl-enc-bf16.safetensors)、
音频编码器(https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/audio_encoders)以及 VAE(wan 2.1 vae)。

GGUF - https://huggingface.co/QuantStack/Wan2.2-Animate-14B-GGUF/tree/main

此外,我还包含了 LoRA https://huggingface.co/Kijai/WanVideo_comfy/tree/main/Lightx2v,以获得更佳和更快的生成效果。

我建议将 LoRA 的强度设为 1.5 以获得最佳结果。

你还需安装 Sageattention 2.2.0(带 Triton)(https://huggingface.co/Kijai/PrecompiledWheels/tree/main)以及 Torch 2.7.0+ 以实现更快的生成(https://github.com/pytorch/pytorch/releases),同时需要下载并安装 CUDA 12.8(https://developer.nvidia.com/cuda-12-8-0-download-archive)和 VS Code(https://visualstudio.microsoft.com/downloads/)。

安装 Sageattention 的说明(1.0.6 版本;要安装 Sageattention 2.2.0,请将 .whl 文件重命名为 .zip,并将 .zip 中的文件夹放入 ComfyUI\python_embeded\Lib\site-packages)。

如有任何问题或发现工作流中的错误,请留下评论。

此模型生成的图像

未找到图像。