Wan2.1 I2V GGUF w/ Optimization Nodes + Causvid/FusionX/LightX Workflow
详情
下载文件
模型描述
在16GB显存下,这里不会再出现OOM错误。请将此工作流作为参考,将这些优化节点融入你自己的工作流,或者如果你真的需要,也可以直接使用。
我修改了definitelynotadog的版本1工作流,以优化16GB显存(我相信更低的显存也能运行),感谢他提供了核心内容——/model/1622023?modelVersionId=1835720
我添加了SageAttention、BlockSwap和TeaCache节点。使用480p GGUF模型时约3分钟,使用720p GGUF模型时约6分钟。欢迎随意提取我添加的优化节点,加入他的V2工作流或你自己的工作流中。
首先,下载你选择的Wan2.1模型的GGUF版本以获得更佳性能。Q数值越高,画质越高。我个人选择了Q3,因为它比Q8更快,而画质差异在我看来微乎其微。
LoRa加速器:
Causvid LORA可被FusionX或LightX LORA替代,因为它们是内置的,任选其一即可。
SelfForcing - /model/1713337/wan-self-forcing-rank-16-accelerator
FusionX - /model/1678575/wan21fusionx-the-lora
CausVid - /model/1585622/self-forcing-causvid-accvid-lora-massive-speed-up-for-wan21-made-by-kijai
模型:
以下是I2V 720p GGUF模型 - https://huggingface.co/city96/Wan2.1-I2V-14B-720P-gguf/tree/main
I2V 480p GGUF模型 - https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/tree/main
请务必同时下载缺失的VAE、CLIP Vision和CLIP:
请确保你已安装Custom Manager以安装自定义节点和依赖项,但以下这个节点你可能需要手动安装:https://github.com/city96/ComfyUI-GGUF
设置:
使用FusionX LORA或Causvid LORA时,请确保步数为4-10步,帧率保持16fps,最大长度为81。对我而言,7步是最优值,低于此值会出现大量伪影/卡顿。480p分辨率用848,720p分辨率用1280。
优化项:
Sage可提升约25%的运行速度。如果你的系统尚未安装SageAttention,请参考以下Windows平台安装指南:https://www.reddit.com/r/StableDiffusion/comments/1h7hunp/how_to_run_hunyuanvideo_on_a_single_24gb_vram_card/,操作不当可能导致ComfyUI崩溃。
BlockSwap节点:将显存卸载至系统内存(不再出现OOM错误)。14B模型设为40,1.3B模型设为30。生成过程中观察显存使用情况以找到最佳值;块数越高,显存占用越低。请注意,分辨率对显存占用影响很大。
TeaCache节点可提供2倍速度,但会牺牲画质。如果视频过于模糊或缺失肢体,请将阈值调低至0.140,或直接跳过/删除该节点。我仍在调试,以找到最佳参数。
我仍属这些节点的新手,欢迎提供任何你已知的有用信息,帮助他人优化使用。
