Wan 2.2 GGUF - T2V I2V and FLF2V workflow for VRAM or RAM limited people
详情
下载文件
关于此版本
模型描述
一组从三个其他来源分叉并重新改造的工作流,旨在用更少的VRAM或RAM完成更多任务。通过避免使用RAM而始终保持在VRAM中运行,防止ComfyUI崩溃(您更不可能耗尽RAM),使您能在同一张显卡上使用更大模型并采用更优设置。
代价是:WAN 2.2 模型每次都需要重新加载到内存中,这比较耗时,但总比什么都没有强。建议从SSD驱动器加载模型。请检查ComfyUI主目录中的 extra_model_paths.yaml 文件。
我在工作流说明中犯了一些拼写错误。在这里更新整个工作流文件非常繁琐(我得提交第N次“example.png 变成了伟大的凤凰”),因此我将修正版如下发布。对此造成的不便深表歉意。
- 准备工作:
请确保已启用所有所需文件。如果您未使用SSD存储文件,很可能会浪费大量时间。
如果您反复分步运行第一部分和第二部分(按此顺序),模型将被反复加载到内存中。这虽然降低了总体所需的RAM或VRAM量,但过程耗时。当替代方案是工作流完全失败(例如在接近结尾时崩溃)时,这种方法很有用。使用此方法,我每生成一次额外花费1分20秒,但通过将所有内容保留在VRAM中,我也节省了时间。对于WAN 2.2 FLF2V,这种方法具有竞争力;但对于WAN 2.2 T2V,则效果差得多。
- 第一部分:
启用“开启第一部分”,禁用“开启第二部分”。应用常规设置,运行工作流。它仅处理高CFG部分。第一部分完成后,.latent 文件将被保存到缓存目录中。您可能需要调整该文件的保存路径。
- 第二部分:
启用“开启第二部分”,禁用“开启第一部分”。确保latent文件路径正确。运行工作流。
原始工作流:
t2v:
/model/1835262/wan22-t2v-gguf-lightx2v-lora
i2v:
/model/1822764/wan-22-i2v-gguf-compact-speed-wf-or-lightning-lora-44-steps
(原生表现极佳)
FLF2V:
/model/1884402/flf2v-wan-22-video-generation-first-frame-to-last-frame-with-frame-interpolation
(这是我的自研模型,现已与所链接的原始版本相去甚远)