Wan 2.2 GGUF Workflow I2V with Upscale
详情
下载文件
关于此版本
模型描述
此工作流程是我为在“较小”显卡(具体为12 GB)上运行I2V模型而设计的组织与构建方案。我使用Q5 GGUF模型,但也测试过更小的Q4和Q3模型——它们在提示遵循度和质量上略有下降,但仍可使用。本方案还包括使用Lightspeed LoRA,以及提供所有模型/LoRA的下载来源说明。
如果你的RAM或VRAM有限,我建议使用参数 --cache-none 运行ComfyUI。
虽然这会导致对同一视频进行多次批量处理时速度变慢,但整体视频生成速度会更加稳定(在普通家用PC配置下,生成5-6秒视频只需3-4分钟)。
本方案还使用了Florence2(LLM)进行图像检测和自动提示辅助。你只需在手动提示中添加所需动作(如果需要)即可。
我见过许多其他工作流中的节点,但在Wan 2.2 I2V中,这些节点通常毫无作用,只会增加额外开销。
我通常以480p分辨率(480 x 832)运行视频,本工作流程随后将其放大2倍至960 x 1664。
使用的自定义节点:
ComfyUI-GGUF(https://github.com/city96/ComfyUI-GGUF)
rgthree-comfy(https://github.com/rgthree/rgthree-comfy)
ComfyUI-KJNodes(https://github.com/kijai/ComfyUI-KJNodes)
ComfyUI-Florence2(https://github.com/kijai/ComfyUI-Florence2)
ComfyUI-VideoHelperSuite(https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite)
WAS Node Suite(https://github.com/WASasquatch/was-node-suite-comfyui)

