Wan2.1(GGUF) only 4GB-VRAM ComfyUI Workflow

详情

模型描述

在笔记本电脑上生成视频

你好!
此工作流使用了来自 Kijai 及其他来源的若干自定义节点,以确保在 仅配备 4GB 显存的 RTX 3050 笔记本电脑版本 上流畅运行。该工作流经过优化,以提升生成时长、视觉质量与整体功能性。

🧠 工作流信息

此为多个可运行的 ComfyUI 工作流

2.0-ALL — 包含所有工作流:

  • Wan2.1 T2V

  • Wan2.1 I2V

  • Wan2.1 Vace

  • Wan2.1 First Frame Last Frame

  • Funcontrol(实验性)

  • Funcameraimage(实验性)

即将更新:内补(inpainting)实验功能

🚀 结果(性能)

*待更新

🎥 视频说明(Vace 版):

🎥 安装指南(V1.8):

📦 下载部分


⚙️ 使用的节点(通过 ComfyUI Manager 或下方链接安装)

注意:仅在使用 Stack Lora Loader 时需要 rgthree


📦 模型下载

*这些是原始模型的转换版本,专为在更低显存下运行而优化。

所有这些 GGUF 转换均由以下人员完成:

https://huggingface.co/city96

https://huggingface.co/calcuis

https://huggingface.co/QuantStack

*如找不到所需模型,请查看他们的个人主页!


🧩 额外必需文件(请勿从“模型下载”部分获取)


📥 下载内容及使用方法

✅ 量化建议:

  • Q_5 – 🔥 速度与质量的最佳平衡

  • Q_3_K_M – 快速且准确性尚可

  • Q_2_K – 可用,但有一定质量损失

  • 1.3B 模型 – ⚡ 极快,细节较低(适合测试)

  • 14B 模型 – 🎯 高质量,较慢且显存占用高

  • 提醒:较低的 "Q" = 更快更少 VRAM,但质量较低
    较高的 "Q" = 更好质量,但需要 更多 VRAM速度更慢


🧩 模型类型及功能说明

  • Wan Video – 根据文本提示生成视频(文生视频)

  • Wan VACE – 根据单张图像生成视频(图生视频)

  • Wan2.1 Fun Control – 添加深度、姿态或边缘等控制输入,用于引导视频生成

  • Wan2.1 Fun Camera – 模拟摄像机运动(缩放、平移等),从静态输入生成动态视频

  • Wan2.1 Fun InP – 支持视频内补(修复或编辑视频帧中的特定区域)

  • First–Last Frame – 通过在起始与结束图像之间插值生成视频


📂 文件放置指南

  • 所有 WAN 模型的 .gguf 文件
    放入你的 ComfyUI/models/diffusion_models/ 文件夹中

  • ⚠️ 务必查看模型下载页面的说明
    转换后的模型通常会列出确切的文件夹结构或依赖项

🔗 有用资源链接:

安装 Triton: https://www.patreon.com/posts/easy-guide-sage-124253103

常见错误: https://civitai.com/articles/17240

Reddit 讨论串:

https://www.reddit.com/r/StableDiffusion/comments/1j1r791/wan_21_comfyui_prompting_tips https://civitai.com/articles/17240

https://www.reddit.com/r/StableDiffusion/comments/1j2q0xw/dont_overlook_the_values_of_shift_and_cfg_on_wan

https://www.reddit.com/r/comfyui/comments/1j1ieqd/going_to_do_a_detailed_wan_guide_post_including

🚀 性能优化建议

为进一步提升速度,请使用:

  • Xformer

  • Sage Attention

  • Triton

  • ✅ 调整内部设置进行优化


如有任何疑问或需要帮助,欢迎随时联系!
希望这份指南能帮助你仅用笔记本电脑生成逼真的 AI 视频 🙌

此模型生成的图像

未找到图像。