Runpod WAN 2.1 Img2Video Template - ComfyUI

详情

模型描述

🎥 WanVideo ComfyUI RunPod 设置指南

本综合指南将引导您在 RunPod 上设置和使用 WanVideo ComfyUI 环境以进行 AI 视频生成。Wan 需要大量显存才能以合理速度生成输出。48GB 显存每小时仅需 $0.44,我认为这是一笔非常划算的交易。

无需从此处下载任何内容。这是一个已包含所有模型和工作流程的 RunPod 模板。

WAN 2.1 视频 - ComfyUI 全功能 - T2.0 - 在 CUDA 2.5 上运行

https://runpod.io/console/deploy?template=6k2saccgx8&ref=0eayrc3z

## 更新
20/03/25
注意在使用社区云 GPU 时存在 Pytorch 错误。
编辑:仅限使用 Blackwell 架构的 5090 显卡。

19/03/25
修复错误:'NoneType' 对象不可调用
我在 ComfyUI 中添加了深度 0,并实现了减少容器大小的节点,但这些更改引入了多个错误。我已将其移除,现在一切应能更好地运行。

17/03/25
- 添加了环境变量以控制设置行为:
  - `SKIP_DOWNLOADS=true`:跳过模型下载
  - `SKIP_NODES=true`:跳过自定义节点验证(节点已打包进容器以加快构建)

🚀 开始使用

第一步:部署您的 Pod

  1. 注册/登录 RunPod

  2. 进入“部署” → “模板”

  3. 搜索模板“WAN 2.1 视频 - ComfyUI 全功能 - T1.0

  4. 选择硬件:

    • 推荐 GPU:RTX A40(最低 48GB 显存)

    • 存储:最低 60GB(推荐 100GB)

    • 筛选 CUDA 2.4 以上的 GPU

  5. 点击“部署”以启动您的 Pod

第二步:初始设置

部署完成后,您的 Pod 将自动:

  • 下载所有必需模型(约需 10 分钟)

  • 安装自定义节点

  • 配置环境

设置完成后,您将看到以下提示:

⭐⭐⭐⭐⭐   全部完成 - 启动 ComfyUI ⭐⭐⭐⭐⭐

第三步:访问您的环境

从您的 Pod 详情页访问:

  1. ComfyUI 界面

    • 端口 8188(创建视频的主要界面)

    • 设置完成后等待其变为绿色

  2. JupyterLab

    • 端口 8888(设置过程中即可立即使用)

    • 用于文件管理、终端访问和笔记本交互

  3. 图片浏览器

    • 端口 8181(用于管理输出文件)

    • 查看和整理生成的视频与图像

💾 模型管理

下载额外模型

此模板仅下载 Wan_Image2Video_720pAFIX.json 工作流所需的所有内容。若您想使用其他工作流,请在终端中运行 ./[download-files.sh](http://download-files.sh),它将下载 Kajai 工作流所需的所有模型。

使用灵活的模型下载系统:

  1. 编辑配置文件

    files.txt
    

  2. 按以下格式添加模型条目

    type|folder|filename|url
    

    示例:

    normal|checkpoints|realistic_model.safetensors|https://huggingface.co/org/model/resolve/main/model.safetensors
    
    gdrive|loras|animation_style.safetensors|https://drive.google.com/uc?id=your_file_id
    
  3. 运行下载脚本

    ./download-files.sh
    

WAN 2.1 模型

https://huggingface.co/Kijai/WanVideo_comfy/tree/main

https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files

预装模型

该模板已包含以下关键模型:

  • Wan 2.1 模型

    • Wan2_1-I2V-14B-720P_fp8_e4m3fn.safetensors(基础视频模型)

    • wan_2.1_vae.safetensors(VAE)

  • 文本编码器

    • umt5_xxl_fp16.safetensors(高级文本编码器)
  • CLIP 视觉模型

    • clip_vision_h.safetensors(增强型视觉模型)

🎨 使用 ComfyUI 生成视频

第一步:加载工作流

  1. 访问 ComfyUI 界面(端口 8188)

  2. 点击顶部菜单中的文件夹图标

  3. 导航至默认工作流文件夹

  4. 选择一个预配置的工作流

第二步:自定义生成

  1. 修改文本提示,描述您期望的视频内容

  2. 调整设置:

    • CFG 值:推荐 7-9 以获得高质量(数值越高,越贴近提示)

    • 步数:建议 25+ 步以提升质量(步数越多,细节越丰富)

    • 分辨率:测试时使用 512x512,最终输出可提高分辨率

    • 帧数:决定视频时长

第三步:生成并查看结果

  1. 点击“排队提示”开始生成

  2. 在 ComfyUI 界面中监控进度

  3. 完成后,在输出面板查看视频

  4. 通过图片浏览器(端口 8181)访问所有输出结果

📊 文件管理

使用 JupyterLab

  1. 访问 JupyterLab(端口 8888)

  2. 工作区文件夹包含:

    • /ComfyUI - 主程序与模型

    • 用于下载额外模型的文件

    • 图像/视频浏览笔记本

使用图片浏览器

  1. 访问浏览器界面(端口 8181)

  2. 通过以下方式浏览生成内容:

    • 创建日期

    • 文件名

    • 元数据

  3. 右键点击项目获取更多选项(下载、删除等)

🔧 高级功能

SSH 访问

启用 SSH:

  1. 在部署前于模板设置中配置您的 PUBLIC_KEY

  2. 使用 Pod 连接选项中显示的命令连接

自定义节点

该模板预装以下节点集合:

  • 工作流工具(cg-use-everywhereComfyUI-Manager

  • 界面增强(rgthree-comfywas-node-suite-comfyui

  • 视频专用节点(ComfyUI-WanVideoWrapperComfyUI-VideoHelperSuite

  • 性能优化器(ComfyUI-Impact-Pack

🛠️ 故障排除

如遇问题:

  1. ComfyUI 无法启动

    • 在 JupyterLab 终端中查看日志

    • 确保模型已正确下载

  2. 模型无法加载

    • 检查 /ComfyUI/models/ 目录下文件是否存在

    • 核对文件大小以确认下载完整

  3. 自定义节点异常

    • 尝试通过 ComfyUI Manager 重新安装

    • 必要时重启您的 Pod

🎯 获得最佳效果的建议

  • 使用包含详细描述的提示词

  • 提高 CFG 和步数以获得更高质量视频

  • 保存成功的 workflows 供未来重复使用

  • 监控显存使用情况,并相应调整分辨率

  • 使用图片浏览器整理和审查输出结果

需要更多帮助?请查看 JupyterLab 中的 readme.md 文件,或联系 RunPod 社区!

此模型生成的图像

未找到图像。