WAN2.2 5B Ultimate Suite - T2V, I2V & T2I2V Pro
详情
下载文件
模型描述
CivitAI 上最先进、最全面的 WAN2.2 5B 工作流。这个一体化套件巧妙地整合了文本到视频、图像到视频以及文本-图像-视频生成功能,并通过本地 LLM(Ollama)实现智能、动态的提示增强。停止使用基础提示词,利用智能运动设计生成电影级、流畅的动画。
工作流描述
通过这个精心设计、功能丰富的 ComfyUI 工作流,释放 WAN2.2 5B 模型的全部潜能。这不仅仅是一个简单流水线,而是一套专业的内容创作套件,智能连接你的创意与惊艳的 AI 生成视频。
为什么这个工作流脱颖而出:
* 🤖 AI 智能驱动: 集成的 Ollama LLM 会分析你的文本或图像,生成专为 WAN2.2 视频能力优化的丰富、动态提示词。它将静态概念转化为充满运动、光影与电影感的生动描述。
* 🎬 多模态精通: 无需更改工作流,即可无缝切换三种强大的生成模式。
* ⚙️ 优化且稳定: 以稳定性和效率为核心构建。包含自动 GPU 内存管理、帧插值和专业视频输出系统。
* 🔄 一体化流水线: 从一个简单的想法或图像,到最终流畅的视频文件,所有环节均已连接并自动化。
功能与技术细节
🧩 核心组件:
* 模型: wan2.2_ti2v_5B_fp16.safetensors
* VAE: wan2.2_vae.safetensors
* 关键 LoRA: Wan2.2_5B_FastWanFullAttn(风格 LoRA)
* 放大器: 集成用于预处理输入图像。
* 帧插值: 使用 RIFE VFI 实现丝滑的 2 倍帧生成(输出 24fps 和 48fps 视频)。
🔧 集成 AI 引擎(Ollama):
* 文本(T2V): huihui_ai/gemma3-abliterated:12b-q8_0 — 分析你的简单文本,生成包含运动、镜头调度与氛围的详细视频提示。
* 视觉(I2V): qwen2.5vl:7b-q8_0 — 分析你提供的任何图像,并根据其内容生成完美的动画提示。
* 文本到图像(Flux 组): gemma3:latest — 增强简单的文本描述,以生成高质量图像,进而可被动画化。
📊 输出:
* 分辨率: 自动适配你的输入图像尺寸或定义的隐空间大小。
* 帧数: 可配置时长(默认:121 帧)。
* 格式: MP4(H.264),带完整元数据。
* 双输出: 标准 24fps 与插值 48fps 视频自动保存。
如何使用 / 运行步骤
前提条件:
1. ComfyUI Manager: 安装缺失的自定义节点所必需。
2. Ollama: 已在系统中安装并运行。你必须拉取所需的 LLM 模型:gemma3、qwen2.5vl。
3. 所有模型/LoRA: 确保工作流中所有路径指向你实际拥有的文件。最常见的错误是缺少模型!
4. 自定义节点: 工作流会通过 ComfyUI Manager 提示你安装缺失的节点。关键节点套件包括:
* comfyui-ollama
* comfyui-videohelpersuite
* comfyui-frame-interpolation
* comfyui-easy-use
* gguf(用于 Flux 加载)
使用说明:
1. 文本到视频(T2V)
1. 找到绿色的 “在此输入简单提示” 节点。
2. 替换文本 为你的简单创意(例如:“一名骑士在雨林中拔出剑”)。
3. 确保 OllamaConnectivityV2 节点指向你的 Ollama 服务器(默认:http://192.168.0.210:11434)。
4. 排队提示。观察 Ollama 节点生成详细的电影级提示,然后用于创建视频。
2. 图像到视频(I2V)
1. 在 “加载图像” 节点中上传你的起始图像。
2. 图像将由 Qwen 视觉模型自动分析。
3. Ollama 节点将根据图像内容生成定制的运动提示。
4. 排队提示。工作流将根据 AI 生成的描述为你的图像添加动画。
3. 文本到图像再到视频(T2I2V)
1. 使用 Flux/Krea 组(位于工作流左侧)。
2. 在 PrimitiveStringMultiline 节点中输入你希望生成的图像描述(例如:“一只大猩猩在丛林中吃香蕉”)。
3. 运行提示。该组将生成高质量图像。
4. 图像生成后,你可以手动将其连接到主 I2V 流水线,或使用提供的“自动提取最后一帧”组,自动找到最新生成的图像并为其添加动画。
⏯️ 输出: 你的成品视频将保存至 ComfyUI 的 output/video/ 文件夹。工作流还会保存第一帧的预览图。
技巧与提示
* Ollama 服务器: 工作流默认配置为 IP 192.168.0.210。你必须在所有三个 OllamaConnectivityV2 节点中将其更改为 http://localhost:11434 或你的服务器 IP。
* 速度与质量: 调整 KSampler 中的 steps(默认:8)。数值越低越快,数值越高可能质量更好。
* 手动控制: 你可以完全绕过 Ollama 节点,直接将你精心编写的正向提示词插入 “CLIP 文本编码(正向提示)” 节点。
* 故障排查: 如果出现错误,请查看 ComfyUI 控制台。大多数问题源于 Ollama 服务器地址错误或缺少模型文件。
这个工作流代表了可访问 AI 视频生成的最前沿技术。它展示了如何协同利用多个 AI 系统(扩散模型 + LLM),实现远超单一模型所能达成的效果。
尽情创作吧,也请分享你惊艳的作品!

