WAN2.2 5B Ultimate Suite - T2V, I2V & T2I2V Pro

详情

模型描述

CivitAI 上最先进、最全面的 WAN2.2 5B 工作流。这个一体化套件巧妙地整合了文本到视频、图像到视频以及文本-图像-视频生成功能,并通过本地 LLM(Ollama)实现智能、动态的提示增强。停止使用基础提示词,利用智能运动设计生成电影级、流畅的动画。

工作流描述

通过这个精心设计、功能丰富的 ComfyUI 工作流,释放 WAN2.2 5B 模型的全部潜能。这不仅仅是一个简单流水线,而是一套专业的内容创作套件,智能连接你的创意与惊艳的 AI 生成视频。

为什么这个工作流脱颖而出:

* 🤖 AI 智能驱动: 集成的 Ollama LLM 会分析你的文本或图像,生成专为 WAN2.2 视频能力优化的丰富、动态提示词。它将静态概念转化为充满运动、光影与电影感的生动描述。

* 🎬 多模态精通: 无需更改工作流,即可无缝切换三种强大的生成模式。

* ⚙️ 优化且稳定: 以稳定性和效率为核心构建。包含自动 GPU 内存管理、帧插值和专业视频输出系统。

* 🔄 一体化流水线: 从一个简单的想法或图像,到最终流畅的视频文件,所有环节均已连接并自动化。

功能与技术细节

🧩 核心组件:

* 模型: wan2.2_ti2v_5B_fp16.safetensors

* VAE: wan2.2_vae.safetensors

* 关键 LoRA: Wan2.2_5B_FastWanFullAttn(风格 LoRA)

* 放大器: 集成用于预处理输入图像。

* 帧插值: 使用 RIFE VFI 实现丝滑的 2 倍帧生成(输出 24fps 和 48fps 视频)。

🔧 集成 AI 引擎(Ollama):

* 文本(T2V): huihui_ai/gemma3-abliterated:12b-q8_0 — 分析你的简单文本,生成包含运动、镜头调度与氛围的详细视频提示。

* 视觉(I2V): qwen2.5vl:7b-q8_0 — 分析你提供的任何图像,并根据其内容生成完美的动画提示。

* 文本到图像(Flux 组): gemma3:latest — 增强简单的文本描述,以生成高质量图像,进而可被动画化。

📊 输出:

* 分辨率: 自动适配你的输入图像尺寸或定义的隐空间大小。

* 帧数: 可配置时长(默认:121 帧)。

* 格式: MP4(H.264),带完整元数据。

* 双输出: 标准 24fps 与插值 48fps 视频自动保存。

如何使用 / 运行步骤

前提条件:

1. ComfyUI Manager: 安装缺失的自定义节点所必需。

2. Ollama: 已在系统中安装并运行。你必须拉取所需的 LLM 模型:gemma3qwen2.5vl

3. 所有模型/LoRA: 确保工作流中所有路径指向你实际拥有的文件。最常见的错误是缺少模型!

4. 自定义节点: 工作流会通过 ComfyUI Manager 提示你安装缺失的节点。关键节点套件包括:

* comfyui-ollama

* comfyui-videohelpersuite

* comfyui-frame-interpolation

* comfyui-easy-use

* gguf(用于 Flux 加载)

使用说明:

1. 文本到视频(T2V)

1. 找到绿色的 “在此输入简单提示” 节点。

2. 替换文本 为你的简单创意(例如:“一名骑士在雨林中拔出剑”)。

3. 确保 OllamaConnectivityV2 节点指向你的 Ollama 服务器(默认:http://192.168.0.210:11434)。

4. 排队提示。观察 Ollama 节点生成详细的电影级提示,然后用于创建视频。

2. 图像到视频(I2V)

1. 在 “加载图像” 节点中上传你的起始图像。

2. 图像将由 Qwen 视觉模型自动分析。

3. Ollama 节点将根据图像内容生成定制的运动提示。

4. 排队提示。工作流将根据 AI 生成的描述为你的图像添加动画。

3. 文本到图像再到视频(T2I2V)

1. 使用 Flux/Krea 组(位于工作流左侧)。

2. 在 PrimitiveStringMultiline 节点中输入你希望生成的图像描述(例如:“一只大猩猩在丛林中吃香蕉”)。

3. 运行提示。该组将生成高质量图像。

4. 图像生成后,你可以手动将其连接到主 I2V 流水线,或使用提供的“自动提取最后一帧”组,自动找到最新生成的图像并为其添加动画。

⏯️ 输出: 你的成品视频将保存至 ComfyUI 的 output/video/ 文件夹。工作流还会保存第一帧的预览图。

技巧与提示

* Ollama 服务器: 工作流默认配置为 IP 192.168.0.210。你必须在所有三个 OllamaConnectivityV2 节点中将其更改为 http://localhost:11434 或你的服务器 IP。

* 速度与质量: 调整 KSampler 中的 steps(默认:8)。数值越低越快,数值越高可能质量更好。

* 手动控制: 你可以完全绕过 Ollama 节点,直接将你精心编写的正向提示词插入 “CLIP 文本编码(正向提示)” 节点。

* 故障排查: 如果出现错误,请查看 ComfyUI 控制台。大多数问题源于 Ollama 服务器地址错误或缺少模型文件。

这个工作流代表了可访问 AI 视频生成的最前沿技术。它展示了如何协同利用多个 AI 系统(扩散模型 + LLM),实现远超单一模型所能达成的效果。

尽情创作吧,也请分享你惊艳的作品!

此模型生成的图像

未找到图像。