Qwen Image Edit Comfyui Workflow
详情
下载文件
模型描述
Qwen 图像编辑 ComfyUI 工作流:基本说明
本工作流演示了如何在 ComfyUI 中使用 Qwen 模型进行图像编辑,重点通过文本提示实现风格转换与条件控制。以下是该过程的结构化概述:

1. 加载器部分
加载扩散模型:从可用选项中选择并加载 Qwen 图像编辑扩散模型。该模型负责根据提供的指令生成和编辑图像。
加载 CLIP:加载 CLIP 模型,用于图像-文本条件控制。它将你的文本提示与图像中的特定视觉特征关联起来。
加载 VAE:加载变分自编码器(VAE)模型,以将潜在图像表示解码为可视图像。
2. 条件控制部分
文本条件:使用
TextEncodeQwenImageEdit节点输入你的提示(例如:“转换为动漫风格”)。这使工作流能够根据你提供的文本描述修改图像。图像参考:加载待编辑的原始图像。可选地,可提供掩码以实现精准编辑。
3. 预处理
- 缩放到兆像素:将参考图像缩放至目标兆像素尺寸,以确保输出分辨率符合你的要求。
4. 采样器部分
潜在尺寸选择器:定义输出尺寸(分辨率)及其他采样参数,如强度和种子,这些参数影响随机性和一致性。
调度器与采样器选择:配置调度器和采样器。常见设置包括:
调度器:控制去噪步骤数和强度。
采样器:选择适合的算法(例如 Euler)进行采样过程。
5. 生成节点
随机噪声:使用与所选种子一致的随机噪声初始化过程。
CFG 引导器:根据 CLIP 条件和提示引导过程朝向目标图像。
6. 解码与输出
采样器与解码器:生成的潜在图像通过 VAE 解码,转换为最终的视觉输出。
保存/导出:保存生成的图像以供后续使用或分享。
此工作流通过基于节点的直观界面,利用基于文本提示的扩散模型,实现灵活的图像编辑。模块化结构允许在每个步骤进行自定义,适用于广泛的创意与技术应用。

