[ComfyUI Workflow] All-in-one Text-to-Image Workflow (ControlNet, IP-Adapter, ADetailer, ELLA,...)
详情
下载文件
关于此版本
模型描述
什么是这个工作流?
这是我基于自己在 SD1.5 中学习和使用过的经验构建的个人 ComfyUI 工作流,并扩展以覆盖我所有可能的使用场景。在 4GB 显存 + 16GB 内存的系统上,即使所有功能都启用,它依然可以运行并提供出色的结果(只要你愿意等待一段时间)。
这个工作流包含太多功能,最好亲自查看。以下是该工作流支持的部分功能子集:
v-预测支持 + RescaleCFG(默认关闭)
可控的 CLIP Skip
ELLA + ollama 提示词增强(SD1.5 独有功能)
可扩展的 ControlNet 组(默认关闭)
可扩展的 IP-Adapter 组(默认关闭)
动态阈值化(默认关闭)
两阶段 txt2img
Perlin 噪声潜在混合
使用 CLIPSeg + Lama 清除器移除水印
可扩展的 ADetailer 组
通知与声音提示
批量图像预览选择器
完整的 Civitai 元数据支持
提示词与 LoRA 调度
多检查点设置(仍在测试中)
通配符(及通配符文件)支持
...
尽管此工作流主要为 SD1.5 构建,但也可轻松使用 SDXL 模型或任何由 prompt-reader-node 支持的全功能检查点模型。在这种情况下,ELLA 将完全无用,因此请勿启用。
如何使用此工作流?
第 0 步:获取 ComfyUI 和 ComfyUI-Manager
第 1 步:下载工作流文件
第 2 步:将其导入 ComfyUI
第 3 步:下载所有缺失的节点
第 4 步:获取所有缺失的模型(详见下文)
第 5 步:开始愉快生成!
模型要求
基础模型
一个检查点文件(SD1.5、SDXL 等)
一个 VAE 文件(若已内嵌 VAE 则可选)
4x-AnimeSharp 超分模型(或任选其他 4x 超分模型)
2x-AniScale2 超分模型(或用于最终超分步骤的其他任意组合模型)
ControlNet
所有模型均可在 ComfyUI-Manager 的 Model Manager 中获取。如使用 PonyXL 或 IllustriousXL,请自行适配解决方案。
Depth ControlNet(使用 Depth-Anything 预处理器)
Lineart ControlNet(使用 AnyLine Lineart 预处理器)
OpenPose ControlNet(使用 DWPose 预处理器)
根据你添加的其他 ControlNet 模型而定
其他功能
IP-Adapter:需一个 IP-Adapter 模型及其关联的 CLIP-G(CLIP Vision)模型,均可在 Model Manager 中找到
ELLA:参见 https://github.com/TencentQQGYLab/ComfyUI-ELLA?tab=readme-ov-file#orange_book-models
ADetailer/FaceDetailer:大部分模型可在 Model Manager 中获取,唯一例外是 Anzhc 的人脸 YOLO 模型,可从 https://huggingface.co/Anzhc/Anzhcs_YOLOs 下载,并将文件放置于 ultralytics/segm 目录下
Ollama:参见 https://ollama.com/download 并按其说明操作。安装 Ollama 后,获取 https://ollama.com/huihui_ai/llama3.2-abliterate:3b
















