ComfyUI Workflows
详情
下载文件
模型描述
BGMasking V1:
安装:
安装 https://github.com/Fannovel16/comfy_controlnet_preprocessors
感谢 Fannovel16
下载:
/model/9251/controlnet-pre-trained-models
至少需要 Canny 模型,Depth 可选
或使用差分模型(以你的模型作为输入,可能更准确)
/model/9868/controlnet-pre-trained-difference-models
将这些 ControlNet 模型放入 ComfyUI/models/controlnet 目录中
感谢 Ally
下载附带文件,并将节点放入 ComfyUI/custom_nodes
其中包含部分(但非全部)来自以下节点:
/model/20793/was-node-suites-comfyui
重启 ComfyUI
使用方法:
首先断开输出采样器上的潜在输入。
生成你期望的提示词。添加 "open sky background" 有助于避免场景中出现其他物体。
调整图像过滤器的亮度。在我的测试中,-0.200 或更低的值效果良好。飘动的头发通常是问题最大的部分,以及人物倚靠墙壁等物体的姿态。
独立站立姿势与短而直的头发效果极佳。
调整亮度的目的在于一定程度上限制深度图,以生成更贴合主体的蒙版。
选择你的背景图片。可以是相同的潜在图像,或是由节点生成的空白图像,甚至是可以加载的图片。
或者你希望在黄色节点之间添加另一个图像过滤器:
Monochromatic Clip 和 ImageToMask 节点,并添加一些模糊以实现主体与新背景之间的自然融合。
当你对蒙版效果满意后,再次将 VAEEncodeForInpaint Latent 输出连接回 Ksampler (WAS) 输出,并点击队列提示。
此方法需要 Canny ControlNet。我尝试过 HED 和 NormalMap,但 Canny 效果最佳。
根据你的主体,可能需要其他类型的 ControlNet。
你需要将预处理器从 Canny 切换为其他类型,并为你的应用场景安装相应的 ControlNet。
使用 Depth ControlNet 为可选操作。其强度会根据设置为输出添加轻微的三维效果。
如果你严格处理 2D 内容,如动画或绘画,可以跳过 Depth ControlNet。
只需移除 Depth ControlNet 的条件,并将其输入连接到 Canny ControlNet。但如果没有 Canny ControlNet,你的输出生成效果会与种子预览有显著差异。
我添加了许多重新路由节点,使数据流程更加清晰明确。
在 automatic1111 中复现此工作流需要大量手动操作,即使借助第三方程序生成蒙版,也较为繁琐。因此,使用 Comfy 的这种方法非常方便。
免责声明:部分添加背景的颜色仍可能渗入最终图像中。
BGRemoval V1:
要求:
https://github.com/Fannovel16/comfy_controlnet_preprocessors
/model/9251/controlnet-pre-trained-models
(OpenPose 和 Depth 模型)
可选但强烈建议:
https://civitai.com/api/download/models/25829
也测试过其他模型,例如 F222 和 Protogen。
以下说明和操作指南也可在工作流内的文本节点中找到:
我在加载附加节点中使用了不同的“蒙版”,结果差异显著,但均返回了背景。同一蒙版使用不同颜色也表现出差异。
此方法严格使用在完全黑色背景上生成的白色渐变。
我推测 AI 利用它作为某种噪声分布的引导。
绿色条件合并节点输入顺序实际是重要的。“Depth Strength”输出必须连接到下方输入。
该节点的上方输入来自带有姿态的 CLIP 正向提示。
蓝色采样器部分仅用于生成深度图,然后将其编码为潜在表示,并用作青色输出采样器的潜在输入。
对于绿色图像缩放,建议始终与原图像尺寸匹配,并禁用裁剪。
DEPTH STRENGHT 设置可能显著影响最终图像,若设置过高,会削弱原始正向提示的权重。
在某些情况下可从 0 开始,但若背景出现,则需提高该值,甚至可达 1.0 的强度(越低越好)。
如果你尚未完成,建议下载并安装以下内容:
Fannovels 的预处理器,见此处
https://github.com/Fannovel16/comfy_controlnet_preprocessors
带有种子输入的种子节点和采样器,可从以下地址下载
https://civitai.com/api/download/models/25829
OpenPose 和 Depth 模型可在此处找到
/model/9251/controlnet-pre-trained-models
你也可以尝试使用 WAS 的 Depth 预处理器,但我发现它生成的深度图过于复杂,或缺乏对此任务有用的阈值。
我所使用的模型可在此处找到





