ComfyUI Workflows

详情

模型描述

BGMasking V1:

安装:

安装 https://github.com/Fannovel16/comfy_controlnet_preprocessors

感谢 Fannovel16

下载:

/model/9251/controlnet-pre-trained-models

至少需要 Canny 模型,Depth 可选

或使用差分模型(以你的模型作为输入,可能更准确)

/model/9868/controlnet-pre-trained-difference-models

将这些 ControlNet 模型放入 ComfyUI/models/controlnet 目录中

感谢 Ally

下载附带文件,并将节点放入 ComfyUI/custom_nodes

其中包含部分(但非全部)来自以下节点:

/model/20793/was-node-suites-comfyui

感谢 WASabbail

重启 ComfyUI

使用方法:

首先断开输出采样器上的潜在输入。

生成你期望的提示词。添加 "open sky background" 有助于避免场景中出现其他物体。

调整图像过滤器的亮度。在我的测试中,-0.200 或更低的值效果良好。飘动的头发通常是问题最大的部分,以及人物倚靠墙壁等物体的姿态。

独立站立姿势与短而直的头发效果极佳。

调整亮度的目的在于一定程度上限制深度图,以生成更贴合主体的蒙版。

选择你的背景图片。可以是相同的潜在图像,或是由节点生成的空白图像,甚至是可以加载的图片。

或者你希望在黄色节点之间添加另一个图像过滤器:

Monochromatic Clip 和 ImageToMask 节点,并添加一些模糊以实现主体与新背景之间的自然融合。

当你对蒙版效果满意后,再次将 VAEEncodeForInpaint Latent 输出连接回 Ksampler (WAS) 输出,并点击队列提示。

此方法需要 Canny ControlNet。我尝试过 HED 和 NormalMap,但 Canny 效果最佳。

根据你的主体,可能需要其他类型的 ControlNet。

你需要将预处理器从 Canny 切换为其他类型,并为你的应用场景安装相应的 ControlNet。

使用 Depth ControlNet 为可选操作。其强度会根据设置为输出添加轻微的三维效果。

如果你严格处理 2D 内容,如动画或绘画,可以跳过 Depth ControlNet。

只需移除 Depth ControlNet 的条件,并将其输入连接到 Canny ControlNet。但如果没有 Canny ControlNet,你的输出生成效果会与种子预览有显著差异。

我添加了许多重新路由节点,使数据流程更加清晰明确。

在 automatic1111 中复现此工作流需要大量手动操作,即使借助第三方程序生成蒙版,也较为繁琐。因此,使用 Comfy 的这种方法非常方便。

免责声明:部分添加背景的颜色仍可能渗入最终图像中。

BGRemoval V1:

要求:

https://github.com/Fannovel16/comfy_controlnet_preprocessors

/model/9251/controlnet-pre-trained-models

(OpenPose 和 Depth 模型)

可选但强烈建议:

https://civitai.com/api/download/models/25829

也测试过其他模型,例如 F222 和 Protogen。

以下说明和操作指南也可在工作流内的文本节点中找到:

我在加载附加节点中使用了不同的“蒙版”,结果差异显著,但均返回了背景。同一蒙版使用不同颜色也表现出差异。

此方法严格使用在完全黑色背景上生成的白色渐变。

我推测 AI 利用它作为某种噪声分布的引导。

绿色条件合并节点输入顺序实际是重要的。“Depth Strength”输出必须连接到下方输入。

该节点的上方输入来自带有姿态的 CLIP 正向提示。

蓝色采样器部分仅用于生成深度图,然后将其编码为潜在表示,并用作青色输出采样器的潜在输入。

对于绿色图像缩放,建议始终与原图像尺寸匹配,并禁用裁剪。

DEPTH STRENGHT 设置可能显著影响最终图像,若设置过高,会削弱原始正向提示的权重。

在某些情况下可从 0 开始,但若背景出现,则需提高该值,甚至可达 1.0 的强度(越低越好)。

如果你尚未完成,建议下载并安装以下内容:

Fannovels 的预处理器,见此处

https://github.com/Fannovel16/comfy_controlnet_preprocessors

带有种子输入的种子节点和采样器,可从以下地址下载

https://civitai.com/api/download/models/25829

OpenPose 和 Depth 模型可在此处找到

/model/9251/controlnet-pre-trained-models

你也可以尝试使用 WAS 的 Depth 预处理器,但我发现它生成的深度图过于复杂,或缺乏对此任务有用的阈值。

我所使用的模型可在此处找到

/model/21343/rpgmix

此模型生成的图像

未找到图像。