ComfyUI Flux Detailer & Upscale

详情

下载文件

模型描述

这是一个我使用效果非常好的工作流,想与大家分享。我最初参考了这里出色的流程:/model/698637/comfy-ui-flux-dev-with-upscaler-2-loras-and-adetailer-super-clean,并做了一些调整。感谢这个优秀的工作流,如果你正在寻找一个完整的 txt2img 解决方案,不妨也看看那个。

这个工作流并非一个端到端的 txt2img 流程,而是一个 img2img 工作流——这是最重要的区别之一。当你已经准备好一张图像时,再使用这个工作流。

其次,虽然这里涉及提示词(以及可选的 LoRAs),但实际包含两个独立的过程。第一个是可选的人脸细节增强过程,它拥有自己独立的提示词和可选 LoRAs。第二个是上采样过程,它同样也是一个细节增强器,因为你是在上采样潜在空间,而不仅仅是像素。

将提示词和 LoRAs 分开是刻意且重要的设计(尽管两者仍基于相同的主模型)。你可能希望使用专为面部细节、珠宝、纹身(有人喜欢面部纹身吗?)等设计的 LoRA 来调整图像中的人脸,同时为上采样过程使用完全不同的提示词和 LoRA。

这是一种极其强大的方式,用于放大和增强图像的细节。

我无法强调这种技术有多么强大。如果你从未尝试过对潜在空间进行上采样,请务必试试这个工作流,它可能会让你大开眼界。

我将来会分享任何更新,但目前我已经使用这个工作流一段时间了,非常满意。我不想再添加更多节点,我希望保持它简洁,专注于细节增强与上采样。

提醒一下!

由于它不只是放大像素,因此运行时间较长。在我的 RTX 3090 Ti 上,仅对一张由 Flux 生成的 1920x1088(2MP)图像进行 2 倍上采样(未使用人脸细节增强阶段),就花费了 10 至 12 分钟,最终输出为 4K 图像,效果极佳,但耗时较长。你的需求可能不需要如此高的分辨率,但我发现,对于 Flux 模型,最好从 2MP 图像开始。它也能上采样低分辨率图像,但可处理的信息量太有限。不过,你可以尝试两次上采样。

事实上,如果内存不足,你可能需要分多个阶段运行。也就是说,如果 4 倍上采样失败,可以尝试两次 2 倍上采样。

我不能完全确定是否会内存不足,但确实可能耗时极长。我曾经误将输入图像设为已经上采样到 4K 的图片,花了超过一个小时才发现错误,但整个过程从未崩溃,我只是手动停止了生成。因此请注意,虽然结果惊人,但确实需要相当长的时间。

此模型生成的图像

未找到图像。