ComfyUI Flux Detailer & Upscale
详情
下载文件
模型描述
这是一个我使用效果非常好的工作流,想与大家分享。我最初参考了这里出色的流程:/model/698637/comfy-ui-flux-dev-with-upscaler-2-loras-and-adetailer-super-clean,并做了一些调整。感谢这个优秀的工作流,如果你正在寻找一个完整的 txt2img 解决方案,不妨也看看那个。
这个工作流并非一个端到端的 txt2img 流程,而是一个 img2img 工作流——这是最重要的区别之一。当你已经准备好一张图像时,再使用这个工作流。
其次,虽然这里涉及提示词(以及可选的 LoRAs),但实际包含两个独立的过程。第一个是可选的人脸细节增强过程,它拥有自己独立的提示词和可选 LoRAs。第二个是上采样过程,它同样也是一个细节增强器,因为你是在上采样潜在空间,而不仅仅是像素。
将提示词和 LoRAs 分开是刻意且重要的设计(尽管两者仍基于相同的主模型)。你可能希望使用专为面部细节、珠宝、纹身(有人喜欢面部纹身吗?)等设计的 LoRA 来调整图像中的人脸,同时为上采样过程使用完全不同的提示词和 LoRA。
这是一种极其强大的方式,用于放大和增强图像的细节。
我无法强调这种技术有多么强大。如果你从未尝试过对潜在空间进行上采样,请务必试试这个工作流,它可能会让你大开眼界。
我将来会分享任何更新,但目前我已经使用这个工作流一段时间了,非常满意。我不想再添加更多节点,我希望保持它简洁,专注于细节增强与上采样。
提醒一下!
由于它不只是放大像素,因此运行时间较长。在我的 RTX 3090 Ti 上,仅对一张由 Flux 生成的 1920x1088(2MP)图像进行 2 倍上采样(未使用人脸细节增强阶段),就花费了 10 至 12 分钟,最终输出为 4K 图像,效果极佳,但耗时较长。你的需求可能不需要如此高的分辨率,但我发现,对于 Flux 模型,最好从 2MP 图像开始。它也能上采样低分辨率图像,但可处理的信息量太有限。不过,你可以尝试两次上采样。
事实上,如果内存不足,你可能需要分多个阶段运行。也就是说,如果 4 倍上采样失败,可以尝试两次 2 倍上采样。
我不能完全确定是否会内存不足,但确实可能耗时极长。我曾经误将输入图像设为已经上采样到 4K 的图片,花了超过一个小时才发现错误,但整个过程从未崩溃,我只是手动停止了生成。因此请注意,虽然结果惊人,但确实需要相当长的时间。







