Flux.1 dev Inpaint Enhanced Workflow
详情
下载文件
模型描述
这是一个无缝且精准的增强修复工作流——Flux.1 dev 增强修复工作流。

与阿里妈妈工作室的默认工作流相比,本工作流主要有三项改进:
1. 文本编码器更换:
我将clip-L文本编码器替换为ViT-L-14-TEXT-detail-improved-hiT-GmP-HF文本编码器。

ViT-L-14-TEXT-detail-improved-hiT-GmP-HF 是 CLIP 模型的改进版本,具有以下特性:
• 高准确率:该模型在 ImageNet/ObjectNet 上的准确率约为 0.90,显著优于原始 OpenAI CLIP 模型(约 0.85)。
• 几何参数化(GmP):通过该技术,模型在处理图像和文本细节方面表现更优。
• 增强的文本细节处理能力:该模型经过专门优化,可更有效地处理文本细节,从而在文本-图像匹配任务中表现更出色。
这些改进使 ViT-L-14-TEXT-detail-improved-hiT-GmP-HF 模型在图像分类和文本匹配等任务中更加准确高效。
请下载 ViT-L-14-TEXT-detail-improved-hiT-GmP-HF.safetensors 并将其放入 models/clip 文件夹中。
2. 涂鸦参考区域与 optional_context 掩码:
添加涂鸦参考区域并集成 optional_context 掩码 可显著提升图像融合效果。
optional_context 掩码 是 ViT-L-14-TEXT-detail-improved-hiT-GmP-HF 模型内置的一项功能,可实现对文本与图像数据更灵活、更精细的处理。通过使用该掩码,模型能够有选择性地聚焦于输入数据的特定部分,从而提升其对细节描述的理解与生成能力。
• 左侧涂鸦 表示需要修改的区域。
• 右侧涂鸦 作为重绘的参考区域。
3. Hyper Flux.1 dev 8步 LoRA 模型:
您可选择使用 Hyper Flux.1 dev 8steps LoRA 模型,并将迭代步数设为 8。默认情况下,该功能关闭,使用 28 步。

下载 Hyper-FLUX.1-dev-8steps-lora.safetensors 并将其放入 models/loras 文件夹中。
