DarkClip 2.5d
详情
下载文件
模型描述
CLIP(ViT-L/14)是所有这些稳定扩散模型训练所使用的文本编码器。从 SD 1.0 到 1.5 都基于一个固定的 CLIP 进行训练。而 LoRAs、微调模型和合并模型则会修改 CLIP 以引入新概念。结果如何?在我们的模型宇宙中,我们的 CLIP 已经被过度使用,常常偏离了原始版本。我最初合并了许多我认为在某些方面表现良好的 CLIP,但现在我意识到,我们必须重新引入 v1.5 的 CLIP 才能继续前进。
v1.7 部分合并了我三个实验模型的片段:
heater,一个从 47 个动漫模型中采样得到的自定义模型;dare-ties 为 8%。
fullpoint,一个从我拥有 fp32 数据的 37 个其他通用模型中采样得到的自定义模型;dare-ties 为 8%。
darkness,一个从 57 个艺术模型中采样得到的自定义模型;块合并比例为 [30%, .20%, 10%]。
这只是每个模型的一点点采样。由于这些模型都高度聚合,将它们混合加入后显著增强了核心结构。如果你查看图像中的工作流,你会发现 CFG 值较高,步数也较多(768x1152 分辨率下 50 步效果不错),使用了 dpmpp 2/3m sde 采样器,并在部分设置中使用了 10+ 的 CFG。在某些情况下,我甚至用指数采样获得了不错的结果。面部伪影极少,手部表现通常也相当良好。
我还对我的“赛博梦境”CLIP 进行了 50/50 合并,修复了许多奇怪的问题。
我加入的这种结构应能显著提升本版本在同时使用 LoRAs 和 LCM 时的稳定性。
v1.6 试图改进手部及其他细节。它使用新的 DARE-TIES 合并方法,精挑细选这些改进点,同时保留部分风格特质;并结合了创意使用 skin-hands LoRA(https://huggingface.co/imagepipeline/Skin-and-Hands),效果极佳。我一直使用 /model/116230?modelVersionId=125849 的“bad hands 5”来清除大部分残留瑕疵。
v1.5 应用了 https://huggingface.co/bdsqlsz/dpo-sd-text2image-v1-fp16 DPO 模型,以提供更强的结构引导。
本模型的原始来源是 DarkSun,因为我喜欢它的风格,但经过大量我关于扩散模型工作原理的理论与合并操作后,它可能已展现出截然不同的能力……v1.4 曾尝试将 FreeU 作为模型预处理器,但进一步测试后发现它对最终结果几乎没有影响。为什么?因为 FreeU 是一个输出块预处理器。
对于所有用户,请分享你们的最佳图像(附上提示词),我将在未来用于 DPO 训练。
如果希望我继续改进此模型,请点赞/五星评价。
请尝试不同的 clip skip 设置,该模型能很好地处理高 CFG(9+)和激进的采样参数。
免责声明:
本模型不用于生成儿童性虐待材料(CSAM),请勿用于此目的。


