Mangled Merge XL
详情
下载文件
关于此版本
模型描述
矩阵闪电
矩阵闪电是将“扭曲合并矩阵”合并到按需发布的SDXL闪电4步模型中形成的。我建议根据您所使用的采样器采用以下设置。
euler_ancestral_cfg_pp_beta:
CFG比例:1
FreeU_V2:
b1:1
b2:1
s1:1.3
s2:1.3
heunpp2/deis:
CFG比例:2
DynamicThresholdingFull:
模仿比例:1.01
阈值百分位数:1
模仿模式:降低功率
模仿比例最小值:1
CFG模式:降低功率
CFG比例最小值:1.3
调度值:1.5
分离特征通道:禁用
缩放起点:ZERO
变异性度量:STD
插值phi:1
扰动注意力引导:
比例:0.5
FreeU_V2(heunpp2):
b1:1.25
b2:1.25
s1:0.5
s2:0.5
FreeU_V2(deis):
b1:1
b2:1
s1:1.3
s2:1.3
矩阵
扭曲合并XL矩阵是“扭曲合并家族”最新一轮合并实验的成果。这个新版本共合并了3850个LoRA,比上一版多出1050个。主要目标是将原本以2D为主的“魔法”版本转变为更偏向照片级真实感的模型。
我为此版本采用了三种不同的Dare/TIES块合并组合。
概念:
概念被合并至以下模块,强度均为1:
标签、输入模块2、7、9,中间模块0和1,输出模块2、4、9,以及最终输出。
强度为0.25的模块包括:输入模块8和10,中间模块2,输出模块1和3。
Ties设为“求和”,方法设为“余弦”。
风格:
风格被合并至以下模块,强度均为1:
标签、输入模块5、7、8、9,中间模块0,输出模块0、1、2,以及最终输出。
Ties设为“求和”,方法设为“余弦”。
文本:
我认为这方面的改进并不显著,但这是我希望测试的一个实验。
文本被合并至以下模块,强度均为1:
标签、输入模块4、5、7、8、9、10,中间模块0,输出模块0、1、2、4、5,以及最终输出。
Ties设为“求和”,方法设为“余弦”。
有趣的是,尽管进行了大量合并,模型仍能很好地保留“魔法”版本中合并进来的2D风格。每合并50个LoRA后的平滑处理每次都略有不同,但我学到了一些让这一过程更可理解的技术。
我注意到LoRA在合并过程中的强度也至关重要。当模型/CLIP强度为1时,效果非常微弱。因此,本版本我将模型强度调整为7,CLIP强度为6。CLIP合并使用Dare/TIES方法,强度为0.2,采用slerp方法;但我认为用梯度法合并CLIP效果可能更好,我将在下一版中测试。
我想这些已经涵盖了所有内容。
祝您使用愉快!
魔法:
“魔法”是两项专业化模型实验的第一部分。制作“魔法”时,我将500个基于2D风格的LoRA(总计2800个)合并进“扭曲合并XL v4.0”,使用MBW Dare/TIES方法,其中50%权重应用于输入模块8和输出模块0,100%权重应用于输出模块1。Ties设为“计数”,方法采用“梯度”。此初始版本专注于2D风格,而下一个模型将侧重于真实感。我计划之后将两者合并,形成“扭曲合并XL v5.0”。
该模型在CFG范围2-7内表现良好。追求更真实效果时,建议使用较低范围;而2D、机械或更复杂提示则适合较高范围。此外,将风格放在提示开头,通常能获得更佳输出。
祝您使用愉快!
V4:
此版本共合并了2300个LoRA,比V3多出500个。我没有像之前那样对模型进行过多平滑处理,因此模型在照片/超真实感方面略带偏向。我决定不对风格进行平滑处理,因为我非常喜欢由此产生的差异和部分输出中的细节增强。
从我的初步测试来看,该模型似乎更敏感,但也更强大和随机。除非您追求动漫风格,否则建议避免使用booru标签如“1girl”或“score_whatever”。此外,模型对提示开头的标签关注度最高,因此您可以利用它们设定风格——尽管在此模型中获得插画风格较难。但该模型在其他方面似乎更具通用性。某些主题的CFG比例已调整,我强烈建议使用AYS、FreeU和PAG等工具,以充分释放模型潜力。
祝您使用愉快!
V3:
很高兴向您介绍Mangled Merge XL系列的3.0版本。我花了一些时间研究DARE/TIES模型合并方法,天哪,效果差异惊人!本模型是Mangled Merge XL V2.0的延续,额外合并了600个LoRA,采用DARE/TIES方法,使总LoRA数量达到1800个!一旦我找到更可靠的平滑方法,我计划从头开始,用更完善(且自动化)的工作流程重新合并。
该模型在几乎所有风格上表现优异,输出质量较V2.0大幅提升。毛绒动物问题已修复,“1girl”和booru标签均可正常工作,模型对像素艺术表现也极为出色。无论您追求何种风格,建议将其置于提示开头。前三张示例图展示了其在各自提示中的效果。CFG比例建议在1.5至6.5之间。
LoRA合并主要在ComfyUI中使用54rt1n开发的ComfyUI-DareMerge节点完成。我在LoRA+基础模型上添加了attn_only归一化,并将其作为注意力梯度,结合基础模型与模型B之间的幅度遮罩,执行了Advanced/DARE合并(0%丢弃,2次迭代,开启重缩放)。然后,我向基础模型注入高斯噪声(比例:0.98,均值:0.05,标准差:0.01),并使用Block/DARE合并节点将其与第一次合并结果合并,采用相同的幅度遮罩(0.9丢弃率,关闭重缩放,1次迭代,仅作用于输入模块)。我还用基础模型的CLIP替换了V2.0中的CLIP,并在整个合并过程中保持CLIP不变,这显著提升了提示一致性。使用此方法,我在合并约180个模型后才开始出现异常。
平滑处理每合并150个LoRA后手工执行。目前我尚未找到可完全自动化的可靠方法,但希望在下一版中实现。平滑方法通常包括:取起始模型(0)、三分之一处模型(50)、三分之二处模型(100)和最终合并模型(150),分别与10%的基础模型合并以平滑,然后通过Attention/DARE节点以不同组合和权重将这四个模型合并,直到在测试中找到最佳平衡。每次合并150个LoRA后,合并顺序和权重都会变化。
测试和所有示例图像均使用了“Align Your Steps”调度器。
祝您使用愉快!
V2:
很高兴向Civitai社区推出Mangled Merge XL 2.0版本。本版本共合并了1200个精心选择的LoRA以“训练”模型,比之前的Dark版本多出380个!Mangled Merge XL 2.0还融合了Hillside、Clarity、Colorful、Realistic Stock Photo、Pixelwave、Hades中的Realism、Pilgrim 2D和Crystal Clear。
使用建议:
Mangled Merge XL在CFG范围2至7内表现良好。部分关键词在低CFG值下效果更佳,但若提示较复杂,您也可以选择5至7的CFG值以确保模型更精准遵循提示。
模型更偏向真实感,但也能生成绘画和插图,只是当前版本中实现起来稍有难度。我本想进一步平衡风格,但1200这个数字感觉很合适,因此选择发布。我并无明确倾向将模型推向某一风格,主要目标是提升提示一致性与美学表现。
Mangled Merge XL 2.0偏好全身长镜头。虽然也能生成特写人像,但若不明确指定,模型倾向于输出全身或远景。幸运的是,该模型在远距离拍摄中对眼睛和面部表现极佳。手部表现尚可但不完美,可通过内补绘制进行优化。
如果您使用高权重,请降低CFG值,否则输出可能出现“烧毁”现象。此外,“fur”和“1girl”可能导致异常输出。“fur”需低CFG,“1girl”可能产生不可靠结果,建议改用“a woman”等表述。模型对提示敏感,会忠实输出提示内容,通常不会生成未提及的内容。因此,如未指定背景,很可能输出白色或纯色背景。
免责声明:
若您希望复现我提供的示例图像,请注意我使用的是Krita的AI Diffusion插件,其中包含Civitai提示信息中无法设置的生成选项。Civitai仅允许CFG比例输入为整数,但部分模型使用6.5、5.2等非整数值,您可能需要微调CFG比例以获得精确输出。此外,Civitai未提供我所用采样器选项——Turbo/Lightning Merge - DPM++ SDE,该采样器需要8步LoRA。但我实际所有图像均使用12步生成,因为我认为效果更佳。所有图像均经过额外的细化放大处理。
我想以上已涵盖所有要点。祝您玩得愉快!
V1.1 Dark
快速更新,新增80个LoRA,增强如“明暗对照法照明”和“低调照明”等关键词,使输出图像更具戏剧性光影效果。
V1:
Mangled Merge XL是探索“通过合并LoRA训练基础模型”可能性的实验产物,同时寻找避免模型崩溃的合并方法。在合并约760个LoRA和3个训练模型(Cinevision、Juggernaut、HaveAll)后,模型仍保持稳定,可继续合并,并产生精美输出。
Mangled Merge XL在CFG值3至8之间表现最佳。目标是打造一个通用性强、融合了大量我自认为风格出色的LoRA的模型。模型中不含任何明确成人内容,仅含裸露,仅此而已。若您希望更偏向NSFW,可将其与您喜爱的NSFW模型合并。
该模型对强权重关键词或极高分辨率支持不佳,建议使用SDXL原生分辨率以获得最佳效果。
备注:所有示例图像均经过精细化放大处理。
祝您使用愉快!欢迎任何反馈!
合并流程:
整个过程并无复杂或科学的理论依据,基本是通过反复试验,寻找最佳效果,并确保模型在持续合并过程中保持稳定。我没有过度调整模块权重,但您完全可以基于以下流程进一步改进,创造出更优秀的模型!
使用Kohya_ss中的“Merge Lycoris”工具,将10个LoRA合并至SDXL 1.0基础模型。50%权重通常足够,但可自由调整。
使用Auto1111的“Merge Checkpoint”功能,将上一步生成的10个LoRA模型再次与SDXL基础模型合并,以平滑第一步中可能出现的异常。LoRA会持续保留其风格,且可使用高权重,但合并10个LoRA后模型可能产生崩溃输出。此步骤可平滑这些异常权重,避免模型崩溃。无需复杂操作,我通常使用加权总和,权重比例约为10个LoRA占65%、SDXL基础模型占35%;但测试后若模型过于极端,我会降低LoRA部分的权重。
复制平滑后的模型。保留一份,将另外10个新LoRA合并至第二份副本。
使用步骤2的说明平滑新生成的20个LoRA模型,然后将第二份平滑模型(60%)与第一份平滑模型(40%)合并,形成第一个“融合体(Amalgam)”。
复制“融合体”,再合并10个LoRA,重复步骤1-4,生成第二个“融合体”。
将第二个“融合体”(60%)与第一个“融合体”(40%)合并,形成第一个“融合合并体(Amalgamerge)”。
重复步骤1-6,生成第二个“融合合并体”。
将第二个“融合合并体”(60%)与第一个“融合合并体”(40%)合并,形成“融合合并体3”。
继续此过程,生成下一个“融合合并体”并与其合并。
以此类推……
偶尔,合并过程可能出现意外异常。若发生,我会合并一个经过精选的训练检查点,以修正某些变得过于离谱的关键词。




















