BMegaMiXL

详情

下载文件

模型描述

注意:这个修复生成模型是在搜索“如何制作自己的修复生成模型”后,参考了一些Reddit教程,并调整了ComfyUI工作流以适应我的需求而拼凑出来的。

我试图在保持模型其他部分不变的情况下延续修复生成的特性。(m:1,模型A:修复生成,模型B:v2,模型C:v2)——我尚未充分测试,无法确定它究竟效果如何,但……

它没有报任何错误代码,还做出了一些很酷的东西,我觉得还是上传出来吧。


V2备注:

我对SD3的发布感到愤怒,于是决定重新专注SDXL。我非常喜欢这个融合版本,因此也把它分享给大家使用。

我注意到近年来出现了大量为SDXL开发的NSFW模型,于是渐渐开始想:“为什么不试试呢?”于是我把它们都加了进去。令我惊讶的是,即使对于SFW输出,其中几个模型也显著改变了风格——前提是这些NSFW模型没有因为某些隐蔽的结构不兼容,或其训练数据和关键词的极端差异而先破坏了SFW模型。这个模型完全具备NSFW能力,但我的重点仍然是科幻题材以及我称之为“整体连贯性”的东西。(例如,结果并非刻意挑选。)这个模型的“惊艳”之处在于风格多样性,比我的以往融合版本或SDXL体验都更丰富。相比v1等版本,它弥补了“我原本期待SD3能呈现的效果”的空白。

我必须承认,我很少单独测试我用于融合的模型,所以我也不能确定“究竟是哪个模型让结果变得如此出色”。我只是没时间:我做融合是为了满足自己的需求,因此“我做过的最好的模型”永远是我最先用的那一个。当我下载新模型准备融合时,我会先看预览图,再看模型页面上其他人上传的生成结果,然后仅凭这些来判断——在许多情况下都是如此。我过去曾试图做一个“涡轮加速”模型,但后来放弃了。连贯性才是关键!风格多样性是次要的。我只想要一个能做出酷炫东西的模型,伙计。

因此,我会反复测试自己的融合结果:如果效果差或更差,我就扔掉;如果效果很酷,我就保留;如果效果在某些方面更酷但缺乏连贯性,我可能会尝试将其与之前的一个版本再次融合——“像揉面团一样揉捏模型”(并举行一点小仪式,召唤混沌之神指引我以清醒的头脑穿越这场混沌扭曲),直到得到满意的结果。

这次的模型就是这样做的。我最近把Pony DPO和SnowPony合并,再与Yamer-NihilMania合并,接着再与我自己那个克苏鲁怪物般的融合版本合并……但这只是本周的版本。在此之前,还有一大堆其他版本。结果是“很酷,但缺乏连贯性”,于是我把它和我一个月前制作的一个连贯版本再次融合……而我非常喜欢最终的效果。


以下是我对v1的原话,已根据v2做出修改。我想不出还有别的方法能改进我的这通牢骚了。


(已与若干NSFW模型融合,[但如今它们已被极度稀释。本模型主要为SFW,我的目标与首要标准是科幻题材与高质量。] 编辑:我毫不讽刺地发现,适度融合NSFW模型似乎能提升合并模型的整体创意性与图像多样性/构图能力,但过度融合也可能破坏模型。)

自SD1.5发布以来,我就一直在没完没了地融合模型。经过这么长时间在CivitAI上潜伏,我总觉得该回馈点什么——因此,请将此视为我的(或许是唯一?我不知道)贡献。

今晚我测试了这个模型,它……感觉……值得一用

这是我在长期尝试融合自己的“全能型模型”过程中的最新成果。(在我本地硬盘中,这个“v1”最初被保存为“v8.9.20r”[而“v2”曾短暂命名为“1.8.3rrrrr(x)Plus1.7.4.0-vaeBaked”]。)主要目标是科幻题材,但它在所有我测试的场景中都表现良好。

长提示词、短提示词——都试试看。它还没有达到我期望的写实程度(更偏向动漫/艺术风格),但嘿,有时为了整体质量与多样性,你必须做出一些妥协;如果它无法做到完美写实,那艺术风格我也能接受。(它的一个前身版本曾明确以50/50为目标,能同样出色地处理艺术与写实,确实可行!但难以持续。)

我有个挥之不去的迷信观念:融合有两个关键技巧:一是加入大量概念,二是稳定它们(融合、检查结果以避免过度扭曲、与更稳定的上一版本再次融合,重复此过程)。我几乎把它当成培育植物以获得某种理想特性一样看待。

简而言之,我会像揉面团一样把这些模型揉合在一起,直到结果让我满意。这不科学,但有效。

这个模型已发展成了一个极其复杂的“混沌融合体”,我几乎已经记不清它包含了什么,因此我认为可以说,这个模型“至少包含了一点点所有东西”,尤其是考虑到其他人融合的模型也被我混了进来。但可以肯定的是(对v1而言),“SDXL Unstable Diffusers ☛ YamerMIX”和“NewRealityXL” 是最近加入的两个模型,它们确实带来了显著变化。

编辑:对于v2,我最近加入了Pony v6 DPO、SnowPony、Yamer的NihilMania……但这只是本周的融合版本。

本模型中没有融合任何LoRA(或者至少,我没加进去),因为我还没搞懂这部分流程。求帮忙。


我并没有特别推荐的设置,因为除了可能的Heun采样器外,我没发现它在任何方面表现特别差。但我的常规设置是:

  • “高级”标签页,将“从高度/宽度重设种子”调至最大

  • 使用某个基础分辨率,总和为1024x1024(如896x1152等)

  • 采样器:我今天刚发现“DPM++ 3M SDE Karras”(区别于“2M”),结果非常棒。我不太常换采样器。

  • 高分辨率修复:放大1.4到2.0倍

    • 在设置中启用“在高分辨率修复前保存图像”,因为有时小图反而更好,或适合作为img2img输入(适用于所有模型)(我现在基本不这么做)
  • aDetailer(auto1111 WebUI扩展)非常有用(尤其对人脸),但通常非必需

  • 我一般不使用LoRA。

    • 不过,SDXL_Black_Sa_May(及其对应的白色版本)在调整整体色调偏暗或偏亮时很有用

      • v2已内置Pony的VAE,对比度表现已非常出色

      • 现在我必要时改用‘lastpiece’或‘flatpiece’ VAE来提亮或压暗图像。Pony的VAE似乎是这两者之间的平衡点,本身已近乎理想

  • CFG = 1.5 - 6,最佳值为2

  • 放大器:4x-UltraSharp

  • 30步 + 30步高分辨率步数

    • (低至15步效果也很好。我曾用“dpm++ 2m sde Turbo”调度器,仅用8步(高分辨率总共16步),但我仍通常使用“3m sde karras”)
  • 高分辨率去噪强度:0.5

  • 我从不使用“score_8 score_9”之类的标签,但本融合版本中确实包含Booru触发词。我尚未充分测试其动漫风格表现

此模型生成的图像

未找到图像。