BigAsp2-X-Sim Omega vpred

详情

模型描述

更新1 缺乏真实数据;

正向提示词;

masterpiece, most aesthetic, very aesthetic, 
real, realistic, real person, 
score_9, score_8, score_7,
source_real, 

<bigasp captions go here>

real, realistic, realistic background, real,

<bigasp extra caption stuff for solidifiers>

<grid, depiction, offset tags go here>
<omega character captions go here>

<background and setting tags here, year tags, objects, and everything else>

负向提示词;

ai generated, lowres,
disgusting, very displeasing, normal aesthetic, 
(anime, anime style, source_anime, 2d, 2d \(artwork\):1.1), 
film grain, low quality, 1990s, vhs filter, 

bad edit, bad anatomy, 
jpeg artifacts, 
monochrome, greyscale,
3d, 3d \(artwork\),

TXT2IMG;

  • RES_2S -> BETA 效果不错。

  • DPMPP_2S A -> BETA 效果不错。

  • Euler A -> BETA 效果较差。

  • Euler -> BETA 效果尚可,出乎意料。

  • RES_2M 无法使用。

IMG2IMG;

  • 去噪值设为 0.7 或更低,因为目前拟合尚不完整。

  • RES_2S -> BETA

  • EULER_A -> BETA

随着这些调整,成长的阵痛逐渐减轻,高质量的 absurdres 图像开始显现;而在这种情况下,主要是 3D 和动漫风格干扰较多。

我认为自己目前没有足够的真实数据来充分重新训练这个模型。我需要获取更多真实数据,或增强 Omega Clip 的强度。

对动漫使用强负向提示有助于真实感的凸显,但还不够。

如果我能获取到原始的 BigAsp 图像,我可以直接重新标注它们,并用较少比例的图像进行重新训练。

10 万张真实图像远远不够,我可能至少需要一百万张——但标注一百万张真实图像将耗费大量时间,因此请暂时耐心等待,待 Omega 一百万图像数据集完成第一轮训练。

即使使用 BigAsp 的 CLIPS,动漫图像数量仍足以造成显著偏移。我们今晚将看到训练轮次完成后的结果。


将有一个最终版本,即第三阶段(Stage 3);目前正使用标准的一百万图像包进行训练,该数据包在模型拟合方面表现极佳。

这将是 BigAsp VPRED 固化版,但目前仍在训练中。

https://huggingface.co/AbstractPhil/OMEGA-BIGASP/tree/main

如果你拥有 BigAsp2 并厌倦了不断下载检查点,同时懂得如何进行合并,请参考此处:/model/1421066

Stage 1 和 Stage 2 的 LoRAs 可在此获取;如果你愿意,可获取最新版本自行制作 CLIP 合并,或自己合并 BigAsp CLIPS,尝试找到比我的更好的组合。

我并未训练这些 CLIPS,因为我的 CLIPS 与 BigAsp CLIPS 差异极大;因此我选择用一半自己的 CLIPS 和另一半 BigAsp CLIPS 训练 UNET。本质上,这是在大量使用 BigAsp 的基础上进行的深度微调,并以 Omega Clip_L 作为微调控制器。

Omega Clip_L 训练样本超过一亿,如果存在专家,那它就是大师级。

别……别往里输入任何东西,除非你真的想看到结果。

  • BigAsp2 简直疯狂。

  • 这个模型完全不符合任何标准偏差。

  • 它不遵循标准微调选项。

  • 它有时完全忽略微调训练。

  • 即使简单的微调数据也可能摧毁其已训练出的大量特性。

将其转换为 vpred 涉及仅使用噪声时间步,并搭配相似但发散的真实数据进行训练。

这是一次半成功、成本极低的转换,相当酷。但这并不改变模型难以控制的事实;因此我将其与 Order Bringer Omega 合并。

50/50(均衡)主厨推荐:Omega 与 BigAsp2 各占 50%。它拥有最佳的控制器;如果你想追求更疯狂的效果,可以继续向下选择 AspHeavy;或者如果你特别受虐,可以直接使用合并前的完整重训版本。

25/75(OmegaHeavy)对 OmegaHeavy 来说相当不错,因为 Omega 非常稳定,几乎无所不能。

75/25(AspHeavy)BigAsp 很有趣,但也相当难以驯服,且在计数方面能力极差。


我认为这个模型远非一个标准英语专家;但它是一个出色的 VPRED 转换原型,展示了使用 Omega CLIPS 进行极小量训练的强大效果。

尽管令人失望,我本期望用这些 BigAsp CLIPS 来教 Omega 标准英语,但结果恰恰相反:Omega 被“脑切除”了,因此我终止了该训练,转而让 BigAsp 的训练继续完成。


这是经过重新训练和微调的 BigAsp2 版本,已修复并转换为 VPRED 格式以供使用。

在重训之上,V1 合并为:

50/50 OmegaV0001 CLIPS 与 BigAsp CLIPS

微调训练使用:

  • 第一阶段 -> 80,000 个样本,训练中间时间步

    • OmegaAsp CLIP_L_1 = BigAsp CLIP_L 50/50 OmegaSim CLIP_L

      • 冻结
    • BigAsp CLIP_G

      • 冻结
  • 第二阶段 -> 200,000……???个样本,我记不清了

    • OmegaAsp CLIP_L_2 = OmegaAsp_CLIP_L_1 → BigAsp CLIP_L 50/50(现在 BigAsp 占 75%)

      • 冻结
    • BigAsp CLIP_G

      • 冻结

使用 Sim Omega 73 的 clip_l 和 clip_g 进行重训,且 CLIPS 冻结。

这既引入了许多 BigAsp 原本无法实现的稳定元素,也破坏了许多在转换过程中彻底破坏生成结果的 NSFW 元素。

三个版本分别面向喜欢原始版或新版的用户。

此模型生成的图像

未找到图像。