BigAsp2-X-Sim Omega vpred
详情
下载文件
模型描述
更新1 缺乏真实数据;
正向提示词;
masterpiece, most aesthetic, very aesthetic,
real, realistic, real person,
score_9, score_8, score_7,
source_real,
<bigasp captions go here>
real, realistic, realistic background, real,
<bigasp extra caption stuff for solidifiers>
<grid, depiction, offset tags go here>
<omega character captions go here>
<background and setting tags here, year tags, objects, and everything else>
负向提示词;
ai generated, lowres,
disgusting, very displeasing, normal aesthetic,
(anime, anime style, source_anime, 2d, 2d \(artwork\):1.1),
film grain, low quality, 1990s, vhs filter,
bad edit, bad anatomy,
jpeg artifacts,
monochrome, greyscale,
3d, 3d \(artwork\),
TXT2IMG;
RES_2S -> BETA 效果不错。
DPMPP_2S A -> BETA 效果不错。
Euler A -> BETA 效果较差。
Euler -> BETA 效果尚可,出乎意料。
RES_2M 无法使用。
IMG2IMG;
去噪值设为 0.7 或更低,因为目前拟合尚不完整。
RES_2S -> BETA
EULER_A -> BETA
随着这些调整,成长的阵痛逐渐减轻,高质量的 absurdres 图像开始显现;而在这种情况下,主要是 3D 和动漫风格干扰较多。
我认为自己目前没有足够的真实数据来充分重新训练这个模型。我需要获取更多真实数据,或增强 Omega Clip 的强度。
对动漫使用强负向提示有助于真实感的凸显,但还不够。
如果我能获取到原始的 BigAsp 图像,我可以直接重新标注它们,并用较少比例的图像进行重新训练。
10 万张真实图像远远不够,我可能至少需要一百万张——但标注一百万张真实图像将耗费大量时间,因此请暂时耐心等待,待 Omega 一百万图像数据集完成第一轮训练。
即使使用 BigAsp 的 CLIPS,动漫图像数量仍足以造成显著偏移。我们今晚将看到训练轮次完成后的结果。
将有一个最终版本,即第三阶段(Stage 3);目前正使用标准的一百万图像包进行训练,该数据包在模型拟合方面表现极佳。
这将是 BigAsp VPRED 固化版,但目前仍在训练中。
https://huggingface.co/AbstractPhil/OMEGA-BIGASP/tree/main
如果你拥有 BigAsp2 并厌倦了不断下载检查点,同时懂得如何进行合并,请参考此处:/model/1421066
Stage 1 和 Stage 2 的 LoRAs 可在此获取;如果你愿意,可获取最新版本自行制作 CLIP 合并,或自己合并 BigAsp CLIPS,尝试找到比我的更好的组合。
我并未训练这些 CLIPS,因为我的 CLIPS 与 BigAsp CLIPS 差异极大;因此我选择用一半自己的 CLIPS 和另一半 BigAsp CLIPS 训练 UNET。本质上,这是在大量使用 BigAsp 的基础上进行的深度微调,并以 Omega Clip_L 作为微调控制器。
Omega Clip_L 训练样本超过一亿,如果存在专家,那它就是大师级。
别……别往里输入任何东西,除非你真的想看到结果。
BigAsp2 简直疯狂。
这个模型完全不符合任何标准偏差。
它不遵循标准微调选项。
它有时完全忽略微调训练。
即使简单的微调数据也可能摧毁其已训练出的大量特性。
将其转换为 vpred 涉及仅使用噪声时间步,并搭配相似但发散的真实数据进行训练。
这是一次半成功、成本极低的转换,相当酷。但这并不改变模型难以控制的事实;因此我将其与 Order Bringer Omega 合并。
50/50(均衡)主厨推荐:Omega 与 BigAsp2 各占 50%。它拥有最佳的控制器;如果你想追求更疯狂的效果,可以继续向下选择 AspHeavy;或者如果你特别受虐,可以直接使用合并前的完整重训版本。
25/75(OmegaHeavy)对 OmegaHeavy 来说相当不错,因为 Omega 非常稳定,几乎无所不能。
75/25(AspHeavy)BigAsp 很有趣,但也相当难以驯服,且在计数方面能力极差。
我认为这个模型远非一个标准英语专家;但它是一个出色的 VPRED 转换原型,展示了使用 Omega CLIPS 进行极小量训练的强大效果。
尽管令人失望,我本期望用这些 BigAsp CLIPS 来教 Omega 标准英语,但结果恰恰相反:Omega 被“脑切除”了,因此我终止了该训练,转而让 BigAsp 的训练继续完成。
这是经过重新训练和微调的 BigAsp2 版本,已修复并转换为 VPRED 格式以供使用。
在重训之上,V1 合并为:
50/50 OmegaV0001 CLIPS 与 BigAsp CLIPS
微调训练使用:
第一阶段 -> 80,000 个样本,训练中间时间步
OmegaAsp CLIP_L_1 = BigAsp CLIP_L 50/50 OmegaSim CLIP_L
- 冻结
BigAsp CLIP_G
- 冻结
第二阶段 -> 200,000……???个样本,我记不清了
OmegaAsp CLIP_L_2 = OmegaAsp_CLIP_L_1 → BigAsp CLIP_L 50/50(现在 BigAsp 占 75%)
- 冻结
BigAsp CLIP_G
- 冻结
使用 Sim Omega 73 的 clip_l 和 clip_g 进行重训,且 CLIPS 冻结。
这既引入了许多 BigAsp 原本无法实现的稳定元素,也破坏了许多在转换过程中彻底破坏生成结果的 NSFW 元素。
三个版本分别面向喜欢原始版或新版的用户。


