SagaXL-ZtnV

详情

下载文件

模型描述

SagaXL サガシリーズ (ZtnV) 试用模型群


释放 Sagacity、Wisdom、Lusty……! RR002 以后已调整为 Emo 系风格

 以 SDXL 原生模型(标准)为基础,使用 ZtSNR(非 V-pred)进行训练,并扩展色域、调整色调,随后将此 XLBB(XL-Base-typeB)迁移学习为 SDXL(标准)模型,命名为 XLBBP。
 ZtnV 意为 ZtSNR 且为 non V-pred,能够实现纯净色彩表现,色彩与色域表现优异,多臂多腿等影响仍轻微残留。
 推荐设置已列于本说明末尾,请参考 CFG、分辨率等设定。亦可参考样本图像的参数值。


SagaXL-RR004 fix 是修正 RR003 emx 的模型,

 以 RR003 为基础,使用自主研发的优化器群(Emo 系 EmoFact(v3.0))进行 LoRA 微调,并通过极低值 AKN(avg_key_norm)与高学习率(LR)实现“自我修复”,故在模型名称中加入 “fix”。
 使用极低值 AKN 与高学习率的“自我修复”是 Emo 系独有的特殊机制,尤其 Emo 系 fact 式(fact、zeal 等)擅长的新型学习方法。简单来说,即在参考训练数据的前提下,以最小的学习量修复文本编码器等组件,使局部最优逼近全局最优,增强泛化性与多样性。
 这种机制可挖掘并激活模型中被埋没的特征与质感。本模型已实施此优化(修复学习)。


SagaXL-RR003 emx 为◆ 失败作品 ◆💦 即将删除
 以 R001 为基础,使用自主研发优化器群(Emo 系 EmoLynx(v3.0))进行 LoRA 微调,并在模型名称中添加 “emx”。
 实现了更写实化的效果,亦为 EmoLynx 精细化测试的一部分。明暗等部分的真实感有所提升,但仍希望进一步增强真实感。本次最终调整所用的 3e-5、3000 step 学习率可能更新偏硬,下次将尝试更柔和的更新方式。


SagaXL-RR002 enx 是,

 以 R002 为基础,使用自主研发的优化器群(EmoSENS 系)进行 LoRA 微调,并在模型名称中加入 “enx”。我认为这是充分体现 SDXL 潜力的成果。所用优化器包含 Emo 系(第二代)全部类型、emosens、airy、cats,并已应用 Kohya-script 的 ZtSNR。


SagaXL-RR002 是,

 以 R001 为基础,使用自主研发的优化器群(EmoNAVI 系)进行 LoRA 微调,并在模型名称中添加 “emx”。本次更新后,模型调整已基本完成。


SagaXL-RR001 是,

 将 BeppinXL 与 BejeanXL 以约 0.03125 的比例混合,以此为基础,使用原创代码群(muooonKit)进行自监督强化学习的自我进化。核心技术为自主研发的优化器(Ref-AdamW-mini-ScheduleFree),其他部分则使用基于 SVD 应用的间歇性 LoRA 作用代码及核心代码进行模型训练。已通过 Hako-mikan 的 TrainTrain 引入 Ref-AdamW-mini、SVD 应用的间歇作用与介入代码,并验证了其效果。同时亦使用其他代码强化基础模型。


BeppinDX (alpha) 是,

 以不同于 BejeanXL 的新型 XLBB-Plus 系(衍生)为基础的模型。使用原创代码构建的 SVD 系 XLBBP 模型,并应用了类自强化学习等技术。


BejeanXL (beta) 是,

 将所有模型共用的 SDXL(标准)模型替换为 XLBBP,从底层改善色域与色调,提升真实感与精细度。是以 XLBBP 为基底的模型。
 此外,对 2000 张图像进行了简单的 FFT 处理,并对这一新版 BejeanXL 应用了混合训练 LoRA,使其同时学习动画图像与真实图像。


推荐设置(Recommended setting):

 CFG scale:3–7,推荐使用 SDE SGMUniform(因 ZtSNR / NonVpred)
 (reForge 可选:Sampler:RES Solver,Schedule:React Cosinusoidal DynSF)
 分辨率:建议 1024x1024 以上,RR002 及以后版本建议禁用 mahiro-CFG


SagaXL 为试用模型,请勿用于商业或非法用途。

由于使用了原创代码的实验性要素,可能存在潜在问题。

如发生任何异常或问题,请立即停止使用并删除模型。

此模型生成的图像

未找到图像。