Astigmatism (formerly 'Semantic Shift')

详情

模型描述

2025-01-17 开始

好的,最新的散光正向模型 +0.6 已上线。它真的非常棒,但和所有事情一样,我建议将其与 0.5 混合,以减轻过拟合,从而获得最佳效果。稍后我会研究一个 LoRA 合并方案,看看能否在这个阶段制作一个包含“最优”散光参数的简易打包工具。

希望大家喜欢。我正在为 0.6 开发一个非常大的负向提示,但我需要更多社区反馈才能开始训练,所以需要一点时间,但请放心,它正在路上,我相信这将是一次巨大的飞跃。

2025-01-17 结束





---

在 0.5b 之后,我建议你仅尝试使用 0.5b 和/或 -0.5b。

使用负向提示时,请务必从高 CFG 值开始,因为这是它最主要的优势。

此外,少量使用负向提示还能略微提升创意性,但总体而言,+0.5b 才是真正的主力,尽管其训练数据集小得多。

以下是我在 0.5b 之前写过的建议内容:
---------------------
我推荐初学者使用以下混合组合(我将在下周发布一种混合 LoRA,其 VRAM 占用远低于同时加载四个 LoRA,哈哈):

散光 +0.5
散光 -0.5
散光 +0.4b
散光 -0.2

正向部分各占 0.33
负向部分各占 -0.33

这与训练过程中的过拟合以及我的失误有关。由于资源有限,我无法直接修正这些错误(这需要大量 LoRA 迭代训练和测试,而我负担不起),因此通过混合可以有效缓解过拟合,并普遍提升性能——正如 Civitai 上大量合并检查点所证明的那样,其中一些甚至只是将新版本模型合并到旧版本中。

本质上,旧版本可能在某些方面比新版本理解得更好,反之亦然,但只要你的版本整体是改进的,合并过程最终将使模型成为更好的泛化器,而这个直接针对模型泛化能力和表现的 LoRA 也不例外。

爱你们,也爱这个社区。


如果有人拥有资源并希望参与进一步训练,请联系我。我在提升提示遵循度方面取得了巨大成功,我相信通过社区的共同努力,这一效果还能被大幅提升。


请仔细研究所使用的权重,以了解如何调整这个 LoRA。把它想象成调整你透过的镜头的对焦。每个提示和检查点组合的需求都不同,但最终大多数都可以微调,使其在之前无法生效的范围内开始正常工作。

我想我很快得录个视频解释“为什么”会这样,因为我的注意力缺陷和时间限制让我难以像希望的那样写出完整文字。不过录视频我大概能完成,虽然可能会……很混乱。




这个模型基于我之前“不安”LoRA 的研究工作。它使用了其中生成的一些图像,以及后续基于这些 LoRA 衍生图像生成的图片,还有我所尝试的技术。

简而言之,这个 LoRA 的目标是“语义迁移”SDXL,使某些具有固定含义的术语在模型内部以一致的方式彻底改变。我在“不安”LoRA 中部分使用了这种技术,虽然当时训练过度,但我由此对一个想法产生了兴趣:“好”的提示仍然是“好”的,即使它们在模型内部的理解发生了“偏移”,只是换了一个轴向。换句话说:如果你以定向方式调整模型的“大脑”,一个独特而有趣的提示,可以在多个全新且独特的主题中生成独特而有趣的图像。

我是如何做到的?

我发现了 SDXL 中的过拟合区域并加以针对性修正,例如蒙娜丽莎、创世之柱等,并将它们重新导向新的图像。正如我所预料的,这引发了整个模型对与这些修改图像相关概念的感知方式产生连锁反应,效果相当显著。


更新

自本项目启动以来,这个 LoRA 的目标已发生重大转变,主要致力于提升 SDXL 的整体提示遵循度和成功率,同时使用极小的数据集,专门针对模型中的过拟合区域进行训练,以教会模型泛化能力。

其副作用是:生成任意分辨率的图像变得容易得多。

此模型生成的图像

未找到图像。