Stabilizer IL/NAI
详情
下载文件
关于此版本
模型描述
封面图像是原始输出,来自预训练模型,分辨率为1MP。你看到的就是最终结果。没有上采样,没有手部/面部修复,甚至没有负面提示。
(2025年10月21日):是时候展望未来了……
本模型将不再主动更新。SDXL 已经太……老了,它发布于两年前(2023年6月)。
为什么不尝试新模型?它们拥有更新的架构、更好的性能,且效率高得多。例如:Lumina 2。如果你刚听说 Lumina 2,快速了解下:
2025年1月发布。开源,Apache 2.0许可证。
采用 DiT 架构(目前最流行的架构,与 Flux.1 等相同)。
小巧高效,仅20亿参数。完整(fp16)模型仅5GB,Q8模型仅2.5GB,意味着即使在GTX 1050上也能加载并运行,且不损失质量。
使用与 Flux 相同的16通道VAE,数学上比SDXL的4通道VAE性能提升4倍。
使用 Google Gemma 2 2b 作为文本编码器(是的,它本身就是一个功能完整的聊天LLM)。相比SDXL中仅能理解标签的老旧CLIP,性能提升10倍。作为聊天LLM,它几乎能理解一切……英语、中文、日语、拼写错误、俚语、诗歌……例如,你只需这样提示它即可:(注意:这是一张图像,不是四张,完整图像和提示请见此处,灵感来自此处。)

我训练了一个"增强包" LoRA。名称已更改,更少误导性,但数据集相同。
此外,我认为 Civitai 不会支持 Lumina 2。我也已将该模型上传至 TensorArt。你可以在这里找到我,并在线尝试 Lumina 2 模型。如果你没有本地设置。
有用链接:
模型:
Neta Lumina:基础模型,基于danbooru和e621数据集训练的动漫风格微调模型。
NetaYume Lumina:基础模型,使用最新数据集进一步微调。
优化:
硬件加速:对较新GPU(RTX 3xxx 及之后)启用 torch.compile,提速30%。对不支持bf16的旧GPU(RTX 2xxx 及之前)启用fp16模式,提速3倍,因为默认情况下旧GPU使用fp32,速度极慢。https://civitai.com/articles/22251
TeaCache:https://github.com/spawner1145/CUI-Lumina2-TeaCache
Lightning LoRA,提速2倍(实验性):/model/2115586
缩放fp8基础模型(DiT+TE),仅3GB:/model/2023440
Stabilizer
它是什么?
一个使用7000张图像进行中等规模微调的模型。
包含许多专业子数据集,例如:服装特写、手部、复杂环境光照、传统艺术等。
仅使用自然纹理、光照和最精细的细节。无塑料感、高光的AI风格。因为数据集中没有一张AI生成的图像——我亲自挑选了每一张图片。我不喜欢用AI图像训练,这就像玩“传话游戏”:用AI图像训练AI,只会让图像信息不断丢失,看起来更差(塑料感、高光)。
更好的提示理解能力:使用自然语言标注进行训练。
注重创意,而非固定风格。数据集非常多样化,因此该模型没有默认风格(偏见),不会限制其创造力。
(v-pred)更好的光照平衡,无溢出和过饱和。你想要同一张图像中同时出现纯黑(0)和纯白(255),甚至在同一位置?没问题。
为什么没有默认风格?
什么是“默认风格”:如果一个模型有默认风格(偏见),意味着无论你如何提示,模型都必须生成相同的元素(人脸、背景、情绪),构成其默认风格。
优点:易于使用,你无需再提示风格。
缺点:但你也无法覆盖它。如果你提示的内容不符合默认风格,模型会忽略它。如果你叠加更多风格,默认风格总会覆盖/污染/限制其他风格。
“无默认风格”意味着无偏见,你需要明确指定想要的风格,通过标签或LoRAs引导模型。但本模型不会造成风格叠加/污染。你能完全按照你叠加的风格生成结果。
效果:
现在,模型能准确生成你提示的风格,而非过度简化的动漫图像。无风格偏移/重叠,无AI人脸,只有更精细的细节。请参见对比:
https://civitai.com/images/84256995(艺术家风格,注意人脸)
如果你想知道什么是“风格偏移和AI人脸”,请看:
其他模型:https://civitai.com/images/107647042。女性人脸和糟糕的高光背景。
查看封面图像中的更多xy图。一张xy图胜过千言万语。
为什么这个“微调基础模型”是一个LoRA?
我不是巨佬,也没有数百万张训练图像。微调整个基础模型没有必要,一个LoRA就足够了。
我只需上传,你只需下载一个仅40MiB的小文件,而非7GiB的庞大检查点,可节省99.4%的数据与存储空间。因此我可以频繁更新。
这个LoRA虽小,但依然强大,因为它采用了NVIDIA的新架构DoRA,比传统LoRA更高效。
那么,我如何获得这个“微调基础模型”?
在预训练基础模型上以满强度加载此LoRA,预训练基础模型就会变成微调基础模型。详见下方“如何使用”。
禁止使用本模型进行合并分享。 顺便说一句,模型中嵌入了隐藏触发词,用于打印不可见水印。我亲自编写了水印和检测器。我不愿使用它,但我有能力。
本模型仅发布于Civitai和TensorArt。如果你在其他平台看到“我”和这句话,那都是假的,你使用的平台是盗版平台。
请在评论区留下反馈,以便所有人都能看到。不要在Civitai的评分系统中写反馈,那系统设计得太差了,根本没人能找到或看到评论。
如何使用
版本:
nbvp10(适用于 NoobAI v-pred v1.0)
- 色彩准确,细节锐利。
nbep10(适用于 NoobAI eps v1.0)
- 与v-pred模型相比,饱和度和对比度更低。标准的epsilon(eps)预测限制了模型达到更广的色彩范围,因此后来才出现v-pred。
illus01(在 Illustrious v0.1 上训练,但仍推荐使用 NoobAI eps v1.0)
- 如果你在其他微调基础模型之上使用本模型,请注意:如今大多数标为“Illustrious”的动漫基础模型实际上都是NoobAI(或主要基于NoobAI)。建议同时尝试两个版本(il01 和 nbep10),看看哪个效果更好。
请首先在你的LoRA堆栈中加载此LoRA。
此LoRA采用了NVIDIA的新架构DoRA,比传统LoRA更高效。然而,与传统LoRA的静态补丁权重不同,DoRA的补丁权重是根据当前加载的基础模型权重动态计算的(当你加载其他LoRA时,权重会发生变化)。为尽量减少意外变化,请优先加载此LoRA。
两种使用方式:
1)作为微调基础模型使用(推荐):
如果你希望获得最精细、最自然的细节,并完全控制你想要的风格组合。
将LoRA应用于预训练基础模型。注意:预训练模型指原始模型,未经过微调。例如:NoobAI v-pred v1.0,NoobAI eps v1.0
2)作为其他微调基础模型上的LoRA使用。
毕竟它是一个LoRA。
但请注意:
这不是一个风格LoRA,你实际上是合并两个基础模型,结果并不总是如你所愿。
它不适用于那些经过过度融合、被AI风格污染的“1girl”模型(如50个版本的Nova furry 3D动漫WAI等)。本模型无法修复那种塑料感、高光的AI风格。若想摆脱AI风格,请使用预训练基础模型。
这就是《狼与香辛料》中的Craft Lawrence应有的样子(如果你看过动画):https://civitai.com/images/107381516
这些AI风格污染的“1girl”过度拟合模型生成的是:https://civitai.com/images/107647042
常见问题:
封面图像是原始输出,来自预训练模型,分辨率为1MP。没有魔法插件,没有上采样,没有手部/面部修复,甚至没有负面提示。有用户说无法复现,那是技术问题。(基础模型不匹配或添加了过多“优化”)
如果即使在低强度(例如<0.5)下也破坏了你的基础模型,那是你基础模型的问题。你的基础模型已合并过此LoRA(而你又合并了第二次),模型权重被重复乘积并崩溃。小心虚假基础模型制作者,也就是窃贼。一些“创作者”从未进行训练,他们只是抓取别人的模型,合并后删除所有元数据和署名,然后当作自己的基础模型出售。

其他工具
一些原本打算或曾作为Stabilizer一部分的创意,现在已独立为LoRA,以提升灵活性。合集链接:https://civitai.com/collections/8274233
Dark:一个偏向暗环境的LoRA,用于修正某些基础模型的高亮度偏见。在低亮度图像上训练,无风格偏见,因此无风格污染。
Contrast Controller:手工打造的LoRA。像调节显示器对比度滑块一样控制对比度。与其他训练出的“对比度增强器”不同,此LoRA效果稳定、数学线性,对风格无任何副作用。
当你基础模型出现过饱和问题,或想要非常鲜艳的色彩时非常有用。
示例:

Style Strength Controller:或称过度拟合效应减少器。可数学化地减少所有类型的过度拟合效应(如对象、亮度等偏见),或按需放大。

Stabilizer 与之的区别:
Stabilizer 在真实世界数据上训练,只能通过“重新添加”纹理、细节和背景来“减弱”过度拟合效应。
Style Controller 并非来自训练,更像是“撤销”基础模型的训练过程,使其过度拟合减少。能数学化地减弱所有过度拟合效应,如亮度、对象偏见。
旧版本:
更多详情请见“更新日志”。请注意,旧版本可能效果截然不同。
主要时间线:
现在 ~:自然细节与纹理,稳定的提示理解能力,更强的创造力。不再局限于纯2D动漫风格。
illus01 v1.23 / nbep11 0.138 ~:色彩更鲜艳的更好动漫风格。
illus01 v1.3 / nbep11 0.58 ~:更好的动漫风格。
更新日志
(2025年10月21日):NoobAI v-pred v0.280a
- 特别版本,“a”代表动漫。默认包含2D动漫风格,因此如果你不想手动提示风格,使用起来更简单。数据集也发生了巨大变化,效果可能与之前版本大不相同。
(2025年8月31日) NoobAI ep10 v0.273
此版本从头开始在 NoobAI eps v1.0 上训练。
与之前的 illus01 v1.198 相比:
在极端条件下亮度更佳且更平衡。(与 nbvp v0.271 相同)
更好的纹理和细节。在高SNR时间步上进行了更多训练步骤。(illus01 版本为兼容性而跳过了这些时间步。如今所有基础模型均为 NoobAI,无需再跳过这些时间步。)
(2025年8月24日) NoobAI v-pred v0.271:
与之前的 v0.264 相比:
在极端条件下照明更佳且更均衡,偏差更少。
同一张图像中可实现高对比度、纯黑(0)与纯白(255),即使在同一位置也不会溢出或过饱和。现在你可以同时拥有所有这些效果。
(旧版 v0.264 会将图像限制在10~250之间以避免溢出,但仍存在明显偏差,整体图像可能过暗或过亮)
与 v0.264 一样,建议使用高或满强度(0.9~1)。
(2025年8月17日) NoobAI v-pred v0.264:
首个基于 NoobAI v-pred 训练的版本。
提供更佳的照明效果,减少溢出问题。
注意:建议使用高或满强度(0.9~1)。
(2025年7月28日) illus01 v1.198
主要与 v1.185c 相比:
“c”版本终结。虽然“视觉冲击力强”是优点,但存在兼容性问题。例如当你的基础模型已具备类似对比度增强时,叠加两次对比度增强效果极差。因此,不再使用激进的后期效果(如高对比度、高饱和度等)。
取而代之的是更多纹理与细节,电影级照明效果,以及更好的兼容性。
本版本改动很大,包括数据集全面重构,因此效果与以往版本有显著不同。
如果你希望恢复 v1.185c 的激进效果,可在本页面找到纯正且专用的艺术风格:/model/1777579?modelVersionId=2060407。若数据集足够大以训练 LoRA,我可能会进行训练。
(2025年6月21日) illus01 v1.185c:
与 v1.165c 相比:
清晰度和锐度提升 +100%。
过于混乱(无法准确描述)的图像减少 -30%。因此你可能会发现,此版本不再能提供极致的高对比度,但在常规使用中更稳定。
(2025年6月10日) illus01 v1.165c
这是一个特殊版本。 它并非 v1.164 的改进版。“c”代表“色彩丰富”、“富有创意”,有时也代表“混乱”。
数据集包含大量视觉冲击力强的图像,但有时难以描述,例如:色彩极其丰富、高对比度、复杂的光线条件、到处是物体和复杂图案。
因此你将获得“视觉冲击力强”的效果,但代价是“自然感”降低。可能影响柔和色彩风格,例如该版本无法像 v1.164 一样完美生成“铅笔画”质感。
(2025年6月4日) illus01 v1.164
更好的提示理解能力。现在每张图像都有三个来自不同视角的自然描述,Danbooru 标签由 LLM 检查,仅保留重要标签并融合进自然描述中。
防过曝。增加偏差以防止模型输出达到纯白 #ffffff。多数情况下 #ffffff 意味着过曝,会损失大量细节。
调整部分训练设置,使其与 NoobAI 的 e-pred 和 v-pred 更兼容。
(2025年5月19日) illus01 v1.152
持续改进照明、纹理和细节。
增加5000张图像与更多训练步骤,效果更显著。
(2025年5月9日) nbep11 v0.205:
- 快速修复 v0.198 的亮度与色彩问题。现在它不会像真实照片那样剧烈改变亮度与色彩。v0.198 并不差,只是过于“有创意”了。
(2025年5月7日) nbep11 v0.198:
增加更多暗色调图像,减少暗环境中的人体变形与背景问题。
移除色彩与对比度增强。因为已不再需要,改用 Contrast Controller。
(2025年4月25日) nbep11 v0.172
与 illus01 v1.93 ~ v1.121 相同的新特性:新增照片数据集 “Touching Grass”——更自然的纹理、背景与照明,角色效果减弱以提升兼容性。
颜色准确性和稳定性提升。(与 nbep11 v0.160 相比)
(2025年4月17日) illus01 v1.121
回退至 illustrious v0.1。illustrious v1.0 及更新版本刻意使用了AI生成图像(可能占数据集30%),这对LoRA训练并不理想,我直到阅读其论文后才意识到这一点。
降低角色风格效果,回归 v1.23 水平。该LoRA赋予角色的细节减少,但兼容性更好。这是权衡取舍。
其他方面与下文(v1.113)相同。
(2025年4月10日) illus01 v1.113 ❌
更新: 仅当你确认基础模型基于 illustrious v1.1 时才使用此版本;否则请使用 illus01 v1.121。
在 illustrious v1.1 上训练。
新增数据集 “Touching Grass”——更自然的纹理、照明与景深效果,背景结构更稳定,减少变形背景(如变形的房间、建筑等)。
使用 LLM 生成的完整自然语言描述。
(2025年3月30日) illus01 v1.93
- v1.72 训练过度,因此整体降低了强度,以获得更好的兼容性。
(2025年3月22日) nbep11 v0.160
- 与 illus v1.72 相同内容。
(2025年3月15日) illus01 v1.72
使用与下方 ani40z v0.4 中相同的新型纹理与照明数据集,获得更自然的照明与纹理。
新增约100张图像数据集,专注于手部增强,涵盖持杯、持玻璃等不同任务。
从数据集中移除所有“简单背景”图像,共减少200张。
将训练工具从 kohya 切换为 onetrainer,并将 LoRA 架构改为 DoRA。
(2025年3月4日) ani40z v0.4
在 Animagine XL 4.0 ani40zero 上训练。
新增约1000张聚焦于自然动态照明与真实世界纹理的数据集。
更自然的照明与纹理。
ani04 v0.1
- Animagine XL 4.0 的初始版本,主要修复其亮度问题,实现更高对比度。
illus01 v1.23
nbep11 v0.138
- 增加部分毛茸茸/非人类/其他图像,以平衡数据集。
nbep11 v0.129
- 无效版本,效果过弱,请忽略。
nbep11 v0.114
实现“全色域色彩”功能,自动调节至“正常且美观”的效果,类似于多数图像编辑工具中的“一键自动增强”按钮。此优化的缺点:会抑制高偏差。例如,你希望95%图像为黑色、5%为亮色,而非50/50。
增加少量真实数据,提升细节、照明表现,减少平涂色彩。
illus01 v1.7
nbep11 v0.96
增加更多训练图像。
再次微调于小型“壁纸”数据集(真实游戏壁纸,我所能找到的最高质量,约100张),细节(皮肤、头发等)与对比度进一步提升。
nbep11 v0.58
- 增加更多图像,调整训练参数以尽可能贴近 NoobAI 基础模型。
illus01 v1.3
nbep11 v0.30
- 增加更多图像。
nbep11 v0.11:在 NoobAI epsilon 预测 v1.1 上训练。
- 改进数据集标签,优化 LoRA 结构与权重分布,更加稳定,对图像构图影响更小。
illus01 v1.1
- 在 illustriousXL v0.1 上训练。
nbep10 v0.10
- 在 NoobAI epsilon 预测 v1.0 上训练。




















