Stabilizer IL/NAI
详情
下载文件
模型描述
(2025年10月21日):是时候展望未来了……
本模型将不再主动更新。SDXL 太……过时了,它发布于两年前(2023年6月)。
为什么不尝试新模型呢?它们拥有更新的架构、更好的性能,且效率更高。例如:Lumina 2。如果你刚听说 Lumina 2,快速了解下:
发布于2025年1月。开源,Apache License 2.0。
采用 DiT 架构(目前最流行的架构,与 Flux.1 等相同)。
小巧高效,仅20亿参数。完整(fp16)模型仅5GB,Q8模型仅2.5GB,意味着你甚至可以在GTX 1050上加载并运行它,且不损失画质。
使用与 Flux 相同的16通道VAE,数学上比SDXL的4通道VAE性能提升4倍。
使用 Google Gemma 2 2B 作为文本编码器(是的,它本身就是一个功能完整的LLM聊天模型)。比SDXL中老旧的CLIP强大1000倍——CLIP仅能理解标签,而Gemma 2不仅支持英语,还支持中文、日语……它对提示的理解和遵循能力有多强?你可以直接通过提示实现(注意:这是单张图像,非四张,完整图像和提示见此处,灵感来自此处)。
Neta Lumina 是基于Danbooru和e621数据集训练的动漫风格微调模型。
NetaYume Lumina 是进一步微调版本。

我训练了一个"增强包" LoRA。名称已更改,更准确,但数据集不变。
另外,我认为Civitai不会支持Lumina 2。我也已将模型上传至TensorArt。你可以在这里找到我,并在线尝试Lumina 2模型——如果你没有本地配置的话。
题外话个人看法:
Chroma 的图像质量优于 Lumina 2。毕竟它是10B的Flux.1模型,搭配5B的T5文本编码器(分别是Lumina 2的5倍和2.5倍)。但它不擅长动漫风格。
AuraFlow 很别扭。7B模型,不够小。整体表现不如Flux.1,效率也不如Lumina 2。我试过原始v0.3模型,图像质量与原始Lumina 2相当,但提示理解能力明显更差。(Gemma2远优于pile-T5)
Qwen很棒,但太大了,除非你愿意租用H100,否则连最微小的LoRA都无法训练。
(2025年10月21日):Noobai v-pred v0.280a
特别版本,“a”代表动漫。带有默认2D动漫风格,因此如果你不想手动指定风格,使用起来更简单。否则仍推荐v0.271,因为它更具创造性。
此外,数据集变化很大,整体效果可能与之前版本截然不同。
Stabilizer
一个基于7000张图像微调的小型模型。
侧重创意,而非固定风格。数据集非常多样,因此该模型不包含限制其创意的默认风格(偏差)。
仅使用自然纹理、光照和 finest 细节。无塑料感、高光AI风格。每张图像均由我亲自挑选。我知道使用AI图像训练会放大某些夸张效果,但我并不喜欢。
更好的提示理解能力。使用自然语言描述进行训练。
(v-pred)更佳且均衡的光照,无溢出与过度饱和。在同一张图像中,甚至在同一位置,想要纯黑(0)和纯白(255)?没问题。
为何没有默认风格?
“默认风格”是什么?如果一个模型有默认风格(偏差),意味着无论你如何提示,模型都必须生成构成该默认风格的相同元素(人脸、背景、氛围)。
优点:使用简单,无需再提示风格。
缺点:但你也无法覆盖它。如果你提示的内容不符合默认风格,模型会忽略它。如果你叠加多个风格,默认风格总会叠加/污染/限制其他风格。
“无默认风格”意味着无偏差,你需要通过标签或LoRAs明确指定想要的风格。但本模型不会造成风格叠加或污染。你能完全准确地实现你叠加的风格。
为何这个“微调基础模型”是一个LoRA?
我不是Gigachad,也没有数百万张训练图像。微调整个基础模型并不必要,一个LoRA就足够了。
我只需上传,你只需下载一个仅40MiB的小文件,而不是7GiB的庞大检查点,节省99.4%的数据和存储空间,因此我可以频繁更新。
这个LoRA虽小,却很强大。因为它采用NVIDIA新架构DoRA,比传统LoRA更高效。
那么,如何获得这个“微调基础模型”?
很简单:
预训练基础模型 + 本LoRA = 微调基础模型
只需在预训练基础模型上以全强度加载本LoRA,预训练模型就会变成我生成所有封面图的微调基础模型。详见下方“使用方法”。
禁止使用本模型进行模型融合。 顺便说一句,模型内嵌有隐藏触发词,用于打印不可见水印。水印与检测器均由我自行编写。我本不想使用,但保留此能力。
本模型仅发布于Civitai和TensorArt。若你在其他平台看到“me”和这句话,均为伪造,你所使用的平台是盗版平台。
请在评论区留下反馈,以便所有人看到。不要在Civitai的评价系统中反馈——该系统设计极差,几乎没有人能找到或看到评价。
如何使用
最新版本:
nbvp10 v0.271(适用于NoobAI v-pred v1.0)。
色彩精准、细节极致。这是目前最佳模型。
这是一个v-pred LoRA,仅适用于NoobAI v-pred v1.0。对eps模型无效。
nbep10 v0.273(适用于NoobAI eps v1.0)。
- 与v-pred模型相比饱和度和对比度更低。因标准epsilon(eps)预测存在“小设计缺陷”,限制了模型达到更广色彩范围。因此后来我们才开发了v-pred。
illus01 v1.198(在Illustrious v0.1上训练)。
- 注意:目前多数标为“illustrious”的动漫基础模型实际上都是NoobAI(或主要基于NoobAI)。建议两者都试一试,看哪个更好。
请先将本LoRA加载到你的LoRA堆栈中。
本LoRA采用NVIDIA的DoRA新架构,比传统LoRA更高效。但与传统LoRA的静态修补权重不同,DoRA的修补权重是根据当前加载的基础模型权重动态计算的(当你加载其他LoRA时,权重会变化)。为最小化意外变化,请首先加载本LoRA。
两种使用方式:
1)作为微调基础模型使用(推荐):
若你希望获得极致自然的细节,并完全掌控你想要的风格组合。
只需以全强度在预训练基础模型上加载本LoRA,预训练模型即会变为我生成所有封面图的微调基础模型。
2)作为LoRA应用于其他微调基础模型。
毕竟,它就是一个LoRA。
常见问题解答:
封面图是原始输出,来自预训练模型,分辨率为1MP。没有神奇插件,没有放大,没有手部/面部修复,甚至没有负面提示。有些用户说无法复现,那是技术问题。(基础模型不匹配或叠加了过多“优化”)
若即使在低强度(如<0.5)下也破坏了你的基础模型,那是你的基础模型的问题。你的模型已合并过此LoRA(且你重复合并了两次),导致权重相乘并坍塌。警惕假冒基础模型创作者——即窃贼。一些“创作者”从未训练过模型,只抓取他人模型,合并它们,清除所有元数据和署名,然后当作自己的基础模型出售。

数据集
最新或近期版本
总计约7000张图像。不算庞大(相较于那些喜欢用数百万图像微调模型的Gigachads),但也不小,且每张图像均由我亲自挑选。
仅包含正常美观的内容。无无法描述的极端艺术风格。
无AI生成图像。我绝不允许。
仅高分辨率图像。整个数据集平均像素为3.37MP,约1800x1800。
所有图像均配有Google LLM生成的自然描述。
其他工具
一些原本计划或曾作为Stabilizer一部分的功能,现已拆分为独立LoRA,以提高灵活性。合集链接:https://civitai.com/collections/8274233。
Dark:偏向暗环境的LoRA,适用于修正某些基础模型的高亮度偏差。在低亮度图像上训练。无风格偏差,故无风格污染。
Contrast Controller:手工打造的LoRA,可像调节显示器亮度一样控制对比度。与其他训练的“对比度增强器”不同,该LoRA效果稳定、数学线性,对风格无任何副作用。
当你的基础模型存在过度饱和问题,或你想要非常鲜艳的效果时,非常有用。
示例:

Style Strength Controller:或称过拟合效应减弱器。可数学上减弱所有类型的过拟合效应(如对象、亮度等偏差),或按需放大。

Stabilizer 与之区别:
Stabilizer 在真实世界数据上训练,仅能通过“补充”纹理、细节和背景来“减弱”过拟合效应。
Style Controller 并非基于训练,更像是“撤销”基础模型的训练,使其更少过拟合。可数学上减弱所有过拟合效应,如亮度、对象偏差。
旧版本:
更多信息请参见“更新日志”。请注意,旧版本效果可能截然不同。
主要时间线:
现在 ~:自然细节与纹理,稳定的提示理解,更多创意。不再局限于纯2D动漫风格。
illus01 v1.23 / nbep11 0.138 ~:色彩更生动的更好动漫风格。
illus01 v1.3 / nbep11 0.58 ~:更好的动漫风格。
更新日志
(2025年10月21日):Noobai v-pred v0.280a
- 特别版本,“a”代表动漫。带有默认2D动漫风格,如果你不想手动提示风格,使用起来更简单。此外,数据集变化很大,效果可能与之前版本显著不同。
(2025年8月31日)NoobAI ep10 v0.273
此版本从NoobAI eps v1.0开始训练。
与之前的illus01 v1.198相比:
在极端条件下亮度更佳且均衡。(与nbvp v0.271相同)
纹理和细节更好。在高SNR时间步上进行了更多训练。(illus01版本为兼容性跳过了这些时间步。现在所有基础模型均为NoobAI,无需再跳过。)
(2025年8月24日)NoobAI v-pred v0.271:
与之前v0.264相比:
极端条件下光照更佳、更均衡,偏差更少。
高对比度,同一图像中甚至同一位置可实现纯黑(0)和纯白(255),无溢出和过度饱和。现在你可以同时拥有这一切。
(旧版v0.264会尝试将图像限制在10~250之间以避免溢出,但仍存在明显偏差,整体图像可能过暗或过亮)
与v0.264一样,建议使用高或全强度(0.9~1)。
(2025年8月17日)NoobAI v-pred v0.264:
首个在NoobAI v-pred上训练的版本。
提供更好的光照,减少溢出。
注意:建议使用高或全强度(0.9~1)。
(2025年7月28日)illus01 v1.198
主要与v1.185c相比:
“c”版本终结。虽然“视觉冲击力”强,但存在兼容性问题。例如,当你的基础模型已具备类似对比度增强时,叠加两个对比度增强效果极差。因此,不再使用极端后期效果(如高对比度和高饱和度等)。
相反,增加更多纹理和细节。电影级光影效果。更好兼容性。
此版本更改了许多内容,包括数据集全面重构,因此效果将与之前版本大不相同。
为那些想找回 v1.185c 疯狂效果的用户:你可以在本页面 /model/1777579?modelVersionId=2060407 找到纯粹且专注的艺术风格。如果数据集足够大以训练一个 LoRA,我可能会训练一个。
(2025年6月21日) illus01 v1.185c:
与 v1.165c 相比。
+100% 清晰度与锐度。
-30% 过于混乱(无法准确描述)的图像。因此,你可能会发现此版本不再能提供疯狂的高对比度效果,但在正常使用场景中应更加稳定。
(2025年6月10日): illus01 v1.165c
这是一个特殊版本。 这不是 v1.164 的改进版。“c”代表“色彩丰富”、“富有创意”,有时也代表“混乱”。
数据集包含大量视觉冲击力强的图像,但有时难以描述,例如:色彩极其鲜艳、高对比度、复杂的光照条件、到处都是物体和复杂图案。
因此,你将获得“视觉冲击力强”的效果,但代价是“自然感”降低。可能影响柔和色调等风格。例如,此版本无法像 v1.164 那样完美生成“铅笔画”纹理。
(2025年6月4日): illus01 v1.164
更好的提示理解能力。现在每张图像都有三个来自不同视角的自然描述,Danbooru 标签由 LLM 检查,仅提取重要标签并融合进自然描述中。
防过曝。新增偏差,防止模型输出达到纯白色 #ffffff。多数情况下,#ffffff 代表过曝,会导致大量细节丢失。
调整了部分训练设置,使其更兼容 NoobAI,支持 e-pred 和 v-pred 两种预测模式。
(2025年5月19日): illus01 v1.152
持续改进光影、纹理与细节。
增加了 5K 张图像和更多训练步数,因此效果更强。
(2025年5月9日): nbep11 v0.205:
- 快速修复了 v0.198 的亮度与色彩问题。现在不应再像真实照片那样剧烈改变亮度和色彩。v0.198 并不差,只是过于“有创意”,甚至太过了。
(2025年5月7日): nbep11 v0.198:
增加了更多暗色调图像,减少身体变形,背景在暗环境下的表现更自然。
移除了色彩与对比度增强。因为不再需要。请改用 Contrast Controller。
(2025年4月25日): nbep11 v0.172
与 illus01 v1.93 ~ v1.121 相同的新特性。摘要:新增照片数据集 “Touching Grass”——更自然的纹理、背景与光影,角色效果减弱以提升兼容性。
更好的色彩准确性和稳定性。(与 nbep11 v0.160 相比)
(2025年4月17日): illus01 v1.121
回退至 illustrious v0.1。illustrious v1.0 及更新版本是故意使用 AI 生成图像训练的(约占数据集 30%),这对 LoRA 训练并不理想,直到我阅读其论文后才意识到。
降低角色风格效果,回归至 v1.23 水平。此 LoRA 生成的角色细节更少,但兼容性更好。这是权衡取舍。
其他内容与下方(v1.113)相同。
(2025年4月10日): illus11 v1.113 ❌
更新: 仅当你的基础模型基于 Illustrious v1.1 时才使用此版本,否则请使用 illus01 v1.121。
基于 Illustrious v1.1 训练。
新增数据集 “Touching Grass”——更自然的纹理、光影与景深效果,背景结构稳定性更强,减少变形背景(如变形的房间、建筑)。
使用 LLM 生成的完整自然语言描述。
(2025年3月30日): illus01 v1.93
- v1.72 训练过度,因此整体降低了强度,兼容性应更好。
(2025年3月22日): nbep11 v0.160
- 与 illus v1.72 内容相同。
(2025年3月15日): illus01 v1.72
使用与下方 ani40z v0.4 中相同的新型纹理与光影数据集——更自然的光影与纹理。
新增约 100 张图像的数据集用于手部增强,专注于不同任务的手部(如拿杯子、玻璃等)。
从数据集中移除所有“简单背景”图像,共 -200 张。
训练工具从 kohya 切换为 onetrainer,LoRA 架构改为 DoRA。
(2025年3月4日) ani40z v0.4
基于 Animagine XL 4.0 ani40zero 训练。
新增约 1k 张专注于自然动态光影与真实世界纹理的数据集。
更自然的光影与纹理。
ani04 v0.1
- Animagine XL 4.0 的初始版本,主要用于修复 Animagine 4.0 的亮度问题,提升对比度与清晰度。
illus01 v1.23
nbep11 v0.138
- 为平衡数据集,新增了一些毛茸茸/非人类/其他图像。
nbep11 v0.129
- 无效版本,效果太弱,忽略即可。
nbep11 v0.114
实现“全范围色彩”功能,自动将图像调整至“正常且美观”的状态,类似于大多数图像编辑工具中的“一键照片增强”按钮。此优化的缺点:会抑制色彩偏差。例如,你希望 95% 的图像为黑色、5% 为高亮,而非 50/50。
增加少量真实数据,提升细节、光影表现,减少平涂色彩。
illus01 v1.7
nbep11 v0.96
增加更多训练图像。
后续在小型“壁纸”数据集(真实游戏壁纸,我能找到的最高质量,约100张)上进行微调,细节(如皮肤、头发)和对比度进一步提升。
nbep11 v0.58
- 增加更多图像,调整训练参数以尽可能接近 NoobAI 基础模型。
illus01 v1.3
nbep11 v0.30
- 增加更多图像。
nbep11 v0.11: 基于 NoobAI epsilon pred v1.1 训练。
- 改进数据集标签,优化 LoRA 结构与权重分布,稳定性更高,对图像构图影响更小。
illus01 v1.1
- 基于 illustriousXL v0.1 训练。
nbep10 v0.10
- 基于 NoobAI epsilon pred v1.0 训练。




