Aozora-XL Vpred
详情
下载文件
关于此版本
模型描述
Aozora-XL:一个基于V-预测的SDXL模型
Aozora-XL 是一个基于 NoobAI v-pred 的 V-预测模型,经过微调以提升稳定性和连贯性。它使用自定义训练脚本,可在12GB消费级显卡(如RTX 3060)上进行全量或部分微调。该训练脚本已在 GitHub 上开源,供社区使用:Aozora_SDXL_Training。
从未合并
无内部合并的LoRA
版本 0.15 更新
本版本在 v0.1 的基础上,针对 V-预测设置中的特定问题进行了改进。它基于 v0.1 基础模型进行训练,以恢复鲜艳的色彩并减少早期版本中出现的轻微泛白效果。额外的微调专注于解决常见的 V-预测问题,例如场景构图和细节渲染的不一致性。该模型使用了约50,000张视觉小说和动漫内容的高饱和度图像数据集,训练了5个周期。配置如下:
- 基础模型:Aozora V0.1
- 最大训练步数:250000
- 梯度累积步数:64
- 混合精度:bfloat16
- UNET 学习率:8e-07
- 学习率调度器:余弦退火,带10%预热
- 特性:Min-SNR Gamma(修正版本,gamma 5.0)、Zero Terminal SNR、IP 噪声 Gamma(0.1)、残差偏移、条件丢弃(概率 0.1)
这些改进显著提升了色彩保真度,并使模型在各种提示下输出更加可靠。
- 注意:所有预览图像均未使用任何细节增强器或优化器,以展示基础能力
版本 0.1 概述
初始版本(v0.1 alpha)为概念验证模型,使用约18,500张图像数据集(50%为ZZZ角色,最高至2.0版本,50%为优质Danbooru图像)训练10个周期。它保留了基础模型(NoobAI-XL/NAI-XL V-Pred 1.0)的特性,同时通过训练方法提升了稳定性。
项目目标
- 提供基于图形界面的训练脚本,使消费级硬件能够进行SDXL微调。
- 通过持续在多样化数据集上训练,将 Aozora-XL 发展为稳定且可控的模型。
训练方法
该方法通过训练约92%的UNet模块优化效率,包含针对V-预测稳定性的自适应Min-SNR伽马加权和自定义学习率调度。
训练规格:
- 硬件:1块NVIDIA RTX 3060(显存使用量:约11.8 GB)
- 优化器:Adafactor
- 批量大小:1,梯度累积步数:64
- 训练的UNet参数量:2.3B
推荐设置
- 正向提示词:very awa, masterpiece, best quality
- 负向提示词:可选;如需可尝试(worst quality, low quality)
- 采样器:DPM++ 3M SDE GPU 或 Euler(Euler适用于线稿,SDE适用于手/脚等细节)
- 调度器:SGM Uniform 或 Normal
- 步数:25–35
- CFG比例:3–5(低值表现良好)
- 分辨率:1024x1024 或类似(最高支持1152x1152)
- 高分辨率修复:建议配合RealESRGEN等超分器使用,去噪强度约0.35
请根据系统环境调整设置,因为V-预测模型在不同设备上可能存在差异。
许可证
本模型遵循其基础模型 NoobAI-XL 的许可证,请查阅并遵守相关条款。














