Aozora-XL Vpred

详情

模型描述

Aozora-XL:一个基于V-预测的SDXL模型

Aozora-XL 是一个基于 NoobAI v-pred 的 V-预测模型,经过微调以提升稳定性和连贯性。它使用自定义训练脚本,可在12GB消费级显卡(如RTX 3060)上进行全量或部分微调。该训练脚本已在 GitHub 上开源,供社区使用:Aozora_SDXL_Training

  • 从未合并

  • 无内部合并的LoRA


版本 0.15 更新

本版本在 v0.1 的基础上,针对 V-预测设置中的特定问题进行了改进。它基于 v0.1 基础模型进行训练,以恢复鲜艳的色彩并减少早期版本中出现的轻微泛白效果。额外的微调专注于解决常见的 V-预测问题,例如场景构图和细节渲染的不一致性。该模型使用了约50,000张视觉小说和动漫内容的高饱和度图像数据集,训练了5个周期。配置如下:

- 基础模型:Aozora V0.1

- 最大训练步数:250000

- 梯度累积步数:64

- 混合精度:bfloat16

- UNET 学习率:8e-07

- 学习率调度器:余弦退火,带10%预热

- 特性:Min-SNR Gamma(修正版本,gamma 5.0)、Zero Terminal SNR、IP 噪声 Gamma(0.1)、残差偏移、条件丢弃(概率 0.1)

这些改进显著提升了色彩保真度,并使模型在各种提示下输出更加可靠。

- 注意:所有预览图像均未使用任何细节增强器或优化器,以展示基础能力


版本 0.1 概述

初始版本(v0.1 alpha)为概念验证模型,使用约18,500张图像数据集(50%为ZZZ角色,最高至2.0版本,50%为优质Danbooru图像)训练10个周期。它保留了基础模型(NoobAI-XL/NAI-XL V-Pred 1.0)的特性,同时通过训练方法提升了稳定性。


项目目标

- 提供基于图形界面的训练脚本,使消费级硬件能够进行SDXL微调。

- 通过持续在多样化数据集上训练,将 Aozora-XL 发展为稳定且可控的模型。


训练方法

该方法通过训练约92%的UNet模块优化效率,包含针对V-预测稳定性的自适应Min-SNR伽马加权和自定义学习率调度。

训练规格:

- 硬件:1块NVIDIA RTX 3060(显存使用量:约11.8 GB)

- 优化器:Adafactor

- 批量大小:1,梯度累积步数:64

- 训练的UNet参数量:2.3B


推荐设置

- 正向提示词:very awa, masterpiece, best quality

- 负向提示词:可选;如需可尝试(worst quality, low quality)

- 采样器:DPM++ 3M SDE GPU 或 Euler(Euler适用于线稿,SDE适用于手/脚等细节)

- 调度器:SGM Uniform 或 Normal

- 步数:25–35

- CFG比例:3–5(低值表现良好)

- 分辨率:1024x1024 或类似(最高支持1152x1152)

- 高分辨率修复:建议配合RealESRGEN等超分器使用,去噪强度约0.35

请根据系统环境调整设置,因为V-预测模型在不同设备上可能存在差异。


许可证

本模型遵循其基础模型 NoobAI-XL 的许可证,请查阅并遵守相关条款。

此模型生成的图像

未找到图像。