UrangDiffusion v3.1
详情
下载文件
关于此版本
模型描述
[v3.1 仍在进一步测试中,有关新发现的更新将在“关于此版本”部分公布]
UrangDiffusion v3.1(读作 oo-raw-ng Diffusion)是首个以 Animagine XL 4.0 为基底的 UrangDiffusion 版本。
“Urang”一词源自巽他语,意为“我们/我们的/我”。取这个名字的初衷是希望该模型不仅适用于我,也适用于更多人。另一个原因是,我大量使用了他人提供的资源(如训练脚本、数据集收集脚本等),将此模型称为“我的独家成果”是不公平的。
标准提示指南
提示指引:

默认负面提示:
lowres, bad anatomy, bad hands, text, error, missing finger, extra digits, fewer digits, cropped, worst quality, low quality, low score, bad score, average score, signature, watermark, username, blurry默认配置:使用 Euler a,步数约 25-30,CFG 值 5-7,ENSD 设为 31337。最佳效果约为 28 步和 CFG 6。
训练配置
微调自:Animagine XL 4.0 基础模型(非 4.0-Zero)
微调参数:
数据集大小:约 1,600 张图像
GPU:1xA100 80GB
优化器:AdaFactor
Unet 学习率:1.25e-6
文本编码器学习率:N/A(已关闭)
批次大小:48
梯度累积:1
预热步数:5%
最小 SNR:5
训练轮数:15
常见问题
Q:图像有时有噪点。
A:这是 Animagine XL 4.0 模型普遍存在的问题。基础模型仅训练了 10 轮,导致模型训练不足。与使用更多资源训练的 Initial N 或 Initial I 模型不同。
Q:是否提供高分辨率修复模型?
A:请查看封面图的元数据,其中包含相关信息。
Q:Initial N/Initial I 模型更好。
A:那就直接离开,不要使用这个模型。简单明了。无需宣布你的离开,除非你愿意提供建设性反馈或资助未来项目。
特别致谢
感谢 CagliostroLab 的同事们(?) 提供的见解与反馈。
感谢 Nur Hikari 和 Vanilla Latte 的质量把关。
感谢我的导师与 AI 生成图像领域的榜样 Linaqruf,以及标签排序的幕后作者。
许可证
UrangDiffusion v1.0-v2.5 遵循 Fair AI Public License 1.0-SD 许可证,而 v3.x 遵循 CreativeML OpenRAIL++-M 许可证。













