UrangDiffusion v3.1

详情

下载文件

模型描述

[v3.1 仍在进一步测试中,有关新发现的更新将在“关于此版本”部分公布]

UrangDiffusion v3.1(读作 oo-raw-ng Diffusion)是首个以 Animagine XL 4.0 为基底的 UrangDiffusion 版本。

“Urang”一词源自巽他语,意为“我们/我们的/我”。取这个名字的初衷是希望该模型不仅适用于我,也适用于更多人。另一个原因是,我大量使用了他人提供的资源(如训练脚本、数据集收集脚本等),将此模型称为“我的独家成果”是不公平的。

标准提示指南

  • 提示指引:

  • 默认负面提示:lowres, bad anatomy, bad hands, text, error, missing finger, extra digits, fewer digits, cropped, worst quality, low quality, low score, bad score, average score, signature, watermark, username, blurry

  • 默认配置:使用 Euler a,步数约 25-30,CFG 值 5-7,ENSD 设为 31337。最佳效果约为 28 步和 CFG 6

训练配置

微调自:Animagine XL 4.0 基础模型(非 4.0-Zero)

微调参数:

  • 数据集大小:约 1,600 张图像

  • GPU:1xA100 80GB

  • 优化器:AdaFactor

  • Unet 学习率:1.25e-6

  • 文本编码器学习率:N/A(已关闭)

  • 批次大小:48

  • 梯度累积:1

  • 预热步数:5%

  • 最小 SNR:5

  • 训练轮数:15

常见问题

  • Q:图像有时有噪点。

  • A:这是 Animagine XL 4.0 模型普遍存在的问题。基础模型仅训练了 10 轮,导致模型训练不足。与使用更多资源训练的 Initial N 或 Initial I 模型不同。

  • Q:是否提供高分辨率修复模型?

  • A:请查看封面图的元数据,其中包含相关信息。

  • Q:Initial N/Initial I 模型更好。

  • A:那就直接离开,不要使用这个模型。简单明了。无需宣布你的离开,除非你愿意提供建设性反馈或资助未来项目。

特别致谢

  • 感谢 CagliostroLab 的同事们(?) 提供的见解与反馈。

  • 感谢 Nur HikariVanilla Latte 的质量把关。

  • 感谢我的导师与 AI 生成图像领域的榜样 Linaqruf,以及标签排序的幕后作者。

许可证

UrangDiffusion v1.0-v2.5 遵循 Fair AI Public License 1.0-SD 许可证,而 v3.x 遵循 CreativeML OpenRAIL++-M 许可证

此模型生成的图像

未找到图像。