NoobAI-XL (NAI-XL)
详情
下载文件
关于此版本
模型描述
模型介绍
本图像生成模型基于 Laxhar/noobai-XL_v1.0,利用了完整的 Danbooru 和 e621 数据集,包含原生标签与自然语言描述。
作为 v-预测模型(与 eps-预测不同),它需要特定的参数配置——详见下文章节。
特别感谢我的队友 euge 的编码工作,也感谢众多热心社区成员提供的技术支持。
⚠️ 重要通知 ⚠️
此模型与 eps 模型工作方式不同!
请仔细阅读使用指南!
模型详情
开发方:Laxhar Lab
模型类型:基于扩散的文本到图像生成模型
微调自:Laxhar/noobai-XL_v1.0
赞助方:
协同测试:
如何使用本模型
NoobAI XL 使用指南:
ENG:
https://civitai.com/articles/8962
CHS:
https://fcnk27d6mpa5.feishu.cn/wiki/S8Z4wy7fSiePNRksiBXcyrUenOh
NoobAI XL 推荐 LoRa 列表:
https://fcnk27d6mpa5.feishu.cn/wiki/IBVGwvVGViazLYkMgVEcvbklnge
方法一:reForge
(如未安装 reForge)请按仓库说明安装 reForge;
启动 WebUI 并正常使用模型!
方法二:ComfyUI
节点示例:
方法三:WebUI
请注意,dev 分支不稳定,可能存在漏洞。
(如未安装 WebUI)请按仓库说明安装 WebUI。为简化...
切换至
dev分支:
git switch dev
- 拉取最新更新:
git pull
- 启动 WebUI 并正常使用模型!
方法四:Diffusers
import torch
from diffusers import StableDiffusionXLPipeline
from diffusers import EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality,artist:john_kafka,artist:nixeu,artist:quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
注意:请确保您的机器已安装 Git 并正确配置环境。
推荐设置
参数
CFG:4 ~ 5
步数:28 ~ 35
采样方法:Euler(⚠️ 其他采样器无法正常工作)
分辨率:总面积约 1024x1024。推荐选择:768x1344、832x1216、896x1152、1024x1024、1152x896、1216x832、1344x768
提示词
- 提示词前缀:
masterpiece, best quality, newest, absurdres, highres, safe,
- 负面提示词:
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
使用规范
描述格式
<1girl/1boy/1other/...>, <角色>, <作品>, <艺术家>, <特殊标签>, <通用标签>, <其他标签>
质量标签
我们通过以下流程评估图像受欢迎程度以确定质量标签:
基于多个来源和评分的数据标准化。
根据时间新近度应用时间衰减系数。
根据上述处理对整个数据集中的图像进行排名。
我们的最终目标是确保质量标签能有效反映近年来用户的偏好。
百分位范围 | 质量标签
95% | masterpiece
85% 且 ≤ 95% | best quality
60% 且 ≤ 85% | good quality
30% 且 ≤ 60% | normal quality
≤ 30% | worst quality
美学标签
标签 | 描述
very awa | 根据 waifu-scorer 美学评分排名前 5% 的图像
worst aesthetic | 根据 waifu-scorer 和 aesthetic-shadow-v2 美学评分排名后 5% 的图像
......
日期标签
日期标签分为两类:年份标签 和 时期标签。年份标签请使用 year xxxx 格式,如 year 2021。时期标签请参考下表:
年份范围 | 时期标签
2005–2010 | old
2011–2014 | early
2014–2017 | mid
2018–2020 | recent
2021–2024 | newest
数据集
训练截止日期前最新的 Danbooru 图像(约在 2024-10-23 之前)
Hugging Face 上的 e621 图像数据集 e621-2024-webp-4Mpixel
交流方式
QQ 群:
427280545
677964513
852429527
914818692
635772191
870086562
Discord:Laxhar Dream Lab SDXL NOOB
如何在 v-pred SDXL 模型上训练 LoRA
本教程适用于基于 sd-scripts 的 LoRA 训练者。
文章链接:https://civitai.com/articles/8723
工具支持
Laxhar Lab 正在为 NoobXL 训练专用的 ControlNet 模型,并逐步发布。目前已发布 normal、depth 和 canny 模型。
模型链接:/model/929685
模型授权
本模型授权继承自 https://huggingface.co/OnomaAIResearch/Illustrious-xl-early-release-v0 的 fair-ai-public-license-1.0-sd,并附加以下条款。任何对该模型及其衍生版本的使用均受本授权约束。
I. 使用限制
禁止用于有害、恶意或非法活动,包括但不限于骚扰、威胁和传播虚假信息。
禁止生成不道德或冒犯性内容。
禁止违反用户所在司法管辖区的法律法规。
II. 商业禁止
我们禁止任何形式的商业化行为,包括但不限于对模型、衍生模型或模型生成产品的盈利或商业用途。
III. 开源社区
为促进活跃的开源社区,用户必须遵守以下要求:
开源基于本模型的衍生模型、合并模型、LoRAs 及相关产品。
共享合成公式、提示词、工作流等详细内容。
遵循 fair-ai-public-license,确保衍生作品保持开源。
IV. 免责声明
生成的模型可能产生意外或有害的输出。用户须自行承担使用中的一切风险与潜在后果。
参与者与贡献者
参与者
L_A_X:Civitai | Liblib.art | Huggingface
li_li:Civitai | Huggingface
nebulae:Civitai | Huggingface
Chenkin:Civitai | Huggingface
Euge:Civitai | Huggingface | Github
贡献者
Narugo1992:感谢 narugo1992 和 deepghs 团队开源了多种训练集、图像处理工具与模型。
Onommai:感谢 OnommAI 开源强大的基础模型。
V-Prediction:感谢以下人士提供的详细指导与实验:
adsfssdf
madmanfourohfour
社区:aria1th261, neggles, sdtana, chewing, irldoggo, reoe, kblueleaf, Yidhar, ageless, 白玲可, Creeper, KaerMorh, 吟游诗人, SeASnAkE, zwh20081, Wenaka~喵, 稀里哗啦, 幸运二副, 昨日の約, 445, EBIX, Sopp, Y_X, Minthybasis, Rakosz, 孤辰NULL, 汤人烂, 沅月弯刀, David, 年糕特工队












