AnyNoobAI(for LoRA Training)

详情

模型描述

用于LoRA训练的修改版NoobAI-XL。

它减少了非预期的风格变化。

此模型不适用于图像生成。

推荐的字符/概念(sd-scripts)训练参数:

批量大小:2
分辨率:1024
启用长宽比分桶:是
最小/最大分桶分辨率:512/2048
维度(Rank):4-16
Alpha:维度 × 0.25
优化器:RAdamScheduleFree(LR=0.0004)或 CAME(LR=8E-05)
训练步数:1000-1400
训练Conv2d:否
FP8基础模型:是(适用于<12GB显存)

请勿使用:
--noise_offset, --zero_terminal_snr

必需参数(仅v-prediction):
--v_parameterization

注意:
Civitai的在线训练器不支持v-prediction。

这是用于LoRA训练的NoobAI-XL。

它减轻了非预期的画风变化,提高了精度。

使用此模型制作LoRA时,请勿使用 --noise_offset--zero_terminal_snr

若使用v-prediction版本制作LoRA,请设置 --v_parameterization

此外,由于已消除noise offset的影响,不推荐用于模型合并用途。

若使用成分较淡的NoobAI-XL合并模型,LoRA的效果会减弱。

若计划在copycat或paruparu等NoobAI-XL成分较淡的checkpoint上使用,建议改用AnyIllustrious进行训练。

原理尚不明确,但推测是通过使画风趋近平均值并提高多样性,从而吸收了数据集中的画风。通过禁用Zero Terminal SNR,已确认精度有所提升。

训练信息:

通过sd-scripts重复两次DoRA训练与合并,对NoobAI-XL进行了微调。

数据集信息:

数据集大小:来自Gelbooru的5120张图像
于2024年9月4日从Gelbooru按最新顺序收集了5120张图像进行训练。

以下包含指定标签或满足条件的图像已被排除:
filetype:gif, score:<0, mpixels:<1048576, tagcount:<16, \*_artifacts, adversarial_noise, greyscale, monochrome, digimon, photophop_(meidum), ai-generated, duplicate, bad_\*, off-topic, cropped, resized, reversed, rotated, third-party_edit, screenshot, tagme, real_life, watermark, 3d, koikatsu_(medium), mikumikudance, twitter_username

训练脚本(源代码):

sd-scripts

注意/公告:

本模型依据Fair AI Public License 1.0-SD(https://freedevproject.org/faipl-1.0-sd/)授权。
若您修改本模型,必须同时公开您的修改内容及原始许可证。

本模型采用Fair AI Public License 1.0-SD(https://freedevproject.org/faipl-1.0-sd/)授权。
如对本模型进行修改,必须明确标注修改内容及原始许可证。

此模型生成的图像

未找到图像。