TBLOPonyXL

详情

下载文件

模型描述

懂的都懂,和我同龄。可惜如今很多网站都成了死链,但还残留一些痕迹。

这个项目用了大量的色情内容——超过2000张图片,经过裁剪(1024x1024)和超分辨率放大(我在WebUI的“额外”标签页中使用了4x_NMKD-UltraYandere_300k,批量从目录加载),上传到Drive,然后通过数据集生成器处理(https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Dataset_Maker.ipynb),再送入XL训练器(https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer_XL.ipynb),10小时后(总计),搞定!

如果你想制作类似质量的模型,并且有能力支付Colab Pro/积分,流程其实很简单:

数据集生成器设置

项目名称 — 给你的项目命名(你可以在上传到Drive文件夹前运行这一步,它会自动创建所需路径;否则你也可以提前用相同的路径结构上传数据集)

跳过第4步 — 为图片打标签

方法:动漫标签(照片描述也能出结果,但为了生成效果,我发现动漫标签列表风格更能带来创意成果)

标签阈值:0.25

黑名单标签:你不想包含的标签(例如:loli、child、shota等)

描述最小长度:25

描述最大长度:350

全局激活标签:我一般只用LoRA的名称来简化,如果是训练风格,则留空

移除标签:在运行第4步后,你可以查看最常见的标签,并在此步骤移除你不需要的——有时会出现你没想到的、或无关的内容(例如:马赛克遮挡、眼下的痣等)

训练你的LoRA:你可以点击链接,但最终你仍需跳转到XL训练器,否则会直接带你到Hollowstrawberry的普通SD LoRA训练器

XL训练器设置

项目名称

训练模型:Pony Diffusion V6 XL

加载diffusers:x

打乱标签:x

激活标签:1(如果你在数据集生成器中用了激活标签,我只会用1或0)

重复次数:图片多时用1,少于500张时用2,但通常都用1

轮数(epochs):8(6-8轮效果一直很好;如果图片极少,我可能改用2700-3200步,但通常8轮就够了)

每n轮保存一次:1

仅保留最后n轮:1

Unet学习率:1e-4

Text Encoder学习率:0.5e-2(如果是无文本文件和激活标签的风格,设为0)

学习率调度器:constant(恒定)

学习率调度器数值:无关紧要,因为是“constant”

Warmup:0.05

最小SNR gamma:5

LoRA类型:LoRA

网络维度(dim):22-26

网络Alpha:11-13(dim的一半)

Conv:LoRA下无关,勿改

训练批次大小:6-8

交叉注意力:sdpa

混合精度:bf16(我连接A100是因为Colab Pro)

缓存潜在变量:x

将缓存潜在变量保存到Drive:x

优化器:Prodigy

优化器参数:decouple=True weight_decay=0.01 betas=[0.9,0.999] d_coef=2 use_bias_correction=True safeguard_warmup=True

推荐的Prodigy数值:x(这会覆盖上面的行,但如果你不修改,它就不会运行)

运行并从Drive下载最终文件

可能还有其他设置能用,但除了这个拥有数千张图片的项目外,我大多数LoRA训练都在30分钟内完成。之后我会测试,如果觉得效果不错,就上传。

我应该想想怎么靠这个赚钱,但目前先享受免费的吧。既然你现在已经知道怎么做了,如果不喜欢我上传的内容,你完全可以自己制作喜欢的风格。

此模型生成的图像

未找到图像。