Formidable (Azur Lane) | 可畏(碧蓝航线)
详情
下载文件
关于此版本
模型描述
2023.05.30:
使用金字塔噪声,增加图像质量。
Applying "Diffusion With Offset Noise" to enhance image quality.
尝试加强腰部附着物的拟合程度,代价是没有头部的图像出现概率变大。
Attempting to improve the fit of waist attachments, at the cost of increased probability of images without heads.
如果出现没有头部的图像,请尝试在负面提示词添加
lower body。If images without heads occur, please try adding 'lower body' to the negative prompt.
2023.04.22:
重新校对文本集,提示词的准确有所上升。
Reviewed the text dataset again, and the accuracy of prompt words has improved.
增加训练步数,提升拟合程度。
Increased the number of training steps to improve the fitting level.
2023.04.13:
这是我第一次进行LoRA训练,出现问题的地方我未必知道如何解决。
This is my first time training with LoRA, and there may be issues that I am not sure how to solve.
大就是好。
bigger is better.
🥵
训练数据集:
重复次数 = 2
近景 = 10
人像 = 10
上半身 = 10
下半身 = 10
牛仔镜头 = 10
全身 = 10
姿势 = 15
其他服装 = 10
腰部装饰 = 10
重复次数 = 4
不适宜工作场所内容(NSFW) = 30
ちび(Q版) = 5
图片数量 = 130
训练轮次 = 19
#!/bin/bash
# LoRA 训练脚本 by @Akegarasu
# 训练数据路径 | 设置训练用模型、图片
pretrained_model="./sd-models/model.ckpt" # 基础模型路径
is_v2_model=0 # SD2.0 模型 2.0 模型下 clip_skip 默认无效
parameterization=0 # 参数化 本参数需要和 V2 参数同步使用 实验性功能
train_data_dir="./train/1.formidable-default" # 训练数据集路径
reg_data_dir="" # 正则化图像路径,默认不使用正则化图像。
# 网络设置
network_module="networks.lora" # 这里将设置训练的网络类型,默认为 networks.lora 也就是 LoRA 训练。若要训练 LyCORIS(LoCon、LoHa)等,请将此项改为 lycoris.kohya
network_weights="" # LoRA 网络预训练权重 若需从已有 LoRA 模型继续训练,请填写 LoRA 模型路径。
network_dim=32 # 网络维度 常用 4~128,不是越大越好
network_alpha=16 # 网络 alpha 常用与 network_dim 相同的值或较小的值(如 network_dim 的一半),以防止下溢。默认值为 1,使用较小的 alpha 需提高学习率。
# 训练相关参数
resolution="768,768" # 图像分辨率 宽,高 支持非正方形,但必须是 64 的倍数
batch_size=2 # 批次大小
max_train_epoches=20 # 最大训练轮次
save_every_n_epochs=1 # 每 N 个轮次保存一次
train_unet_only=0 # 仅训练 U-Net 开启此选项会大幅减少显存使用但牺牲效果 6G 显存可开启
train_text_encoder_only=0 # 仅训练文本编码器
stop_text_encoder_training=0 # 在第 N 步时停止训练文本编码器
# 噪音
noise_offset="0" # 在训练中添加噪声偏移以改善生成极端暗或极端亮图像的问题 若启用推荐值为 0.1
keep_tokens=2 # 在随机打乱 caption tokens 时保留前 N 个 token 不变
min_snr_gamma=0 # 伽马射线事件的最小信噪比(SNR)值 默认为 0
# 金字塔噪声
multires_noise_iterations=6 # 多分辨率(金字塔)噪声迭代次数 推荐 6-10 无法与 noise_offset 同时启用
multires_noise_discount=0.3 # 多分辨率(金字塔)衰减率 推荐 0.3 必须与上方的 multires_noise_iterations 一同启用
# 学习率
lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" # 3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0 # 学习率预热步数 当 lr_scheduler 为 constant 或 adafactor 时此值必须设为 0
lr_restart_cycles=1 # 余弦退火重启次数 仅在 lr_scheduler 为 cosine_with_restarts 时生效
# 输出设置
output_name="1.formidable-default" # 输出模型名称
save_model_as="safetensors" # 模型保存格式 ckpt, pt, safetensors
# 恢复训练设置
save_state=0 # 保存训练状态 文件名类似 <output_name>-??????-state ?????? 表示轮次数
resume="" # 从某状态文件夹中恢复训练 需与上方参数配合使用 由于规范文件限制 轮次数和全局步数不会保存 即使恢复时仍从 1 开始 与 network_weights 的具体实现不一致
# 其他设置
min_bucket_reso=256 # arb 最小分辨率
max_bucket_reso=1024 # arb 最大分辨率
persistent_data_loader_workers=0 # 保留数据加载 worker 避免内存溢出 减少每轮训练间的停顿
clip_skip=2 # clip 跳过层数 玄学 一般使用 2
# 优化器设置
optimizer_type="Lion" # 优化器类型 默认为 AdamW8bit 可选:AdamW AdamW8bit Lion SGDNesterov SGDNesterov8bit DAdaptation AdaFactor
# LyCORIS 训练设置
algo="lora" # LyCORIS 网络算法 可选 lora、loha、lokr、ia3、dylora。lora 即为 locon
conv_dim=4 # 卷积维度 类似于 network_dim 推荐为 4
conv_alpha=4 # 卷积 alpha 类似于 network_alpha 可设为与 conv_dim 相同或更小的值
dropout="0" # dropout 概率 0 表示不使用 dropout 值越大 dropout 越多 推荐 0~0.5 LoHa/LoKr/(IA)^3 暂时不支持











