Kashino‘s bikini (Azur Lane) | 樫野的泳装(碧蓝航线)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
カシノから白いビキニを借りました。
I took a white bikini from Kashino😋
2023.10.09:
より精密な制御のために、より多くのトリガー単語を使用する。
Use more trigger words for more precise control.
主要トリガー単語:
white choker,white_bikini_yz補助トリガー単語:
arm strap,see-through sleeves,thigh strap
略語について:
Bikini ≈ YongZhuang = YZ
学習データセット:
リピート数 = 2
クローズアップ = 10
人物肖像 = 10
上半身 = 10
カウボーイショット = 10
フルボディ = 5
座っている = 10
横になっている = 10
その他のポーズ = 5
その他の服 = 15
ヌード = 15
画像数 = 100
エポック数 = 13
#!/bin/bash
# LoRA train script by @Akegarasu
# Train data path | 訓練用モデル、画像の設定
pretrained_model="./sd-models/model.safetensors" # base model path | ベースモデルパス
is_v2_model=0 # SD2.0 model | SD2.0モデル 2.0モデル下 clip_skip デフォルト無効
parameterization=0 # parameterization | パラメータ化 本パラメータは V2 パラメータと連動して使用 必要に応じて実験的機能
train_data_dir="./train/clothes-kashino-yz" # train dataset path | 訓練データセットパス
reg_data_dir="" # directory for regularization images | 正則化画像データセットパス、デフォルトでは正則化画像を使用しない。
# Network settings | ネットワーク設定
network_module="networks.lora" # ここで訓練するネットワーク種類を設定、デフォルトは networks.lora すなわち LoRA 訓練。LyCORIS(LoCon、LoHa)などを訓練したい場合は、この値を lycoris.kohya に変更
network_weights="" # pretrained weights for LoRA network | 既存の LoRA モデルから継続して訓練したい場合は、LoRA モデルパスを記入
network_dim=32 # network dim | 一般的に 4~128、大きいほど良いとは限らない
network_alpha=16 # network alpha | 一般的に network_dim と同値、またはその半分程度の小さい値を採用。アンダーフローを防ぐ。デフォルト値は 1、小さい alpha を使用する場合は学習率を上げる必要あり。
# Train related params | 訓練関連パラメータ
resolution="768,768" # image resolution w,h. 画像解像度、幅,高さ。非正方形も可能だが、64 の倍数でなければならない。
batch_size=2 # バッチサイズ
max_train_epoches=20 # 最大訓練エポック数
save_every_n_epochs=1 # 毎 N エポックごとに保存
train_unet_only=0 # train U-Net only | U-Net のみ訓練、有効にすると効果が若干低下するがVRAM使用量が大幅に削減。6GB VRAMの場合有効に推奨
train_text_encoder_only=0 # train Text Encoder only | テキストエンコーダーのみ訓練
stop_text_encoder_training=0 # stop text encoder training | N ステップでテキストエンコーダーの訓練を停止
# ノイズ
noise_offset="0" # noise offset | 訓練中にノイズオフセットを追加し、非常に暗いまたは明るい画像の生成を改善。有効にする場合、推奨パラメータは0.1
keep_tokens=2 # keep heading N tokens when shuffling caption tokens | キャプショントークンをシャッフルする際、先頭の N 個のトークンを固定。
min_snr_gamma=0 # minimum signal-to-noise ratio (SNR) value for gamma-ray | ガンマ線イベントの最小信噪比(SNR)値 デフォルトは 0
multires_noise_iterations=6 # 多分解能(ピラミッド)ノイズ反復回数 推奨 6-10。noise_offset と併用不可。
multires_noise_discount=0.3 # 多分解能(ピラミッド)減衰率 推奨 0.3、上記 multires_noise_iterations と同時に有効にする必要あり。
# 学習率
lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" # 3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0 # warmup steps | 学習率ウォームアップステップ数、lr_scheduler が constant または adafactor の場合、この値は0に設定する必要あり。
lr_restart_cycles=1 # cosine_with_restarts restart cycles | コサイン再開始サイクル数、lr_scheduler が cosine_with_restarts のみ有効。
# 出力設定
output_name="clothes-kashino-yz" # output model name | モデル保存名
save_model_as="safetensors" # model save ext | モデル保存形式 ckpt, pt, safetensors
# 訓練状態の復元
save_state=0 # save state | 訓練状態を保存、ファイル名は <output_name>-??????-state ?????? はエポック数を表す
resume="" # resume from state | 特定の状態フォルダーから訓練を再開、上記パラメータと併用。規制ファイルの制限により、エポック数とグローバルステップ数は保存されず、復元時も1から始まる。network_weights の実装と一致しない。
# その他の設定
min_bucket_reso=256 # arb min resolution | arb 最小解像度
max_bucket_reso=1024 # arb max resolution | arb 最大解像度
persistent_data_loader_workers=0 # persistent dataloader workers | メモリ使用量が増える可能性があるため、訓練データローダーのワーカーを維持し、エポック間の停止を減らす
clip_skip=2 # clip skip | 玄学的設定、通常は2を使用
# 最適化器設定
optimizer_type="Lion" # Optimizer type | 最適化器の種類。デフォルトは AdamW8bit、選択可能:AdamW AdamW8bit Lion SGDNesterov SGDNesterov8bit DAdaptation AdaFactor
# LyCORIS 訓練設定
algo="lora" # LyCORIS network algo | LyCORIS ネットワークアルゴリズム。選択可能:lora、loha、lokr、ia3、dylora。lora は locon と同じ
conv_dim=4 # conv dim | network_dim に類似。推奨値は4
conv_alpha=4 # conv alpha | network_alpha に類似。conv_dim と同値またはそれより小さい値を採用
dropout="0" # dropout | dropout 率、0 は dropout 無効、値が大きいほど dropout が増え、推奨は 0~0.5。LoHa/LoKr/(IA)^3 は現在非対応。




