Formidable (Azur Lane) | 可畏(碧蓝航线)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
2023.05.30:
金字塔ノイズを採用し、画像の品質を向上。
「Offset Noiseを用いたDiffusion」を適用して画像品質を向上。
腰周りの装飾品のフィット感を強化しようと試みたが、頭部のない画像が出現する確率が増加した。
腰周りの装飾品のフィット感を強化しようと試みたが、頭部のない画像が出現する確率が増加した。
頭部のない画像が生成された場合は、ネガティブプロンプトに
lower bodyを追加してみてください。頭部のない画像が生成された場合は、ネガティブプロンプトに
lower bodyを追加してみてください。
2023.04.22:
テキストデータセットを再確認し、プロンプトの正確さが向上した。
テキストデータセットを再確認し、プロンプトの正確さが向上した。
学習ステップ数を増加させ、フィットの程度を向上。
学習ステップ数を増加させ、フィットの程度を向上。
2023.04.13:
これは私が初めてLoRAを訓練するものであり、問題が発生した場所がどう解決すべきか分からない場合がある。
これは私が初めてLoRAを訓練するものであり、問題が発生した場所がどう解決すべきか分からない場合がある。
大きいほど良い。
bigger is better.
🥵
訓練データセット:
リピート回数 = 2
クローズアップ = 10
ポートレート = 10
上半身 = 10
下半身 = 10
コウバーロットショット = 10
全身 = 10
ポーズ = 15
その他の衣装 = 10
装飾付きウエスト = 10
リピート回数 = 4
NSFW = 30
チビ = 5
画像数 = 130
エポック数 = 19
#!/bin/bash
# LoRA train script by @Akegarasu
# 訓練データパス | 訓練用モデル・画像の設定
pretrained_model="./sd-models/model.ckpt" # ベースモデルパス
is_v2_model=0 # SD2.0モデル | SD2.0モデル 2.0モデルではclip_skipのデフォルト値は無効
parameterization=0 # パラメータ化 | 本パラメータはV2用と同期させる必要あり。実験的機能
train_data_dir="./train/1.formidable-default" # 訓練データセットのパス
reg_data_dir="" # 正則化画像のディレクトリ | 正則化画像を使用しない場合、デフォルトでは空
# ネットワーク設定
network_module="networks.lora" # 訓練するネットワーク種別を指定。デフォルトはnetworks.lora(LoRA訓練)。LyCORIS(LoCon、LoHaなど)を使用する場合は、laih.co.kohyaへ変更。
network_weights="" # LoRAネットワークの事前学習済み重み。既存のLoRAモデルから継続学習する場合に、LoRAモデルのパスを入力。
network_dim=32 # ネットワーク次元 | 一般的に4~128。大きすぎると逆効果。
network_alpha=16 # ネットワークalpha値 | network_dimと同等、あるいはその半分程度の値が推奨。過小になると下位限界を逸脱する可能性がある。デフォルトは1。小さいalpha値は学習率の増加が必要。
# 訓練関連パラメータ
resolution="768,768" # 画像解像度 w,h。画像の幅と高さ。非正方形も可能だが、64の倍数である必要があります。
batch_size=2 # バッチサイズ
max_train_epoches=20 # 最大訓練エポック数
save_every_n_epochs=1 # Nエポックごとに保存
train_unet_only=0 # U-Netのみ訓練 | U-Netのみを訓練。効果は低下するがVRAM使用量は大幅に削減可能(6GB VRAMでも可能)
train_text_encoder_only=0 # テキストエンコーダーのみ訓練
stop_text_encoder_training=0 # 第Nステップでテキストエンコーダーの訓練を停止
# ノイズ
noise_offset="0" # ノイズオフセット | 生成画像が極端に暗く、または明るくなるのを緩和するため、トレーニング中にノイズオフセットを加える。有効化した場合、0.1が推奨値。
keep_tokens=2 # トークンシャッフル時に先頭のNトークンを維持
min_snr_gamma=0 # ガンマ線の最小信号対雑音比(SNR)値 | デフォルトは0
# 金字塔ノイズ
multires_noise_iterations=6 # 多倍率(金字塔)ノイズの反復回数 | 推奨値は6~10。noise_offsetと同時に有効化できない。
multires_noise_discount=0.3 # 多倍率(金字塔)ノイズの減衰率 | 推奨値は0.3。上記のmultires_noise_iterationsと同時に有効化する必要あり。
# 学習率
lr="3.5e-5" # 3.5e-5 = 3.5*10^(-5) = 0.000035
unet_lr="3.5e-5" # 3.5e-5 = 3.5*10^(-5) = 0.000035
text_encoder_lr="3e-6" # 3e-6 = 3.0*10^(-6) = 0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0 # ワームアップステップ数 | lr_schedulerがconstantまたはadafactorの場合、この値は0に設定する必要がある。
lr_restart_cycles=1 # cosine_with_restartsのリスタートサイクル数 | lr_schedulerがcosine_with_restartsの場合にのみ効果がある。
# 出力設定
output_name="1.formidable-default" # 出力モデル名
save_model_as="safetensors" # モデル保存形式 | ckpt, pt, safetensors
# 訓練再開設定
save_state=0 # 訓練状態の保存 | <output_name>-??????-state。??????はエポック数を示す。状態ファイルはエポック数とグローバルステップは保存されない(再開時も1から再開始)
resume="" # 状態ファイルから再開 | 上記のsave_stateと併用。ファイル規約によりエポック数とグローバルステップは保存されないため、再開時も1から開始される。network_weightsとは異なる挙動となる。
# その他の設定
min_bucket_reso=256 # arbの最小解像度
max_bucket_reso=1024 # arbの最大解像度
persistent_data_loader_workers=0 # 一時的なデータローダーのワーカー。メモリ爆発しやすいが、エポック間の遅延を減らすためにロードワーカーを維持。
clip_skip=2 # clip_skip | 玄学的要素。一般的に2が推奨。
# 最適化器設定
optimizer_type="Lion" # 最適化器タイプ | デフォルトはAdamW8bit。選択可能: AdamW, AdamW8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation, AdaFactor
# LyCORIS訓練設定
algo="lora" # LyCORISネットワークアルゴリズム | lora, loha, lokr, ia3, dylora。loraはloconと等価。
conv_dim=4 # conv dim | network_dimに類似。4が推奨。
conv_alpha=4 # conv alpha | network_alphaに類似。conv_dimと同じ値や、それ以下の値が推奨。
dropout="0" # dropout | dropout確率。0は非使用。値が大きいほどdropoutが多くなる。推奨値は0~0.5。LoHa/LoKr/(IA)^3は現在未対応。











