Furukawa Nagisa (CLANNAD) | 古河渚(CLANNAD)
详情
下载文件
关于此版本
模型描述
「もし、よろしければ… あなたを… あなたを、お連れしましょうか この町の願いが叶う場所に」
はじめに:
これは LoRAモデル訓練チュートリアル 用に公開されたLoRAのデモです。訓練プロジェクトはチュートリアル内で入手可能です。
初めてモデル訓練に関するチュートリアルを作成したため、誤りや改善点がありましたらご指摘いただけると幸いです。
2023.06.05:
ピラミッドノイズを使用し、画像品質の向上を実現。
Applying "Diffusion With Offset Noise" to enhance image quality.
秋服と夏服を追加しましたが、服装に若干の融合現象が発生し、類似衣装に対する汚染も不同程度に生じています。
Add autumn and summer school uniforms, with the cost of some blending effects on the uniforms, and varying degrees of contamination on similar outfits.
秋服を着ている人物を描きたい場合は、
yellow jacketやblue skirtなどの追加タグを付けて導出を促すように試みてください。If you want characters wearing autumn school uniforms, try adding additional tags such as
yellow jacketandblue skirtfor guidance.夏服を着ている人物を描きたい場合は、
white serafukuやsuspender skirtなどの追加タグを付けて導出を促すように試みてください。If you want characters wearing summer school uniforms, try adding additional tags such as
white serafukuandsuspender skirtfor guidance.
訓練データセット:
繰り返し回数 = 2
autumn_school_uniform = 60
summer_school_uniform = 60
other_clothes = 20
chibi = 5
doll_hug = 5
nsfw = 5
繰り返し回数 = 4
- doll_dango = 10
画像数 = 165
エポック数 = 17
#!/bin/bash
# LoRA train script by @Akegarasu
# Train data path | 訓練用モデル・画像のパス設定
pretrained_model="./sd-models/model.ckpt" # base model path | ベースモデルのパス
is_v2_model=0 # SD2.0 model | SD2.0モデルで、clip_skipのデフォルト値は無効になります
parameterization=0 # parameterization | パラメータ化 適切にV2モデルと合わせて使用が必要な実験的機能
train_data_dir="./train/furukawa-nagisa" # train dataset path | 訓練データセットのパス
reg_data_dir="" # directory for regularization images | 正則化画像のディレクトリ。デフォルトでは正則化画像を使用しない。
# Network settings | ネットワーク設定
network_module="networks.lora" # 訓練するネットワークの種類を指定。デフォルトでは networks.lora(LoRA訓練)。LyCORIS(LoCon、LoHa)などを使用する場合は、lycoris.kohyaに変更する
network_weights="" # pretrained weights for LoRA network | 既存のLoRAモデルから継続して訓練する場合、LoRAモデルのパスを指定する
network_dim=32 # network dim | 通常4~128。大きければ良いというわけではない
network_alpha=16 # network alpha | network_dimと同程度の値や、半分程度の値(下限防止のため)。デフォルトは1。小さいalphaを使用する場合、学習率を上げる必要あり
# Train related params | 訓練関連パラメータ
resolution="768,768" # image resolution w,h. 画像の解像度。幅,高さ。正方形でなくても可。64の倍数である必要あり。
batch_size=2 # バッチサイズ
max_train_epoches=20 # 最大訓練エポック数
save_every_n_epochs=1 # nエポックごとに保存
train_unet_only=0 # U-Netのみを訓練 | U-Netのみ訓練の場合は、効果が低下するがメモリ使用量を著しく削減可能(6GBメモリでも使用可能)
train_text_encoder_only=0 # テキストエンコーダーのみを訓練
stop_text_encoder_training=0 # Nステップ目でテキストエンコーダーの訓練を停止
# ノイズ
noise_offset="0" # noise offset | 生成画像が極端に暗くまたは明るくならないようにノイズにオフセットを加える。有効にすると、0.1が推奨値
keep_tokens=2 # capionトークンをシャッフルする際、先頭N個のトークンをそのまま保持
min_snr_gamma=0 # minimum signal-to-noise ratio (SNR) value for gamma-ray | ガンマ線事象の最小SNR値。デフォルトは0
multires_noise_iterations=6 # 多解像度(ピラミッド)ノイズの反復回数。推奨値は6~10。noise_offsetと同時に使用不可。
multires_noise_discount=0.3 # 多解像度(ピラミッド)ノイズの減衰率。推奨値は0.3。上記のmultires_noise_iterationsと併用する必要あり。
# 学習率
lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" # 3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0 # warmup steps | 学習率のウォームアップステップ数。lr_schedulerがconstantまたはadafactorの場合、この値は0に設定する必要あり。
lr_restart_cycles=1 # cosine_with_restartsの再起動サイクル数。lr_schedulerがcosine_with_restartsの場合のみ有効。
# 出力設定
output_name="furukawa-nagisa" # 出力モデル名
save_model_as="safetensors" # モデル保存形式 ckpt, pt, safetensors
# 訓練の再開設定
save_state=0 # 訓練状態を保存 | 名前は <output_name>-??????-state。??????はエポック数を表す。stateファイルは、epochやグローバルステップ数は保存されないため、再開時も1から開始される。network_weightsとの実装は整合しない点がある。
resume="" # 指定した状態ファイルから再開 | 上記save_stateと併用する必要あり。ファイルシステム制約によりepoch数とグローバルステップ数は保存されないため、再開後も1から始まる。
# その他の設定
min_bucket_reso=256 # arb 最小解像度
max_bucket_reso=1024 # arb 最大解像度
persistent_data_loader_workers=0 # データローダーのワーカーを保持 | メモリオーバーになりやすい。訓練データをロードするワーカーを維持することで、エポック間の待機時間を削減
clip_skip=2 # clip skip | 画期的な設定。通常は2が推奨
# 最適化手法設定
optimizer_type="Lion" # 最適化手法 | デフォルトは AdamW8bit。選択可能: AdamW, AdamW8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation, AdaFactor
# LyCORIS 訓練設定
algo="lora" # LyCORIS network algo | LyCORISネットワークアルゴリズム。選択可能: lora、loha、lokr、ia3、dylora。loraはloconと同じ
conv_dim=4 # conv dim | network_dimに似たパラメータ。推奨値は4
conv_alpha=4 # conv alpha | network_alphaに似たパラメータ。conv_dimと同程度またはそれ以下の値を設定可能
dropout="0" # dropout | dropout確率。0はdropoutを使わない。値が大きいほどdropout率が高くなる。推奨範囲は0~0.5。LoHa/LoKr/(IA)^3は現在サポートされていない。










