Furukawa Nagisa (CLANNAD) | 古河渚(CLANNAD)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
「もし、よろしければ… あなたを… あなたを、この町の願いが叶う場所へお連れしましょうか」
はじめに:
本LoRAは、LoRAモデル訓練チュートリアルのために作成されたデモ用LoRAです。訓練プロジェクトの詳細はチュートリアルにて入手可能です。
初めてモデル訓練に関するチュートリアルを作成したため、誤りや改善点がありましたら、ぜひご指摘ください。
2023.06.05:
金字塔ノイズを採用し、画像品質を向上。
Applying "Diffusion With Offset Noise" to enhance image quality.
秋服と夏服の衣装を追加。ただし、衣装に若干の融合現象が発生し、類似衣装に対して不同程度の汚染が生じる場合があります。
Add autumn and summer school uniforms, with the cost of some blending effects on the uniforms, and varying degrees of contamination on similar outfits.
秋服を着たい場合、
yellow jacket、blue skirtなど追加タグを付与してガイドしてみてください。If you want characters wearing autumn school uniforms, try adding additional tags such as
yellow jacketandblue skirtfor guidance.夏服を着たい場合、
white serafuku、suspender skirtなど追加タグを付与してガイドしてみてください。If you want characters wearing summer school uniforms, try adding additional tags such as
white serafukuandsuspender skirtfor guidance.
訓練データセット:
number of repeats = 2
autumn_school_uniform = 60
summer_school_uniform = 60
other_clothes = 20
chibi = 5
doll_hug = 5
nsfw = 5
number of repeats = 4
- doll_dango = 10
number of images = 165
number of epochs = 17
#!/bin/bash
# LoRA train script by @Akegarasu
# Train data path | 訓練用モデル・画像の設定
pretrained_model="./sd-models/model.ckpt" # base model path | コアモデルパス
is_v2_model=0 # SD2.0 model | SD2.0モデル 2.0モデルではclip_skipのデフォルト値は無効
parameterization=0 # parameterization | パラメータ化 本パラメータはV2モデルと同期して使用する必要があり、実験的な機能です
train_data_dir="./train/furukawa-nagisa" # train dataset path | 訓練データセットのパス
reg_data_dir="" # directory for regularization images | 正則化画像のディレクトリ。デフォルトで正則化画像は使用しない。
# Network settings | ネットワーク設定
network_module="networks.lora" # 訓練するネットワークの種類を指定。デフォルトはnetworks.lora(LoRA)です。LyCORIS(LoCon、LoHa)などを訓練する場合、「lycoris.kohya」に変更してください。
network_weights="" # pretrained weights for LoRA network | 既存のLoRAモデルから継続して訓練する場合、LoRAモデルのパスを記入してください。
network_dim=32 # network dim | 一般的に4~128を使用。値が大きいほど良いというわけではありません
network_alpha=16 # network alpha | 常にnetwork_dimと同等、またはその半分程度の値を使用するのが一般的。下位桁の誤差を避けるため小さい値を推奨。デフォルトは1。小さいalpha値を使う場合は、学習率を上げる必要があります。
# Train related params | 訓練関連パラメータ
resolution="768,768" # image resolution w,h. 画像解像度、幅,高さ。正方形でなくても可だが、64の倍数でなければならない。
batch_size=2 # batch size
max_train_epoches=20 # max train epoches | 最大トレーニングエポック数
save_every_n_epochs=1 # save every n epochs | Nエポックごとに保存
train_unet_only=0 # train U-Net only | U-Netのみをトレーニング。有効化すると品質は低下するが、GPUメモリ使用量が大幅に削減可能。6GB GPUでも利用可能。
train_text_encoder_only=0 # train Text Encoder only | テキストエンコーダーのみをトレーニング
stop_text_encoder_training=0 # stop text encoder training | Nステップ目でテキストエンコーダーのトレーニングを停止
# ノイズ関連
noise_offset="0" # noise offset | 生成の際、極端に暗い・明るい画像を改善するためのノイズオフセットを追加。有効化する場合、0.1が推奨値。
keep_tokens=2 # keep heading N tokens when shuffling caption tokens | キャプショントークンをシャッフルする際に、先頭N個を固定する。
min_snr_gamma=0 # minimum signal-to-noise ratio (SNR) value for gamma-ray | ガンマ線イベントの最小信号対ノイズ比(SNR)。デフォルトは0。
multires_noise_iterations=6 # 多解像度(金字塔)ノイズの反復回数。推奨6~10。noise_offsetと併用不可。
multires_noise_discount=0.3 # 多解像度(金字塔)ノイズの減衰率。推奨0.3。上記のmultires_noise_iterationsと同時に有効にすること。
# 学習率 | Learning rate
lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" # 3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0 # warmup steps | 学習率ウォームアップステップ数。lr_schedulerがconstantまたはadafactorの場合、この値は0に設定する必要があります。
lr_restart_cycles=1 # cosine_with_restarts restart cycles | 余弦スケジューリングの再起動周期。lr_schedulerがcosine_with_restartsの場合にのみ有効。
# 出力設定 | Output settings
output_name="furukawa-nagisa" # output model name | モデル保存名
save_model_as="safetensors" # model save ext | モデル保存形式。ckpt, pt, safetensorsから選択可能
# トレーニング再開設定 | Resume training state
save_state=0 # save state | トレーニング状態の保存。ファイル名は<output_name>-??????-stateの形式。??????はエポック数を示す。学習状態は保存されるが、エポック数やグローバルステップは実装上保存されないため、再開時も1からカウント開始。
resume="" # resume from state | 保存された状態フォルダからトレーニング再開。上記のsave_stateと併用。network_weightsとは異なる挙動を示すため注意。
# その他の設定
min_bucket_reso=256 # arb min resolution | arbの最小解像度
max_bucket_reso=1024 # arb max resolution | arbの最大解像度
persistent_data_loader_workers=0 # persistent dataloader workers | メモリを消費しやすく、データローダーのワーカーを保持することで、エポック間の待機時間を削減できる
clip_skip=2 # clip skip | 神秘的。一般的に2がよく使われる
# 最適化アルゴリズム設定
optimizer_type="Lion" # Optimizer type | 最適化手法。デフォルトはAdamW8bit。他の選択肢:AdamW、AdamW8bit、Lion、SGDNesterov、SGDNesterov8bit、DAdaptation、AdaFactor
# LyCORIS 訓練設定
algo="lora" # LyCORIS network algo | LyCORISネットワークアルゴリズム。lora、loha、lokr、ia3、dyloraのいずれかを選択可能。loraはloconと同じ
conv_dim=4 # conv dim | network_dimに類似。推奨値4
conv_alpha=4 # conv alpha | network_alphaに類似。conv_dimと同じ値またはそれ以下の値を推奨
dropout="0" # dropout | Dropout確率。0は使用しない。値が大きいほどDropout率も高くなる。推奨0~0.5。LoHa/LoKr/(IA)^3は現時点では未対応。










