Furukawa Nagisa (CLANNAD) | 古河渚(CLANNAD)

詳細

ファイルをダウンロード

モデル説明

「もし、よろしければ… あなたを… あなたを、この町の願いが叶う場所へお連れしましょうか」

はじめに:

本LoRAは、LoRAモデル訓練チュートリアルのために作成されたデモ用LoRAです。訓練プロジェクトの詳細はチュートリアルにて入手可能です。

初めてモデル訓練に関するチュートリアルを作成したため、誤りや改善点がありましたら、ぜひご指摘ください。

2023.06.05:

  • 金字塔ノイズを採用し、画像品質を向上。

  • Applying "Diffusion With Offset Noise" to enhance image quality.

  • 秋服と夏服の衣装を追加。ただし、衣装に若干の融合現象が発生し、類似衣装に対して不同程度の汚染が生じる場合があります。

  • Add autumn and summer school uniforms, with the cost of some blending effects on the uniforms, and varying degrees of contamination on similar outfits.

  • 秋服を着たい場合、yellow jacketblue skirtなど追加タグを付与してガイドしてみてください。

  • If you want characters wearing autumn school uniforms, try adding additional tags such as yellow jacket and blue skirt for guidance.

  • 夏服を着たい場合、white serafukususpender skirtなど追加タグを付与してガイドしてみてください。

  • If you want characters wearing summer school uniforms, try adding additional tags such as white serafuku and suspender skirt for guidance.

訓練データセット:

  • number of repeats = 2

    • autumn_school_uniform = 60

    • summer_school_uniform = 60

    • other_clothes = 20

    • chibi = 5

    • doll_hug = 5

    • nsfw = 5

  • number of repeats = 4

    • doll_dango = 10
  • number of images = 165

  • number of epochs = 17

#!/bin/bash
# LoRA train script by @Akegarasu
​
# Train data path | 訓練用モデル・画像の設定
pretrained_model="./sd-models/model.ckpt" # base model path | コアモデルパス
is_v2_model=0                             # SD2.0 model | SD2.0モデル 2.0モデルではclip_skipのデフォルト値は無効
parameterization=0                        # parameterization | パラメータ化 本パラメータはV2モデルと同期して使用する必要があり、実験的な機能です
train_data_dir="./train/furukawa-nagisa"  # train dataset path | 訓練データセットのパス
reg_data_dir=""                           # directory for regularization images | 正則化画像のディレクトリ。デフォルトで正則化画像は使用しない。
​
# Network settings | ネットワーク設定
network_module="networks.lora" # 訓練するネットワークの種類を指定。デフォルトはnetworks.lora(LoRA)です。LyCORIS(LoCon、LoHa)などを訓練する場合、「lycoris.kohya」に変更してください。
network_weights=""             # pretrained weights for LoRA network | 既存のLoRAモデルから継続して訓練する場合、LoRAモデルのパスを記入してください。
network_dim=32                 # network dim | 一般的に4~128を使用。値が大きいほど良いというわけではありません
network_alpha=16               # network alpha | 常にnetwork_dimと同等、またはその半分程度の値を使用するのが一般的。下位桁の誤差を避けるため小さい値を推奨。デフォルトは1。小さいalpha値を使う場合は、学習率を上げる必要があります。
​
# Train related params | 訓練関連パラメータ
resolution="768,768"  # image resolution w,h. 画像解像度、幅,高さ。正方形でなくても可だが、64の倍数でなければならない。
batch_size=2          # batch size
max_train_epoches=20  # max train epoches | 最大トレーニングエポック数
save_every_n_epochs=1 # save every n epochs | Nエポックごとに保存
​
train_unet_only=0            # train U-Net only | U-Netのみをトレーニング。有効化すると品質は低下するが、GPUメモリ使用量が大幅に削減可能。6GB GPUでも利用可能。
train_text_encoder_only=0    # train Text Encoder only | テキストエンコーダーのみをトレーニング
stop_text_encoder_training=0 # stop text encoder training | Nステップ目でテキストエンコーダーのトレーニングを停止

# ノイズ関連
noise_offset="0" # noise offset | 生成の際、極端に暗い・明るい画像を改善するためのノイズオフセットを追加。有効化する場合、0.1が推奨値。
keep_tokens=2    # keep heading N tokens when shuffling caption tokens | キャプショントークンをシャッフルする際に、先頭N個を固定する。
min_snr_gamma=0  # minimum signal-to-noise ratio (SNR) value for gamma-ray | ガンマ線イベントの最小信号対ノイズ比(SNR)。デフォルトは0。
​
multires_noise_iterations=6 # 多解像度(金字塔)ノイズの反復回数。推奨6~10。noise_offsetと併用不可。
multires_noise_discount=0.3 # 多解像度(金字塔)ノイズの減衰率。推奨0.3。上記のmultires_noise_iterationsと同時に有効にすること。
​
# 学習率 | Learning rate
lr="3.5e-5"            # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5"       # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" #   3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0                   # warmup steps | 学習率ウォームアップステップ数。lr_schedulerがconstantまたはadafactorの場合、この値は0に設定する必要があります。
lr_restart_cycles=1                 # cosine_with_restarts restart cycles | 余弦スケジューリングの再起動周期。lr_schedulerがcosine_with_restartsの場合にのみ有効。
​
# 出力設定 | Output settings
output_name="furukawa-nagisa" # output model name | モデル保存名
save_model_as="safetensors"   # model save ext | モデル保存形式。ckpt, pt, safetensorsから選択可能
​
# トレーニング再開設定 | Resume training state
save_state=0 # save state | トレーニング状態の保存。ファイル名は<output_name>-??????-stateの形式。??????はエポック数を示す。学習状態は保存されるが、エポック数やグローバルステップは実装上保存されないため、再開時も1からカウント開始。
resume=""    # resume from state | 保存された状態フォルダからトレーニング再開。上記のsave_stateと併用。network_weightsとは異なる挙動を示すため注意。
​
# その他の設定
min_bucket_reso=256              # arb min resolution | arbの最小解像度
max_bucket_reso=1024             # arb max resolution | arbの最大解像度
persistent_data_loader_workers=0 # persistent dataloader workers | メモリを消費しやすく、データローダーのワーカーを保持することで、エポック間の待機時間を削減できる
clip_skip=2                      # clip skip | 神秘的。一般的に2がよく使われる
​
# 最適化アルゴリズム設定
optimizer_type="Lion" # Optimizer type | 最適化手法。デフォルトはAdamW8bit。他の選択肢:AdamW、AdamW8bit、Lion、SGDNesterov、SGDNesterov8bit、DAdaptation、AdaFactor
​
# LyCORIS 訓練設定
algo="lora"  # LyCORIS network algo | LyCORISネットワークアルゴリズム。lora、loha、lokr、ia3、dyloraのいずれかを選択可能。loraはloconと同じ
conv_dim=4   # conv dim | network_dimに類似。推奨値4
conv_alpha=4 # conv alpha | network_alphaに類似。conv_dimと同じ値またはそれ以下の値を推奨
dropout="0"  # dropout | Dropout確率。0は使用しない。値が大きいほどDropout率も高くなる。推奨0~0.5。LoHa/LoKr/(IA)^3は現時点では未対応。

このモデルで生成された画像

画像が見つかりません。