NoobAI Wendy (Wolfy-Nail)

詳細

ファイルをダウンロード

モデル説明

このモデルはWolfy-Nailのキャラクター「ウェンディ」を作成します

これは最近完了したバウンティの一部です。少し手が鈍っていたので、別のモデルを訓練したかっただけです。キャラクターを生成するだけでなく、他に何を言えばいいでしょうか。

トレーニング方法

データセットの収集

私はe6から以下のフィルターを使って9枚の良い画像を収集しました:

-long_image -animated solo -dialogue -comic -webm -multiple_versions -flash_game wendy_(wolfy-nail)

その後、LoRA(V2.3)のプロトタイプ版を使っていくつかの画像を生成・インペイントし、V3用のデータセットに追加しました。V3の総データセットは、中程度の品質のインスタンス画像13枚と、上記と同様のフィルターでe6から収集したウルフのクラスのレギュラーデータ13枚(wendy_(wolfy-nail)wolfに置き換え、order:favcountを追加して最もお気に入りが多い画像を取得)でした。これにより、高品質な投稿をトレーニングに使用できるようにしました。残念ながら、このレギュラーデータの選択プロセスで古いsnowskauの投稿が混入してしまい、snowskauをプロンプトに含めた場合、スタイルが現代のものではなく、古いsnowskauのスタイルにバイアスがかかっています。

ハードウェアとトレーニングパラメータ

トレーニングにはkohya sd-scriptsを使用し、各1000ステップ(バッチサイズ4で4,000サンプル)はRTX 4000 Ada SFFで約45分のGPU時間が必要でした。私は以前キャラクターLoRAを訓練したことがなかったため、異なるタグ付けやハイパーパラメータを試しながら、多数のトレーニング実行を行いました。その結果、最も優れたタグ付けは可能な限り詳細なものであることが判明しました(私はe6のタグといくつかの品質タグをそのまま使用)。キャプションタグドロップアウト(キャプションドロップアウトではありません)を有効にしました。また、小さなデータセットではデータリークが極めて望ましくないため、ゼロ終端SNRを使用しました。AdamWオプティマイザ、学習率3e-4、ネットワーク次元2、ネットワークアルファはネットワーク次元と一致、コサインスケジューラを使用しました。

この情報をモデルトレーナーへの注意喚起としてお伝えします。単一キャラクターLoRAに高ランクを必要とする理由は、過学習させたい場合だけです。特に小さなデータセットの場合、この傾向は顕著です。LoRAは「低ランク適応」を意味し、低ランクであるほど最も効率的な効果を発揮するように設計されています。小さなデータセットを持つ場合、ランクは低ければ低いほど望ましく、1や2でも驚くほど多くの状況で問題なく機能します。

このモデルで生成された画像

画像が見つかりません。