Easy LoRA Trainer
詳細
ファイルをダウンロード
モデル説明
シンプルで迅速なLoRAトレーナー設定です。512pxの画像でバッチサイズ1、5分間学習したところ、1イテレーション/秒の速度を得られました。非常に高速です。
flux1_devFP8Kijai11GB.safetensors および通常の flux1-dev.safetensors モデルの両方を使用できます。
flux1-dev は若干高速ですが、読み込みに少し時間がかかります。VRAM使用量は同じで、約16.3GBです。HighVramをfalseに設定しても、この点では変化はありません。
「Split Mode」を「true」に設定すると、24GBの最大41%、つまり約10GBのVRAMを使用します。
VRAMが16GB未満の場合にのみ使用してください。16GBある場合は、「false」を先に試し、OOMが発生するか確認してください。この例では、「true」に設定すると学習時間が20分から110分になります。
ComfyUIマネージャー(欠落しているノード)で見つかる3つのカスタムノードを作成しました。
Layer1とLayer2を分けて、特定のブロック単位で学習できます。
バリデーションプレビューとロスを追加し、プレビューと学習引数を宛先フォルダに保存します。
512解像度で600ステップの学習には、15分かかりました。



