mania - concept trained without data (local install tutorial - technical)

詳細

ファイルをダウンロード

モデル説明

2000ステップで訓練されたもの:"#:0.41|~maniacal laughter:0.2|^maniacal laughter:0.05" https://github.com/ntc-ai/conceptmod を使用

lora値が 0.0 から 1.8 のアニメーション。すべての例でトリガー文として「maniacal laughter」を使用。

言葉は忘れ去られた名前の薄れた影である。名前が力を持つように、言葉も力を持つ。言葉は人々の心に火を灯すことができる。安定拡散モデル。

チュートリアル:

このチュートリアルは技術的な内容です。はるかに簡単な方法をご希望の方は、/model/58873/conceptmod-tutorial-fire-train-any-lora-with-just-text-no-data-required を参照し、runpodで実行してください。費用は安価です。モデルの訓練に$5、アニメーション作成に$1未満。

**
ローカルインストール(技術的)**

20 GB の vram を必要とします
0) a111 をインストール

  1. git clone https://github.com/ntc-ai/conceptmod.git

  2. cd conceptmod

  3. train_sequential.sh を編集し、あなたのトレーニングフレーズを追加(上記参照)

  4. 依存関係のインストール(https://github.com/ntc-ai/conceptmod#installation-guide を参照)および ImageReward https://github.com/THUDM/ImageReward のインストール

  5. bash train_sequential.sh でモデルを訓練(時間がかかります)

  6. 成功裏に訓練が完了すると、models ディレクトリに新しいチェックポイントが保存されます。samples ディレクトリでサンプルを有効にしている場合、訓練中にサンプルが出力されます。

  7. モデルを a111 のモデルパスに移動:
    `mv -v models/*/*.ckpt ../stable-diffusion-webui2/models/Stable-diffusion/0new`

  8. sd-scripts https://github.com/kohya-ss/sd-scripts を使用して lora を抽出(新しい conda 環境が必要)
    以下は、ディレクトリ内のすべてのものをloraに変換するためのスクリプトです。dir および basemodel をあなたのものに置き換えてください。sd-scripts プロジェクト内にこのスクリプトを実行します。
    https://github.com/ntc-ai/conceptmod/blob/main/extract_lora.sh

  9. --api オプション付きで a111 webui.py を起動

  10. アニメーションを作成
    私は以下を使用:
    > python3 lora_anim.py -s -0.0 -e 1.8 -l "mania" -lp ", maniacal laughter" -np "nipples, weird image." -n 32 -sd 7 -m 2.0

この方法で何かを作成された場合、ぜひ 'conceptmod' とタグを付けてください。

-

リアクション!: https://civitai.com/user/ntc/images?sort=Most+Reactions

このモデルで生成された画像

画像が見つかりません。