1 mb LORA trained in 5 mins that does the same thing as 2.5 gb model but better
詳細
ファイルをダウンロード
モデル説明
このLORAは、ここで述べた私の主張を証明するためのものです。このLORAはこのモデルと同じことをしていますが、より小型(1975倍小さく)、使い勝手がよく、マージの必要がなく、効果の強さを簡単に調整できるという点でさらに優れています。
トレーニングはスマートフォンで行い、実際のトレーニング時間は5分10秒、前処理に5分ほどかかりました。トレーニングには、上記のモデルに付属する6つのサンプルを使用するだけで、キャプションの付与などは一切していません。また、私の投稿で紹介したLuisapさんの方法をそのまま利用しました。
使用したサンプルには、オリジナルモデル同様、プロンプトの工夫が全くないものもあれば、他にもLORAを用いてプロンプトの工夫をしているものもあります。
非常に限定された概念用にチェックポイントを作成するより、他のより適切な選択肢がある場合、そのような作業はやめるべきです。また、単一のキャラクター用にLORAをトレーニングする際には、他のキャラクターを追加したり、スタイルも含めると、LORAの有用性がさらに高まります。
これはオリジナルモデルの作成者(彼は本当に努力しており、素晴らしい成果を出しています。見てください)、あるいは誰か他の人を直接非難するものではありません(このモデルは1.5用であり、2.1用ではないことにも注意してください)。しかし、多くの人がこうしたアプローチを取れば、より効率的でサイズが小さく、より多くのことが可能なモデルが増え、このウェブサイトの出力品質が大きく向上すると思います。
ありがとうございます。
※ノート:強度は、オリジナルのサンプルにどれほど近づけたいかによるので、0.5~0.7がおそらく適切な範囲です。また、高解像度補正(highres fix)を使う場合、ステップ数は12~18程度に低めに設定することをおすすめします。
トリガーワードは特に必要ありません。
また明言しておきますが、これは抽出(extraction)ではありません。
正直、タイトルは少しクリックバイト的な表現になっていますが、これは本当にオリジナルモデルとの直接比較を意味しているわけではなく、ただ多くの人がこの方法に気づいてほしいだけです。











