Faputa - Made in Abyss

詳細

ファイルをダウンロード

モデル説明

価値の具現化。

使い方:

正確さよりもただ踊りたい場合、プロンプトに埋め込みトリガーを追加してください。

FPTA

キャラクターにできるだけ近づけたい場合は、完全なプロンプトを追加してください。

(FPTA:1.1), (耳を後ろに倒す、垂れ耳:1.1), (肌の濃い女性:1.2), 非常に濃い肌色, (ふわふわ、もこもこ:1.2), (ピンクの耳の内側:1.2), (余分な腕、4本の腕:1.2) (小さな鼻:1.2), (モンスター娘:1.2), (太もも毛、足毛、腰毛、臀部毛:1.2), (白い足:1.4), (巨大な臀部、巨大な太もも:1.1), 複数の尾、へそが出ている

この追加要素は主にさまざまな欠点を補うためのものですが、正直なところ、かなりの部分を削除しても構わないでしょう(CFGに応じて重みを調整してください)。やや高い重みにすると、頭部の耳やその他の要素の重なり方が少し正確になりますが、その代償として服を追加した場合、金属製のブラが表示されてしまうことがあります(私はブラなしのバージョンも訓練する予定です)。

細部にこだわるなら

この埋め込みは(小さな埋め込みとしては)思ったよりよく似ていますが、いくつか問題があります。しかし、これらの問題はこのキャラクターの他のLoRAでもよく発生するため、私は成功と呼んでいます。それに、ファイルサイズはわずか300KBです。

足の毛が腰まで伸びるかどうかはランダムです。

かなりガチャで、私が修正できるレベルの問題ではありません。完全なプロンプトを使うと多少改善されるようですが、基本的にプラセボ効果に近いです。

余分な腕は約80%の確率で生成されます。

これについても、多くの人が画像生成モデルが余分な腕や四肢を生成しないよう最適化してきたため、改善は難しいと思います。ただし、生成されたときには、同じポーズが二重になるのではなく、独立して動く4本の腕が見られるのは本当に楽しいものです。実際に4本の腕を持つのはガチャです。3本または6本もよく発生します。

耳が立つことはめったにありません。

トレーナーに与えたすべての例で耳は下がっていますが、生成時にまれに耳が立ってしまうことがあります。「垂れ耳」という部分はその問題を防ぐための試みであり、埋め込みの重みを高くするとほぼ解決します。とはいえ、このキャラクターの耳はアニメでは動くので、すべてが失敗というわけではありません。

足の裏やその他の_異常_がまれに現れることがあります
キャラクターがフューリーの特徴に近いせいで、モデルが彼女をフューリーと認識してしまうため、手や指に爪や肉球が現れることがあります。まれに色がずれていることもあります。

それでも、300KBというファイルサイズと、300MBと比べれば、ほぼ無料同然です。

では、部屋の象に向き合いましょう…

「なぜ埋め込みなの?LoRAのほうが良くないの?」

あなたに聞きます:本当にそうでしょうか?本当に? LoRAについてあなたは一体何を知っていますか?また、埋め込みについて知っているのは、「古い訓練方法で、古い=悪い」だけですか?

LoRAは既存のモデルに新しい概念を導入するのに役立ちます。 しかし、実際のケースの約75%では、多くのLoRAはすでにモデル内に何らかの形で存在する概念を引き出しているだけです。それが埋め込みの役割です。

しかし、あなたは言うかもしれません。「でも私の嫁はユニークなんだから!特別なんだよ!」残念ながら、彼女はそうではないかもしれませんプロンプトだけでキャラクターの40〜50%の類似性を引き出せるなら(「ああ、なんかXに似てる!」)、埋め込みが残りを補完してくれる可能性が高いです。 埋め込みで嫁をハットから引き出すのは魔法ではなく、埋め込みが得意とするところなのです。なぜなら、あなたの嫁を名前で呼んでもモデル内に存在しなくても、モデルはあらゆる形・サイズの嫁をすでに十分に理解しているからです。埋め込みは、モデルが持つ知識をどう使うかを指示するだけです。

「でも構図やポーズは!私は彼女がどう性行為をするかをプロンプトで指定できないよ!埋め込みじゃ無理だよ。」 でも、おそらく可能です。モデル内には無数の嫁が存在するように、あらゆるポーズで性行為をしている姿も同様に大量に存在します。前述のルールがそのまま適用されます。数ギガバイトあるこのモデルには、あなたが望む行動を推論するのに十分な情報が含まれています。

服、表情、カメラアングル、構図、髪型、実際のほとんどの要素についても同じです。

加えて、埋め込みは数百キロバイトのサイズに対し、LoRAは数百メガバイトです。確かに200MBのLoRAは一つだけなら大したことはありませんが、それらは本当に積み重なります。また、VRAMにも大きな負担をかけます。SDXLモデルはすでに重いのに、さらに最適化されていない、訓練が不十分なLoRAを重ねるとパフォーマンスが激減します。さらに、訓練が不適切でスタイルが固定され、変更できないLoRAも存在します。埋め込みは同じ世代のモデル間でより柔軟に動作しますが、LoRAは訓練されたモデルにほぼ縛られます。

「じゃあ、埋め込みがこんなに優れてるなら、LoRAって何に使うの?」

前述の通り、モデルに新しい概念を導入するのに使います。スタイルは優れた例です。LoRAは新しい情報をモデルに導入して、その次元を活用するためのものです。人間の描写は得意だけれど、象の描写が中世風になってしまったり、そもそもタグを無視してしまうモデルがある場合、LoRAは非常に有効です。なぜなら、埋め込みでは象を出現させるための強化情報がほとんどないからです。埋め込みと組み合わせれば、さらに強化されます。

私はLoRAが嫌いなわけではありません。むしろ大好きです。ただ、誰もが「プロンプトでうまくいかないから」という理由で、モデルに何でもかんでもLoRAを導入する風潮が嫌いなのです。「私の嫁に特定の笑顔をさせたい!」→「じゃあ500MBのLoRAを訓練しよう!」この時代に、3KBの埋め込みで完璧にできるものを、200MB以上のLoRAを使ってスタイルの漏れや制約のある方法で訓練するという行為は、馬鹿げています。

結局のところ、埋め込みを試してみてください、ジャック

私の精神分裂的なTEDトークにお付き合いいただき、ありがとう。

この埋め込みが気に入ってもらえると嬉しいです。

このモデルで生成された画像

画像が見つかりません。