Stabilizer IL/NAI
詳細
ファイルをダウンロード
モデル説明
(2025年10月21日):前を向く時間です…
このモデルは今後アクティブに更新されません。SDXLはすでに古すぎます。2年前(2023年6月)にリリースされたからです。
新しいモデルを試してみてはいかがでしょうか。それらはより新しいアーキテクチャ、優れた性能、そしてはるかに効率的です。例:Lumina 2。もしあなたがまだLumina 2を知らなければ、簡単に紹介します:
2025年1月にリリース。オープンソース。Apache License 2.0。
DiTアーキテクチャ(現在最も人気のあるアーキテクチャ。Flux.1などと同じアーキテクチャ)。
小型かつ効率的。パラメータ数はたった20億。フル(fp16)モデルで5GB、Q8モデルはたった2.5GB。そのため、GTX 1050でも品質を損なうことなく読み込んで実行できます。
Flux 16ch VAEを同じく使用。数値的にSDXLの4ch VAEより4倍優れている。
Google Gemma 2 2Bをテキストエンコーダーとして使用(はい、これは完全に機能するLLMチャットモデルでもあります)。SDXLの古くさいCLIP(タグしか理解できない)より1000倍優れています。英語だけでなく、中国語、日本語…も理解できます。プロンプトの理解と従順性はどれほど良いでしょうか?次のプロンプトで試してみてください(注:これは4枚ではなく1枚の画像です。完全な画像とプロンプトはこちらをご覧ください。アイデアはこちらから)。
Neta Lumina は、danbooruおよびe621データセットでトレーニングされたアニメスタイルのファインチューニングモデルです。
NetaYume Lumina はさらにファインチューニングされたバージョンです。
私は"Enhancement bundle" LoRAをトレーニングしました。名称を変更し、誤解を減らしましたが、データセットは同じです。
また、CivitaiがLumina 2をサポートしないと思います。私はこのモデルをTensorArtにもアップロードしました。こちらで私を見つけてください。ローカル環境を持っていない場合は、オンラインでLumina 2モデルを試してみてください。
補足の個人的意見:
ChromaはLumina 2よりも画像品質が優れています。結局のところ、これは10BのFlux.1モデルで、5BのT5テキストエンコーダーを搭載しています(Lumina 2の5倍、2.5倍)。しかし、アニメスタイルには向いていません。
AuraFlowは不自然です。7Bモデル。小さくありません。全体的にはFlux.1ほど良くなく、Lumina 2より効率も劣ります。オリジナルのv0.3モデルを試しましたが、画像品質はオリジナルのLumina 2と同等でしたが、プロンプト理解は明らかに劣っていました。(gemma2はpile-T5よりもはるかに優れています)
Qwenは素晴らしいですが、あまりにもでかいです。H100をレンタルしない限り、たとえ最小のLoRAでもトレーニングできません。
(2025年10月21日):Noobai v-pred v0.280a
特別バージョン。「a」はアニメを意味します。デフォルトで2Dアニメスタイルが設定されています。したがって、スタイルをプロンプトで指定したくない場合は、使いやすくなります。それ以外の場合、より創造的なv0.271を推奨します。
また、データセットが大きく変更されたため、全体的な効果は以前のバージョンとはかなり異なる可能性があります。
Stabilizer
7,000枚の画像でファインチューニングされた小さなスケールのモデル。
固定されたスタイルではなく、創造性に焦点を当てています。データセットは非常に多様です。そのため、このモデルは創造性を制限するデフォルトスタイル(バイアス)を持っていません。
自然なテクスチャ、照明、最高レベルの詳細のみ。プラスチックのようなツヤツヤしたAIスタイルは一切使用していません。すべての画像を手作業で厳選しました。AI画像でトレーニングすると、奇妙な効果が増幅されますが、私はそれを好みません。
プロンプト理解力の向上。自然言語のキャプションでトレーニング。
(v-pred)より良くてバランスの取れた照明。オーバーフローとオーバーサチュレーションがありません。同じ画像、同じ場所で純粋なブラック(0)とホワイト(255)を実現できますか?問題ありません。
なぜデフォルトスタイルがないのですか?
「デフォルトスタイル」とは何ですか?モデルにデフォルトスタイル(バイアス)があるということは、どのようなプロンプトを入力しても、モデルは必ず同じもの(顔、背景、感情など)を生成して、そのデフォルトスタイルを形成するということです。
利点:使いやすい。スタイルをプロンプトで指定する必要がありません。
欠点:しかし、そのスタイルを上書きすることもできません。デフォルトスタイルに合わないものをプロンプトしても、モデルは無視します。複数のスタイルを重ねても、デフォルトスタイルが常に他のスタイルを重ねて汚染・制限します。
「デフォルトスタイルなし」とは、バイアスがないということです。スタイルをタグやLoRAで明示的に指定する必要があります。しかし、このモデルからはスタイルの重なりや汚染が発生しません。重ねたスタイルを、本来の通りに正確に得られます。
なぜこの「ファインチューニングされたベースモデル」はLoRAなのですか?
私はギガチャッドではなく、何百万枚ものトレーニング画像を所有していません。ベースモデル全体をファインチューニングする必要はありません。LoRAで十分です。
私がアップロードするのは、あなたがダウンロードするのは、たった40MiBの小さなファイルだけで、7GiBの巨大なチェックポイントではなく、データとストレージを99.4%節約できます。だからこそ、頻繁にアップデートできます。
このLoRAは小さく見えるかもしれませんが、非常に強力です。なぜなら、NVIDIAの新しいアーキテクチャDoRAを使用しているからです。これは従来のLoRAよりも効率的です。
では、この「ファインチューニングされたベースモデル」をどうやって手に入れるのですか?
簡単です。
プリトレーニング済みベースモデル + このLoRA = ファインチューニングされたベースモデル
このLoRAをプリトレーニング済みのベースモデルにフルストレングスで読み込んでください。すると、そのプリトレーニング済みベースモデルは、すべてのカバー画像を生成した私のファインチューニング済みベースモデルになります。下記の「使い方」をご覧ください。
このモデルを使用したマージの共有は禁止です。 ご承知おきください。隠されたトリガーワードで不可視のウォーターマークを印刷する仕組みがあります。私はウォーターマークと検出器を自らコーディングしました。使いたくはありませんが、できるだけです。
このモデルはCivitaiとTensorArtでのみ公開されています。他のプラットフォームで「私」やこの文を発見した場合、すべて偽物であり、使用しているプラットフォームは海賊版です。
フィードバックはコメント欄にお願いします。すべての人が見られるように。Civitaiのレビュー制度にフィードバックを書かないでください。デザインがひどすぎて、誰もレビューを見つけて確認できません。
使い方
最新バージョン:
nbvp10 v0.271(NoobAI v-pred v1.0用)。
正確な色と最高レベルの詳細。これまでで最高のモデルです。
これはv-pred LoRAであり、NoobAI v-pred v1.0 でのみ動作します。epsモデルでは動作しません。
nbep10 v0.273(NoobAI eps v1.0用)。
- v-predモデルと比べて、彩度とコントラストが控えめです。標準的なイプシロン(eps)予測の「小さな設計上の欠陥」のため、より広い色域に達することができません。だからこそ後にv-predが登場しました。
illus01 v1.198(Illustrious v0.1でトレーニング)。
- 現在「illustrious」とラベル付けされたアニメベースモデルのほとんど(90%)は実際にはNoobAI(または主にNoobAI)です。どちらが良いか確認するために、両方のバージョンを試すことをお勧めします。
LoRAスタックの先頭にこのLoRAを読み込んでください。
このLoRAはNVIDIAの新しいアーキテクチャDoRAを使用しており、従来のLoRAよりも効率的です。しかし、従来のLoRAが静的なパッチ重みを持つのとは異なり、DoRAのパッチ重みは現在読み込まれているベースモデルの重みに基づいて動的に計算されます(LoRAを読み込むたびに変化します)。予期せぬ変化を最小限に抑えるために、このLoRAを最初に読み込んでください。
このモデルの使い方には2通りあります:
1). ファインチューニングされたベースモデルとして使用する(推奨):
最高レベルの自然な詳細を得て、ご自身で望むスタイルの組み合わせを完全なコントロールで構築したい場合。
このLoRAをプリトレーニング済みのベースモデルにフルストレングスで最初に読み込んでください。すると、そのプリトレーニング済みのベースモデルは、すべてのカバー画像を生成した私のファインチューニングされたベースモデルになります。
2). 他のファインチューニング済みベースモデルのLoRAとして使用する。
そもそもこれはLoRAですから。
FAQ:
カバー画像は生の出力(プリトレーニング済みモデルが1MP解像度で出力)です。特別なプラグインはなく、アップスケールも、手や顔のインペイント修正も、否定的プロンプトすら使っていません。一部のユーザーは再現できないと述べていますが、それは技術力の問題です(ベースモデルが一致していない、または「最適化」を多用している)。
低ストレングス(例:0.5未満)でもベースモデルが破壊された場合、それはベースモデルの問題です。あなたのベースモデルはすでにこのLoRAをマージしており(そして二重にマージしています)。モデルの重みが掛け合わされて崩壊したのです。偽のベースモデル製作者(つまり泥棒)に注意してください。一部の「製作者」はトレーニングを行わず、他人のモデルを取得してマージし、すべてのメタデータとクレジットを削除して、自分自身のベースモデルとして販売しています。

データセット
最新バージョンまたは直近のバージョン
合計約7,000枚の画像。ギガチャッドたちが数百万枚の画像でファインチューニングするのと比べれば大きくはありませんが、決して小さいわけではありません。すべての画像は私が手作業で厳選しました。
見た目が普通で美しいものだけ。説明できないような奇妙なアートスタイルは除外。
AI生成画像は一切使用していません。私が監視しています。
高解像度画像のみ。データセット全体の平均解像度は3.37MP、約1800x1800。
すべての画像にGoogle LLMによる自然なキャプションを付与。
その他のツール
Stabilizerの一部として検討された、またはかつて組み込まれていたアイデアが、今では別個のLoRAとして独立しています。柔軟性を高めるためです。コレクションリンク:https://civitai.com/collections/8274233。
Dark:暗い環境にバイアスをもつLoRA。いくつかのベースモデルで見られる高明るさバイアスを補正するのに役立ちます。低明るさ画像でトレーニング。スタイルバイアスがないため、スタイル汚染はありません。
Contrast Controller:手作業で作成されたLoRA。モニターのコントラストスライダーのようにコントラストを制御できます。他のトレーニングされた「コントラスト強調」LoRAとは異なり、このLoRAの効果は安定し、数学的に線形で、スタイルに全く影響を与えません。
ベースモデルにオーバーサチュレーション問題がある場合、または非常にカラフルなものを求めている場合に有用です。
例:

Style Strength Controller:または過学習効果低減ツール。あらゆる種類の過学習効果(オブジェクトや明るさへのバイアスなど)を数学的に低減できます。必要に応じて、強化することも可能です。
Stabilizerとの違い:
Stabilizerは現実世界のデータでトレーニングされています。テクスチャ、詳細、背景に関する過学習効果を「追加することで」しか低減できません。
Style Controllerはトレーニングに基づいていません。ベースモデルのトレーニングを「取り消す」ようなもので、過学習を少なくします。明るさやオブジェクトへのバイアスなど、すべての過学習効果を数学的に低減できます。
旧バージョン:
「更新ログ」でさらに詳しい情報をお探しください。旧バージョンは非常に異なる効果を持つ可能性があります。
主要なタイムライン:
現在~:自然な詳細とテクスチャ、安定したプロンプト理解、さらに創造性。純粋な2Dアニメスタイルに限定されません。
illus01 v1.23 / nbep11 0.138~:鮮やかな色を備えたより優れたアニメスタイル。
illus01 v1.3 / nbep11 0.58~:より優れたアニメスタイル。
更新ログ
(2025年10月21日):Noobai v-pred v0.280a
- 特別バージョン。「a」はアニメを意味します。デフォルトで2Dアニメスタイルが設定されています。スタイルをプロンプトで指定したくない場合は、使いやすくなります。また、データセットが大きく変更されたため、効果は以前のバージョンと大きく異なる可能性があります。
(2025年8月31日)NoobAI ep10 v0.273
このバージョンはNoobAI eps v1.0から最初からトレーニングされています。
以前のillus01 v1.198と比較して:
極端な条件でもより良くバランスの取れた明るさ。(nbvp v0.271と同等)
テクスチャと詳細が改善。高SNRタイムステップでより多くのトレーニングステップを実施。(illus01バージョンは互換性向上のためにこれらのタイムステップをスキップしていました。現在すべてのベースモデルがNoobAIであるため、スキップする必要がありません。)
(2025年8月24日)NoobAI v-pred v0.271:
以前のv0.264と比較して:
極端な条件での照明がより良くてバランスが取れ、バイアスが少ない。
高コントラスト、同じ画像内で、同じ場所でも純粋なブラック(0)とホワイト(255)を実現可能。オーバーフローとオーバーサチュレーションなし。今やすべてを一度に実現できます。
(旧v0.264はオーバーフローを避けるために画像を10~250の範囲に制限し、顕著なバイアスが残っており、全体的に画像が暗すぎたり明るすぎたりする傾向がありました)
v0.264と同様、高めまたはフルストレングス(0.9~1)を推奨。
(2025年8月17日)NoobAI v-pred v0.264:
NoobAI v-predでトレーニングされた最初のバージョン。
照明が改善され、オーバーフローが減少。
注:高めまたはフルストレングス(0.9~1)を推奨。
(2025年7月28日)illus01 v1.198
v1.185cと比較して主に:
「c」バージョンの終了。見た目が「劇的」ですが、互換性の問題がありました。例:ベースモデルが既にコントラストの強化を実装している場合。二重のコントラスト強化は非常に良くありません。したがって、過度なポストエフェクト(高コントラスト、高彩度など)は削除しました。
代わりに、より多くのテクスチャとディテールを追加。シネマティックレベルのライティング。互換性の向上。
このバージョンではデータセットの全面的な見直しなど多くの変更が行われたため、以前のバージョンとは大きく異なる効果になります。
v1.185c の狂った効果を再び求めている方へ。このページで純粋で専門的なアートスタイルをご覧いただけます。データセットが十分に大きければ、LoRAのトレーニングを検討します。
(2025/6/21) illus01 v1.185c:
v1.165c と比較。
明瞭さとシャープネスが+100%向上。
あまりに混沌としていて適切に記述できない画像が-30%減少。したがって、このバージョンでは以前のような狂ったコントラストレベルは得られませんが、通常の使用ケースではより安定しているはずです。
(2025/6/10): illus01 v1.165c
これは特別なバージョンです。 これはv1.164の改良版ではありません。「c」は「カラフル」、「クリエイティブ」、時には「カオス」を意味します。
データセットには非常に視覚的に目を引くが、時として説明が難しい画像が含まれています。たとえば:非常にカラフル。高コントラスト。複雑な照明条件。あらゆる場所にオブジェクトや複雑なパターン。
そのため、「視覚的に目を引く」結果を得られますが、その代わりに「自然さ」が犠牲になります。柔らかい色調のスタイルなどに影響する可能性があります。たとえば、このバージョンではv1.164のように「鉛筆画」テクスチャを完璧に生成できません。
(2025/6/4): illus01 v1.164
プロンプト理解の改善。各画像には異なる視点からの3つのナチュラルなキャプションが用意されています。DanbooruタグはLLMによってチェックされ、重要なタグのみが抽出され、ナチュラルなキャプションに統合されます。
オーバーエクスポージャー抑制。モデル出力が#ffffffの純白レベルに達しないようにバイアスを追加しました。ほとんどの場合、#ffffffはオーバーエクスポージャーを意味し、多くのディテールが失われます。
いくつかのトレーニング設定を変更。NoobAIとの互換性を向上(e-predとv-predの両方に対応)。
(2025/5/19): illus01 v1.152
ライティング、テクスチャ、ディテールの継続的な改善。
5,000枚以上の画像、より多くのトレーニングステップを追加し、その結果、効果がより強化されました。
(2025/5/9): nbep11 v0.205:
- v0.198の明るさと色の問題に対する迅速な修正。これにより、リアルな写真のように明るさや色が劇的に変化することはなくなりました。v0.198自体は悪くありませんが、創造的すぎて過剰でした。
(2025/5/7): nbep11 v0.198:
より多くの暗い画像を追加。暗い環境における変形した身体や背景を減らしました。
色とコントラストの強調を削除。もう必要ないため。代わりにContrast Controllerをご使用ください。
(2025/4/25): nbep11 v0.172。
illus01 v1.93~v1.121で導入された新機能と同じ。概要:新しい写真データセット「Touching Grass」。ナチュラルなテクスチャ、背景、ライティングの向上。キャラクター効果を弱め、互換性を向上。
色の正確性と安定性の向上。(nbep11 v0.160と比較)
(2025/4/17): illus01 v1.121。
illustrious v0.1 にロールバック。illustrious v1.0以降のバージョンは意図的にAI生成画像(データセットの約30%)でトレーニングされていました。これはLoRAトレーニングには不適切です。論文を読むまで気づきませんでした。
キャラクタースタイルの効果を低減。v1.23レベルに戻しました。このLoRAによるキャラクターのディテールは少なくなりますが、互換性は向上します。これはトレードオフです。
その他の変更は以下(v1.113)と同じです。
(2025/4/10): illus11 v1.113 ❌。
更新: ベースモデルがillustrious v1.1に基づいている場合のみこのバージョンをご使用ください。それ以外の場合はillus01 v1.121をご使用ください。
illustrious v1.1でトレーニング。
新たなデータセット「Touching Grass」を追加。ナチュラルなテクスチャ、ライティング、被写界深度の効果が向上。背景の構造的安定性の改善。変形した部屋や建物などの背景の歪みが減少。
LLMによる完全な自然言語キャプションを採用。
(2025/3/30): illus01 v1.93.
- v1.72は過度にトレーニングされていました。そのため全体的な強度を低減。互換性が向上します。
(2025/3/22): nbep11 v0.160.
- illus v1.72と同様の内容。
(2025/3/15): illus01 v1.72
下記のani40z v0.4で言及された新規テクスチャとライティングデータセットと同じ。よりナチュラルなライティングとテクスチャ。
手のディテール強化用の約100枚の小さなデータセットを追加。コップやグラスを掴むなど、異なるタスクの手に焦点を当てました。
データセットからすべての「シンプルな背景」画像を削除。-200枚。
トレーニングツールをkohyaからonetrainerに変更。LoRAアーキテクチャをDoRAに変更。
(2025/3/4) ani40z v0.4
Animagine XL 4.0 ani40zeroでトレーニング。
ナチュラルなダイナミックライティングと現実のテクスチャに焦点を当てた約1,000枚のデータセットを追加。
よりナチュラルなライティングとテクスチャ。
ani04 v0.1
- Animagine XL 4.0の初期バージョン。主にAnimagine 4.0の明るさ問題を修正。より明るく、高コントラストに。
illus01 v1.23
nbep11 v0.138
- データセットのバランスを取るために、フューリー/非人間/その他画像を追加。
nbep11 v0.129
- 悪いバージョン。効果が弱すぎるので無視してください。
nbep11 v0.114
「フルレンジカラー」を実装。画像を「普通で美しく見える」方向に自動で調整します。これはほとんどの写真編集ツールにある「ワンクリック写真オートエンハンス」ボタンと考えてください。この最適化の副作用:高バイアスを防ぎます。たとえば、画像の95%を黒、5%を明るくしたい場合でも、50/50に均等化されないようにします。
少しリアルなデータを追加。より鮮やかなディテール、ライティング、平面的な色を減らしました。
illus01 v1.7
nbep11 v0.96
より多くのトレーニング画像。
小さな「壁紙」データセット(実際のゲーム壁紙、私が見つけた最高品質のもの。約100枚)で再微調整。ディテール(肌や髪で顕著)とコントラストの改善。
nbep11 v0.58
- より多くの画像。トレーニングパラメータをNoobAIベースモデルにできるだけ近づけました。
illus01 v1.3
nbep11 v0.30
- より多くの画像。
nbep11 v0.11: NoobAI epsilon pred v1.1でトレーニング。
- データセットタグを改善。LoRAの構造と重み分布を改善。より安定し、画像構成への影響を減らしました。
illus01 v1.1
- illustriousXL v0.1でトレーニング。
nbep10 v0.10
- NoobAI epsilon pred v1.0でトレーニング。












