Mangled Merge XL
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
Matrix Lightning
Matrix Lightningは、リクエスト時にリリースされたSDXL Lightning 4ステップモデルにMangled Merge Matrixをマージしたものです。使用するSamplerに応じて、以下の設定をお勧めします。
euler_ancestral_cfg_pp_beta:
CFGスケール:1
FreeU_V2:
b1: 1
b2: 1
s1: 1.3
s2: 1.3
heunpp2/deis:
CFGスケール:2
DynamicThresholdingFull:
ミミックスケール:1.01
しきい値パーセンタイル:1
ミミックモード:パワーダウン
ミミックスケール最小値:1
CFGモード:パワーダウン
CFGスケール最小値:1.3
スケジュール値:1.5
個別特徴チャネル:無効
スケーリング開始点:ZERO
変動性測定:STD
補間ファイ:1
Perturbed Attention Guidance:
スケール:.5
FreeU_V2 (heunpp2):
b1: 1.25
b2: 1.25
s1: .5
s2: .5
FreeU_V2 (deis):
b1: 1
b2: 1
s1: 1.3
s2: 1.3
Matrix
Mangled Merge XL Matrixは、Mangled Mergeファミリーの最新のマージ実験結果です。この新しいバージョンでは、合計3850個のLoRAがマージされており、前回より1050個多くなりました。主な焦点は、2Dに特化していたMagicを、より写実的なモデルに変えることです。
このモデルには、3種類のDare/TIESブロックマージの組み合わせを使用しました。
コンセプト:
コンセプトは以下のブロックにマージされました:
ラベル、入力ブロック2、7、9、ミドルブロック0、1、出力ブロック2、4、9、およびアウト、すべての強度1。入力ブロック8、10、ミドルブロック2、出力ブロック1、3は強度0.25。Tiesは「sum」、方法は「cosine」。
スタイル:
スタイルは以下のブロックにマージされました:
ラベル、入力ブロック5、7、8、9、ミドルブロック0、出力ブロック0、1、2、およびアウト、すべての強度1。Tiesは「sum」、方法は「cosine」。
テキスト:
この変更で大幅な改善は見られませんでしたが、試してみたかった実験です。
ラベル、入力ブロック4、5、7、8、9、10、ミドルブロック0、出力ブロック0、1、2、4、5、およびアウトに強度1でマージ。Tiesは「sum」、方法は「cosine」。
興味深いことに、すべてのマージを経ても、Magicバージョンでマージされた2Dスタイルを依然としてよく再現しています。毎50個のLoRAマージごとのスムージング処理は毎回異なりましたが、プロセスをより理解しやすいものにするためのいくつかのテクニックを学びました。
マージプロセスにおけるLoRAの強度も非常に重要であることに気づきました。モデル/CLIP強度1では効果は非常に弱いです。このバージョンでは、モデル強度を7、CLIP強度を6に変更しました。CLIPはDare/TIESで強度.2、slerp方法でマージしましたが、勾配法でマージした方がより効果的かもしれないと思いました。これは次バージョンでテストします。
これですべてをカバーできたと思います。
お楽しみください!
Magic:
Magicは、専用モデルを作成する2段階の実験の最初のものです。Magicを作成するために、Mangled Merge XL v4.0に、MBW Dare/TIESを用いて500個の2DスタイルLoRA(合計で2800個)をマージしました。入力ブロック8と出力ブロック0には50%、出力ブロック1には100%の強度でマージ。Tiesは「count」、方法は「gradient」を使用しました。この最初のバージョンは2Dに焦点を当てていましたが、次のモデルは写実性に焦点を当てます。その後、両者をマージしてMangled Merge XL v5.0を作成する予定です。
このモデルはCFG範囲2~7でよく機能します。より写実的な結果を得るには低い範囲を、2D、機械、またはより複雑なプロンプトには高い範囲を使用すると良いでしょう。プロンプトの最初にスタイルを記述すると、より良い出力が得られます。
お楽しみください!
V4:
このアップデートでは合計2300個のLoRAがマージされています。V3より500個増えています。前回のバージョンほどスムージングを丁寧に行わなかったため、写真的・ハイパーリアリズム傾向が若干強くなりました。今回はスタイルのスムージングを省略しました。出力に現れる差異や追加された詳細がとても気に入ったからです。
このモデルは以前よりやや敏感ですが、初期テストではより強力でランダムな結果を生み出しています。アニメスタイルでない限り、「1girl」や「score_whatever」のようなbooruタグは避けるのが良いでしょう。また、モデルはプロンプトの最初のタグに最も注目するため、スタイルの指定に活用できますが、イラストを得るのが少し難しくなっています。しかし、他の面ではより汎用性が高まっているように思います。一部の被写体に適したCFGスケールが変更されているため、AYS、FreeU、PAGなどのツールを活用して出力を最大限に引き出すことを強くお勧めします。
お楽しみください!
V3:
Mangled Merge XLシリーズのバージョン3.0をご紹介できることを光栄に思います。DARE/TIESモデルマージ手法を調査したところ、驚異的な差が生まれました!このモデルはMangled Merge XL V2.0の継続であり、DARE/TIES手法で追加の600個のLoRAをマージし、合計1800個のLoRAを含むモデルとなりました。安定したスムージング手法を確立でき次第、最初から再マージし、より改善(かつ自動化)されたワークフローを採用することを検討しています。
このモデルはほぼすべてのスタイルで優れた性能を発揮し、V2.0と比べて出力が大幅に向上しました。フェルリー動物の問題は修正され、「1girl」やbooruタグも正常に動作し、ピクセルアートにも優れています。お望みのスタイルがある場合は、プロンプトの最初に記述すると効果的です。3つの例画像はそれぞれのプロンプトでその意味を示しています。CFGスケールは1.5~6.5が適切です。
LoRAのマージは、ComfyUIで54rt1n氏が開発したComfyUI-DareMergeノードを用いて実施しました。LoRAとベースモデルにattn_only正規化を適用し、それをアテンション勾配として使用。同時にベースモデルとモデルBの間にマグニチュードマスカーを設定して、0%ドロップ、2イテレーション、リスケールONでアドバンスド/DAREマージを実行しました。その後、ベースモデルにガウシアンノイズ(比率:.98、平均:.05、標準偏差:.01)を注入し、その結果を最初のマージにブロック/DAREマージノードでマージ。マグニチュードマスカーは同じく0.9ドロップ率、リスケールOFF、1イテレーションで入力ブロックのみに適用しました。また、V2.0のCLIPをベースCLIPに置き換え、マージプロセス中は変更しませんでした。これによりプロンプトの適合性が大幅に向上しました。この手法により、異常が発生する前に約180モデルをマージできました。
スムージング処理は、毎150回のマージごとに手動で実施しました。まだ完全に自動化できる方法は見つかっていませんが、次バージョンでは確立したいと考えています。主なスムージング方法は、開始モデル(0)、1/3の位置のモデル(50)、2/3の位置のモデル(100)、および最終マージ(150)を取り、それぞれベースモデルの10%を加えて単純マージし、その後、Attention/DAREノードで異なる組み合わせと重みで4つのモデルをマージ。テスト実行で最もバランスの取れた結果を探しました。マージの順序と重みは、毎150回のマージごとに異なります。
テストとすべての例画像では、スケジューラーに「Align Your Steps」を使用しました。
お楽しみください!
V2:
Civitaiコミュニティに、Mangled Merge XLバージョン2.0を紹介できることを嬉しく思います。この新バージョンには、モデルを「トレーニング」するために慎重にマージされた1200個のLoRAが含まれています。前回のDarkバージョンより380個多いです!Mangled Merge XL 2.0には、Hillside、Clarity、Colorful、Realistic Stock Photo、Pixelwave、HadesからのRealism、Pilgrim 2D、Crystal Clearも追加されています。
使用方法:
Mangled Merge XLはCFGスケール2~7で良好に動作します。一部のトークンは低いCFG値でより良い結果が出ますが、プロンプトが複雑な場合はCFGを5~7に設定するとモデルがプロンプトにより忠実に従います。
このモデルは写実性を重視しますが、絵画やイラストも可能ですが、現状では得るのが少し難しいです。バランスをより良くしたいと考えていますが、1200個という数字はリリースに適していると考えました。このモデルを一方方向に偏らせる意図はなく、主にプロンプトの適合性と美的要素を追求しています。
Mangled Merge XL 2.0は全身を含む長いショットを好みます。近接ポートレートも可能ですが、指定しないと全身または遠距離の画像を出力する傾向があります。幸いにも、このモデルは距離感のあるショットで目や顔が非常に美しく出ます。手は概ね良好ですが完璧ではありません。インペインティングで補正できます。
強い重みを使用する場合は、CFGを下げることを推奨します。そうでないと出力が過剰に荒れてしまうことがあります。また、「fur」と「1girl」は奇妙な出力を生むことがあります。「fur」は低いCFGが必要で、「1girl」は不安定な出力を生む可能性があります。「a woman」などの表現の方が良いでしょう。このモデルはプロンプトに非常に敏感であり、プロンプトに記述された内容を出力し、記述されていない内容をほとんど出力しません。したがって、背景を指定しない場合、白いまたは単純な背景が生成される可能性が高いです。
免責事項:
提供した例画像を再現したい場合、私はKritaのAI Diffusion拡張機能を使用しており、一部の生成オプションはCivitaiのプロンプト情報には反映されていません。CivitaiではCFGスケールの入力は整数のみですが、これらのモデルは6.5や5.2など小数点を使用しています。そのため、正確な出力を得るためにCFGスケールを微調整する必要があるかもしれません。また、Civitaiでは私が使用したサンプラー(Turbo/Lightning Merge - DPM++ SDE)のオプションがありません。このサンプラーには8ステップLoRAが必要ですが、すべての画像は12ステップで生成しています。より良い出力が得られたためです。すべての画像は追加の精緻化プロセスでアップスケールされています。
これでほぼすべてをカバーできたと思います。楽しんでください!
V1.1 Dark:
出力画像の「chiaroscuro lighting」や「low key」などのトークンにさらに力を与えるため、追加の80個のLoRAをマージした速やかなアップデートです。
V1:
Mangled Merge XLは、LoRAをマージしてベースモデルを「トレーニング」可能かどうか、そしてモデルを破損させずに安定させるにはどのような方法が最適かを検証する実験の産物です。約760個のLoRAと3つのトレーニング済みモデル(Cinevision、Juggernaut、HaveAll)をマージした結果、モデルは安定したままさらにマージが可能であり、美しい出力を生み出しています。
Mangled Merge XLはCFGスコア3~8で良好に動作します。目的は、見た目が気に入った幅広いLoRAを用いて、汎用的なモデルを作成することでした。したがって、このモデルには成人向けコンテンツは含まれていません。裸体はありますが、それ以上はありません。よりNSFWな方向にしたい場合は、お気に入りのNSFWモデルとマージしても構いません。
また、このモデルは強い重みのトークンや極端な解像度には対応しにくいです。SDXLのネイティブ解像度を使用すれば、良好な結果が得られます。
注:すべてのサンプル画像は精緻化されたアップスケーリング処理を適用しています。
楽しんでください!フィードバックは歓迎します。
マージプロセス:
このプロセスには特別な複雑さや科学性はなく、試行錯誤で最適な結果とモデルの安定性を保つ方法を探しました。ブロック重みなどに過度にこだわることはありませんでしたが、以下のプロセスを基にさらに改良して、より優れたモデルを作成してください!
Kohya_ssのMerge Lycorisツールを使用して、10個のLoRAをSDXL 1.0ベースモデルにマージ。重みは通常50%で十分ですが、調整可能です。
10個のLoRAをマージしたモデルを、Auto1111のMerge Checkpoint機能で再びSDXLベースモデルにマージし、ステップ1のマージで発生した異常をスムージング。LoRAはマージプロセスを通じてスタイルを保持し、強力な重みも使用できます。10個のLoRAをマージした後、モデルが破綻した出力を生む可能性があります。このステップでは、その過剰な重みをスムージングし、モデルの破損を防ぎます。特別な処理は不要です。私は重み和を使用し、一般的に10個のLoRA:65% / SDXLベース:35%と設定しましたが、試行後、モデルが極端に荒れた場合、LoRAの重みを下げることもありました。
スムージング済みモデルのコピーを作成。1つは保管し、別のコピーに10個の新しいLoRAをマージ。
新しい20個のLoRAモデルをステップ2の手順でスムージングし、その後、2番目のスムージングモデル(60%)と最初のスムージングモデル(40%)をマージして、最初のアマラガムを作成。
アマラガムをコピーし、そこに10個のLoRAをマージ。ステップ1~4を繰り返して、2番目のアマラガムを作成。
アマラガム2(60%)とアマラガム1(40%)をマージして、最初のアマラガメルジを作成。
ステップ1~6を繰り返して、2番目のアマラガメルジを作成。
アマラガメルジ2(60%)とアマラガメルジ1(40%)をマージして、アマラガメルジ3を作成。
同様のプロセスを繰り返して、次のアマラガメルジを作成し、それをアマラガメルジ3とマージ。
以下同様…
時折、予想以上に異常が発生することがあります。その場合は、選択したトレーニング済みチェックポイントとマージし、あまりにも異常なトークンを修正しようとしました。




















