Simulacrum V3-V38 [F1D/F1DD/F1D2] [SFW/NSFW]
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
セーフバージョンのプロンプティング:
steps: 50
cfg 1、distilled cfg 3.5-5
euler < simple/normal
プレーンな英語でプロンプトを書くには、3の法則を使用し、適切な場所にbooruタグを追加してください。これらは自然言語のように振る舞いません。
部屋のテーブルの上にりんごが一つ、二つ、三つ。
部屋のテーブルの上にりんご。家の中の部屋。都市の中の家。州の中の都市。国の中の州。
これを守れば、自然言語としては問題ありません。
例プロンプト1:
safe, anime,
部屋の中に巨大なりんごの上に座る少女

safe, anime,
部屋の巨大なりんごの側面に座る少女のステッカー
---
safe, anime,
テーブルの上にある3Dりんごの側面に貼り付けられた、カエルのコスチュームを着た少女のステッカー、りんごステッカー、紫髪、ステッカーには「wibbit!」というテキスト

部屋のテーブルの上で外星人に侵されているりんご。家の中の部屋。都市の中の家。州の中の都市。国の中の州。

(部屋のテーブルの上で外星人に侵されているりんご:1.2)。(ゼリーでできた部屋:1.3)が羊毛の家の中の都市に。(羊毛の都市:1.3)が州の中の国に。

safe,
テーブルの上にある3Dりんごの側面に貼り付けられた、カエルのコスチュームを着た少女のステッカー、りんごステッカー、紫髪、ステッカーには「wibbit!」というテキスト、
(部屋のテーブルの上で外星人に侵されているりんご:1.2)。(ゼリーでできた部屋:1.3)が羊毛の家の中の都市に。(羊毛の都市:1.3)が州の中の国に。

ご覧の通り、3の法則は約5段階の分離まで適用されますが、その後は崩れ始めて重なり合います。これはAIの標準的な挙動です。
NSFWバージョンにはあまり執着しないでください~!
私は、50,000枚の高品質・高忠実度・リアルな3Dおよびアニメ画像を用いて、完全なNSFW再トレーニングを開始しています。それぞれのカテゴリーは約5,000枚ずつです。これらの2つのパックは油と水のようなもので、触媒なしで混ぜ合わせられるようにする必要があります。
バージョン4の最終段階に向けて、今後のすべてのトレーニングでは、新しいタグ付けスタイルを従来のスタイルと併用し、個別タグのオフセット検出を含むように明確にタグ付けします。
上左、上中央、上右、
中央左、中央中央、中央右
下左、下中央、下右
- これらのタグは、標準的なbooru概念を避けるように意図され、シーン内のT5内でのオフセット関連付けに重複を持つように選ばれています。
サイズタグ
フルフレーム
モデレート
ミニマル
- これらの3つのタグは、オフセットタグと組み合わせて画像内の安定性を確保するために使用されます。一部の画像にはbooruタグを意図的に混ぜて現在のトレーニングに流し込むためです。
美的タグ
汚い < 5%
非常に不快 < 20%
不快 < 35%
< 50%
美的 < 65%
非常に美的 < 85%
プルーニング
モノクロ
グレースケール
無効な画像
削除済みタグ
"tagme", "bad pixiv id", "bad source", "bad id", "bad tag", "bad translation", "untranslated*", "translation*", "larger resolution available", "source request", "*commentary*", "video", "animated", "animated gif", "animated webm", "protected link", "paid reward available", "audible music", "sound", "60+fps", "artist request", "collaboration request", "original", "girl on top", "boy on top",- これらのタグは役に立ちません。私のタグシステムは、タグの削除や含めるためのワイルドカード機能を備えています。
テンプレート:
"{rating}", "{core}", "{artist}", "{characters}", "{character_count}", "{gender}", "{species}", "{series}", "{photograph}", "{substitute}", "{general}", "{unknown}", "{metadata}", "{aesthetic}"このテンプレートは、以下のサイトから抽出された完全なタグの合計リストに基づいています:
- safebooru, gelbooru, danbooru, e621, rule34xxx, rule34paheal, rule34us
すべての非一致エイリアスは単一のタグに正規化されています。
これらのリストにないタグは自動的に「unknown」に移動されます。
すべてのキャプションは、これらのタグの上に自動的に配置されます。
この新しいトレーニングのベースとして、SafeFixers Epoch40を使用します。
Safe Fixersは、2台の4090で約2週間熟成させた結果、システムのコンテキスト認識と制御が優れており、フラックスの基盤への望ましい進化に近いものです。
一方、セックスパックは逆に、高い破壊性、悪い混合、悪いLoRA関連性、そして低いコンテキスト制御を示しました。コンテキストを維持したいという目的から、結果は基礎的な「セーフ」方向にシフトしなければならず、今後はセーフバージョンをNSFW画像でファインチューニングします。
主な違い:
セックスパックはA100を使用してエポック5まで、15,000枚の平均ソース画像で短時間でトレーニングされました。レビュー結果、画像の品質はまちまちでした。モノクロ、グレースケール、線画、実際のAIポイズン、長いコミック、そして発見までに時間がかかった欠陥画像が混じっていました。
Safe Fixersは、15,000枚の高忠実度・高評価・人間が主に作成したアニメ画像を使用してエポック40までトレーニングされました。品質は優れたコンテキスト認識と制御を示しており、概念の混合において過小評価できません。
セックスパックはエポック5ですでに破壊的すぎましたが、Safe Fixersはエポック40まで安定していました。
学び:
この2つのパックを扱ってきたことで、非常に重要な要素を学びました:
画像サイズはすべてのデバイスで信頼性高くバケット化できるとは限りません。
リサイズ用ソフトウェアを作成しました。
高すぎたり広すぎたりする画像を削除しました。
イメージボムや破損ダウンロードを検出するための、腐敗、有効性、健全性チェックを実施しました。これらはトレーニングプログラムが$100の埋没コストに達するまで気づかれません。
タグの順序は極めて重要です。システムは、特定の順序でタグがフォーマットされている場合、よりよくタグを理解します。
今後、自社タグ付けソフトウェアをカスタマイズして、タグの順序を特定のパラダイムに従わせます。
美的および品質タグをすべてに適用し始めました。
非常に美的 - 0.9^
美的 - 0.6 ^
不快
非常に不快
自動NSFW検出を実装しました。
最高品質の最初の10,000画像ファインチューニング開始 - 学習率 0.000033:
これはバージョン4の直接コアトレーニングの開始を意味し、0.000033がバージョン4の標準学習率になります。CLIP_Lの現在のTE学習率の3分の1である0.000000333を使用します。
私は、AI生成画像の非常に高品質なパックを提供されました。そのベース品質はこれまでで最高レベルです。
現在、多くの情報が改善可能であることが分かります。トークンが特定のポイントに達したとき、ほぼ空のキャラクター、モノクロ、グレースケールなどが出るのを見ることができます。
修正、解剖学的修正、および追加が非常に堅牢であるため、モデル開始時に計画したプロフェッショナルグレードのポーズとコアモデルの改善に進むべき時です。しかし、フラックスがこの分野で強く抵抗したため、望んでいたコンテキストポイントを越えるまで時間がかかりました。
このバージョンは、望ましいコンテキストマーカーの大部分を達成したため、今日からLoRAスタックが一つのエンティティに統合されました。混合バージョンです。
このモデルの堅牢性は非常に高く、教育の小学校レベルに相当する段階を乗り越えました。今こそ本格的な教科書に取り組み、高校レベルに進んで、大人の関連性、大人の数字を習得させる時です。
3つのモデル・マイクドロップ - 2024年11月2日 9:54am GMT-7:
3つの新モデルが利用可能:
これらのモデルは主にFlux1D用に設計されており、Flux1D-DeDistilled用ではありません。ある分岐点を超えた後、DeDistilledの結果は非常に悪くなりました。主モデルはFlux1Dに戻りました。コアが進化しすぎてFlux1Dが実害を及ぼすようになるまで、このままです。その場合、名前を変更する必要があります。
これらのモデルをトレーニングしないでください。私はまだ一貫したコアを決定していません。今はただ遊んでください。
safe - 重度トレーニング済みセーフタグ
もっと多くのショーケース画像はこちら:https://civitai.com/articles/8401/simulacrum-v38-safe-e30-teaser-2-electric-boogaloo
重度トレーニング済みセーフパックは、セックスパックを除外して80%のパワーで本格稼働中です。
この結果に大変満足しています。1週間熟成させました。
セーフパック全体は、アートスタイル、アーティスト、そして楽しみながら遊べる多様な要素に基づいて構成されており、性的な目的は一切ありません。
キャラクターのポージング、制御、移動などは依然として可能です。
アート、コミック、新聞記事、インペインティングなどに最適です。
explicit - 重度トレーニング済みエクスプリシットタグ
セーフパックの一部を非常に低い強度で含め、性的ポーズと性行為に完全に集中しています。目的は性的なコア要素を導入することでしたが、おそらくうまくいかなかったため、再トレーニングが必要です。
しかし、現時点では遊ぶのに楽しいはずです。
私が生成した画像をよく見ると、Simulacrumコア自体との類似性が見られます。これは、コアが依然として存在し、強力であり、現在も基本的なポーズとモデル自体を改善し続けていることを示す証拠です。
これは安定したコアの印です。
mix
- 2つのモデルを高強度で混合して統合しました。結果は不確実ですが、楽しく遊べるでしょう。
Simulacrumにカーマ・スートラをフィード - 2024年10月28日 19:00 GMT-7:
最初の15,000枚の性行為ポーズ画像をモデルにフィードし始めました。これらはさまざまな角度と多くのアーキタイプ、キャラクターなどから構成されています。
タグはdanbooru、gelbooru、rule34xxx、rule34usの混合です。多くのタグを正規化しましたが、rule34usとrule34xxxがもたらすよりマニアックなタグの多くは正規化せず、そのまま残しました。この方法の方がより多くのものを生成できて楽しいと考えたからです。
これはセックスパック2の5段階のうちの第1段階です。第1段階は教育、第2段階は充填、第3段階は修正とファインチューニング、第4段階は公開テスト、第5段階はコアモデルへの完全統合です。
セックスパック1は主にドギースタイル(パワーレベル0.7、間もなく完全パワーに引き上げる予定)で、Simv3に直接組み込まれています。きっと多くの人が気づいているでしょう。近い将来、非常に過激なNSFWバージョンと、サイドでトレーニングされるセーフバージョンがリリースされます。
私はそれを秘密裏にリリースしました。なぜなら35種類のポーズのうち1つだけだったからですが、同時に拡張が必要な成功したテストでもありました。

「セーフ」バージョンは、完全に分岐したモデルで、アートとスタイルへのより注意深いガイドを提供し、対立するモデルよりもSFWのボディ統合に適していますが、対立するNSFWモデルと同様の要素と機能をサポートします。
現在のバージョンはハイブリッドで、将来的なコアモデルになります。最終的にはすべての性行為ポーズを含み、セーフバージョンに精緻化された対立モデルを組み込む予定です。
ファリー分野のデータトレーニングもまもなく開始します。これまでに約200種を収集しており、各種は1,000枚以上の画像を持っています。タグは大きく異なります。そのため、特定のタグが交叉汚染しないように確保すれば、1girl、1boy、2girlsなどのタグを生成する力は損なわれません。適切なタグ式が機能を確実にする上で不可欠です。
フューリーのコアを構築するのは少し畏れ多いです。なぜなら、一般的なタグについてほとんど知らないからです。しかし、この挑戦に乗り気で、即座に勉強する意欲があります。
コンテストはほぼ終了間近です。最終エントリーを提出してください。
私は誰かに私のマスコットを作成してもらうために50kのバズボンティを掲示しました。
https://civitai.com/bounties/5177
そのバズが欲しいなら、さっさと取りかかれ。
主要な画像セットは ANIME<<<
Dev1 = 非常に良いコンテキスト + 高速
Dev1Distilled = 非常に高いコンテキスト + 質の向上
これは他の要素にも非常に良く適用できます。コアのリアルさモデルが追加のトレーニング後に依然として保持されているという事実は、このトレーニング手法の概念実証を示しています。独自に作成する方法については、私の散在する50のガイドのいずれかを参照してください。
最近、フィードの上部に最も重要な情報すべてをマッピングしました。
1devが同じプロンプトとシードでほぼ同一の生成結果を出していることからもわかるように、DeDistilledと比較して、コンテキスト制御が大幅に劣っていました。ただし、生成速度ははるかに速いため、トレードオフを考慮してください。
今夜、Flux1Dのコンパクト版もリリースしました。もうこれ以上やる気力が残っていません。また、現時点ではLORAが提供されていないことにお詫びします。64次元128アルファの巨大なモデルと、それらを組み合わせて作成した32次元64アルファ、16次元32アルファのモデルを安全にマージする良い方法をまだ見つけていないのです。安全なマージ方法に関する研究進捗を、皆に随時お知らせします。
現在、レンタルした2台の4090で1万枚の画像を使った安全トレーニングを実行中で、完了まで1週間以上かかります。ここまで来ると、自用のために数台購入したほうがよいのでは、という段階にまで来ています。
DeDistilled用に、下記の低品質なリアル画像をいくつか再生成しました。CFGを低めに設定し、アップスケールフィックスを適用すると、似た品質の生成が可能です。必ずしも毎回ではありませんが、コンテキスト保持は十分に良好です。
DeBlurr LORAを適用してください。これは人々が「薄い」と評価する「 Washed Out 」効果を除去しますが、実際にはT5によってFluxの被写界深度が干渉されているだけです。私はこれを「固定化クラスタ」と呼んでいます。
UNET + CLIP_LでLORAをトレーニングし、T5はどこからでも取得してください。
あの古いConsistency Version 3を覚えていますか?これが本来の姿です。皆様、お楽しみください。以下の生成設定をご覧ください。
NSFWコントローラーは現在非常によく機能しています。次回のバッチとして、「safe」というタグの使用を確立するため、1万枚のSafeBooru画像を準備中ですが、現時点でシステムは単に画面に「safe」を付与するだけです。
通常、NSFW要素は直接プロンプトに記述するか、「explicit」タグを使用して強制的に表示させることができます。
主なトレーニングは3種類あります:リアル、アニメ、3D。プロンプトのどこにでもいつでもこれらのタグを挿入し、望む要素をそのスタイルに強制的に変更したり、全体の画像に染み込ませたりできます。これまでに35,000枚以上の画像、85万ステップ以上でトレーニングされています。ちょっと数えてみました。
これは、Simulacrum Flux1D2 V23マージに対してFlux1D2を直接トレーニングした4つの独自LORAの積み重ねです。
今朝、このモデルの作り方についての記事を掲載しました。 これらはすべてDeDistilledの推論と直接連携するようにトレーニングされています。その結果…私が想像したあらゆるものを生み出します。一部の要素には多少の調整が必要ですが、ほとんどの機能は正常に動作します。世界を構築し、世界を壊し、ハンバーガーでできたお尻や胸、チーズでできた○○…誰も気にしません。あなたの世界です、あなたが作ってください。
設定:
これらはDeDistilledモデルに特有のものです。
「重複レイヤー」が表示された場合、ステップ数を増やしてください。両システムに矛盾するトレーニングが存在するため、200万枚のファインチューニングが完了するまで奇妙な挙動が発生する可能性があります。
DeDistilled設定:
リアル向け:
ステップ数:35–50
CFG:6.5–9
アニメ向け:
ステップ数:20–30
CFG:4–7
flux CFG 0 << 大幅な劣化が起きる前に約1.5まで上げられます。
euler < simple/normal が私の好みです。すべてのトレーニング後のため、他の未検証オプションも存在するかもしれません。
<<< 重要ではありません。任意のサイズで構いません。バケットトレーニングにより対応済みです。256~2048、35,000枚の多様な画像から収集。サイズが大きすぎると複数画像を生成し、小さすぎるとおそらく生成されません。
1Dベース設定:
リアル向け:
ステップ数:20–40
CFG:1
flux CFG:3–5(3.5が推奨)
アニメ向けにも同様。必要に応じて増減可能です。
euler < simple/normal を使用
<<< 重要ではありません。任意のサイズで構いません。バケットトレーニングにより対応済みです。256~2048、35,000枚の多様な画像から収集。サイズが大きすぎると複数画像を生成し、小さすぎるとおそらく生成されません。
実験では、どちらのモデルでも768x768から1024x1024へアップスケールし、euler simple/normalで25ステップを適用した場合、良好な結果が得られました。
タグリストを含む追加の生成ヒントはこのリンクをご覧ください。個別のLORAと、それらをこのモデルにコンパクト化するためのレシピは、まもなくアップロードされます。


















