Babes XL

詳細

ファイルをダウンロード

モデル説明

📲 オーダー、トレーニング、コンサルテーション - Flux、Pony、SDXL + キャラクター、スタイル、顔 + ❤️ サポート 🫶 Discord
ℹ️ Babes XL 3.0 は 43,000 枚の画像でトレーニングされ、データセットは 💝 Babes 3 と同じです。
ℹ️ Babes 1.1 - "basety style", Babes 2 - "abbe bi style", Sassy Girls - "sassy style", Midjourney - "midjourney style"。
ℹ️ カートゥーンスタイル:

othalama style, ronidu style, seviechan style, samdoesart style, thepit style, owler style, cherrmous style, arosen style, uodenim style, stanleylau style, amime style

ℹ️ ネガティブプロンプトにおすすめのタグ:nose stud, piercing
ℹ️ その他のトリガーワード:wild nature, suicidegirl, interior design, digital art
ℹ️ 写真スタイル:

aleksei gilev style, andrew vasiliev style, elenok ella style, ivan kovalev style, jack metthey style, jiri tulach style, komrant style, marie dashkova style, mewel style, olga boyko style

📌 結果が特定の画像と100%一致しないのはなぜですか?

  1. Hires-fix に例の SwinIR_4x / 4x-UltraSharp / 4x-AnimeSharp / RealESRGAN_x4plus_anime_6B を使用してください(Upscaler ダウンロード)。私は通常、Hires-fix にこれを使っています。

  2. より良い色を出すために VAE:vae-ft-mse-840000-ema-pruned を使用してください。これを "stable-diffusion-webui/models/VAE" フォルダーにダウンロードし、設定で選択してください。

  3. 私は xformers を使用しています。これはわずかなパフォーマンス向上ですが、結果に影響を与えることがあります。必須ではありませんし、インストールが難しい場合があります。WebUI を起動する際、コマンド引数 "--xformers" で有効にできます。

  4. WebUI は常に更新されており、画像生成に影響を与える変更が頻繁にあります。多くの場合、技術的進歩が後方互換性よりも優先されます。

  5. ハードウェアの違いにより結果が変化することがあります。同じプロンプトと設定でテストした多くの人が、結果が一致しなかったと報告しています。

  6. 自分のシステムでも、バッチ処理として実行すると、結果がわずかに変化することがあります。

  7. 変更できない内部モジュールの隠れた変数が、内部状態の変化によりわずかに異なる結果を生み出している可能性があります。

  8. 画像の寸法、ステップ数、サンプラー、プロンプトなど、あらゆる変更が結果に小さな、あるいは大きな差をもたらす可能性があります。

📌 実際の画像とまったく同じ結果を得たいですか?いくつかの方法で、さらに良い結果を得られる可能性があります。

  1. プロンプト/ネガティブプロンプトを1語だけ変更してテストし、徐々に望む方向に調整してください。

  2. 画像に何かが多すぎたり少なすぎたりする場合、強調を使用してください。たとえば、光沢が強すぎるなら "(glossy:0.8)" と記述し、弱くしたい場合は値を下げたり、プロンプトから削除したり、ネガティブプロンプトに追加したりしてください。もっと強くしたい場合は、値を 1.1–1.4 に設定し、同じ方向の追加の記述を加えてください。

  3. 変異を利用してください。同じシードを使用し、シードの右側にある「Extra」にチェックを入れ、「Variation strength」を低い値(0.05)に設定し、いくつかの画像を生成して変化の大きさを観察してください。より大きな変化を望むなら値を上げ、小さい変化を望むなら下げてください。この方法で、オリジナルに非常に近い多数の画像を生成でき、その中にはさらに優れたものも含まれます。

📌 結果を改善するための推奨事項:

  1. より良い色とディテールを得るために VAE を使用してください。モデルに同梱されている VAE または https://huggingface.co/stabilityai/sd-vae-ft-mse-original/tree/main からダウンロードした "vae-ft-mse-840000-ema-pruned" の ckpt または safetensors ファイルを "stable-diffusion-webui/models/VAE" フォルダーに保存してください。設定で「SD VAE」を探し、更新して「vae-ft-mse-840000-ema-pruned」(またはモデルに同梱されているバージョン)を選択してください。上部の「Apply settings」ボタンをクリックしてください。モデルに同梱されている VAE は "vae-ft-mse-840000-ema-pruned" であり、両方を必要としません。ダウンロードした方を使用してください。これは多くの他のモデルとも非常に良く動作します。

  2. Hires-fix を使用してください。SwinIR_4x / 4x-UltraSharp / 4x-AnimeSharp / RealESRGAN_x4plus_anime_6B(Upscaler ダウンロード)を使用し、最初のパスは約 512x512、2 パス目は 960x960 以上にし、可能であれば2つのパス間の比率を同じに保ってください。

  3. ネガティブプロンプトを使用してください。ただし、過剰に使用しないでください。嫌な要素が見つかったときに追加してください。

  4. CFG は 7.5 以下を使用してください。多くの強調や長いプロンプトを使用する場合は、3.5 まで下げることもできます。一般的には、強調の使用を最小限に抑えてください。重要度の高い要素はプロンプトの最初に配置すれば十分です。すべてが重要なら、強調は一切使わなくても構いません。

  5. 変更は慎重に行ってください。プロンプトの最初に加えた変更ほど、結果に大きな影響を与えます。そのため、あらゆる概念が結果を劇的に変える可能性があります。

  6. マニュアルを読み、活用してください(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features)。

  7. 他者の成功例を学び、良い画像のプロンプトをコピーして試してみてください。

  8. DPM++ 2M Karras は多くの人(私を含む)の選択サンプラーです。ステップ数は40で十分ですが、私は通常20を使用します。

  9. ヘルプ、共有、見せ合い、実験、チャレンジのためのDiscordサーバー

このモデルで生成された画像

画像が見つかりません。