Yoshikawa Yūko (Sound! Euphonium)

詳細

モデル説明

  • Civitaiの利用規約により、一部の画像はアップロードできません。完全なプレビュー画像は HUGGINGFACE でご覧いただけます
  • このモデルには2つのファイルがあります。両方を同時に使用する必要があります!!!
  • 関連するトリガー語は参考用であり、場合によって調整が必要になることがあります
  • ptファイルのおすすめウェイトは0.5–1.0、LoRAのウェイトは0.5–0.85です。
  • 画像はいくつかの固定プロンプトとデータセットに基づくクラスタリングプロンプトを使用して生成されました。ランダムシードを使用しており、選択的なピックアップは行っていません。ここで見られるものが、実際に得られる結果です
  • 衣装用の特別なトレーニングは行っていません。衣装に対応するプロンプトは、提供されているプレビューポストをご確認ください。
  • このモデルは427枚の画像でトレーニングされています。

このモデルの使い方

このモデルには2つのファイルがあります。両方を同時に使用する必要があります!!!。この場合、yoshikawa_yuko_soundeuphonium.ptyoshikawa_yuko_soundeuphonium.safetensorsの両方をダウンロードし、yoshikawa_yuko_soundeuphonium.ptをテクスチャ反転埋め込みとして、yoshikawa_yuko_soundeuphonium.safetensorsをLoRAとして同時に使用してください

このモデルには2つのファイルがあります。両方を同時に使用する必要があります!!!。この場合、yoshikawa_yuko_soundeuphonium.ptyoshikawa_yuko_soundeuphonium.safetensorsの両方をダウンロードし、yoshikawa_yuko_soundeuphonium.ptをテクスチャ反転埋め込みとして、yoshikawa_yuko_soundeuphonium.safetensorsをLoRAとして同時に使用してください

このモデルには2つのファイルがあります。両方を同時に使用する必要があります!!!。この場合、yoshikawa_yuko_soundeuphonium.ptyoshikawa_yuko_soundeuphonium.safetensorsの両方をダウンロードし、yoshikawa_yuko_soundeuphonium.ptをテクスチャ反転埋め込みとして、yoshikawa_yuko_soundeuphonium.safetensorsをLoRAとして同時に使用してください

このモデルには2つのファイルがあります。両方を同時に使用する必要があります!!!。この場合、yoshikawa_yuko_soundeuphonium.ptyoshikawa_yuko_soundeuphonium.safetensorsの両方をダウンロードし、yoshikawa_yuko_soundeuphonium.ptをテクスチャ反転埋め込みとして、yoshikawa_yuko_soundeuphonium.safetensorsをLoRAとして同時に使用してください

トリガー語はyoshikawa_yuko_soundeuphoniumで、推奨タグはbest quality, masterpiece, highres, solo, {yoshikawa_yuko_soundeuphonium:1.15}, long_hair, ribbon, brown_hair, hair_ribbon, serafuku, green_eyes, blush, bangs, closed_mouth, bow, yellow_ribbon, hair_bow, blonde_hairです。

このモデルのトレーニング方法

このモデルは、HCP-Diffusionを用いてトレーニングされています。自動トレーニングフレームワークはDeepGHSチームが保守しています。

一部のプレビュー画像が吉川由香里・Sound Euphoniumに似ていない理由

プレビュー画像に使用されたすべてのプロンプト文(画像をクリックすることで確認可)は、トレーニングデータセットから抽出された特徴情報に基づき、クラスタリングアルゴリズムによって自動生成されています。画像生成時に使用されたシードもランダムであり、画像は一切選別や修正を行っていません。そのため、このような問題が発生する可能性があります。

実際の使用では、私たちの内部テストにより、このような問題が発生するモデルの多くは、プレビュー画像より実際の使用時に優れた結果を出していることが示されています。必要なのは、使用しているタグの調整だけです

このモデルが過学習または未学習に見えますが、どうすればよいですか?

当モデルはHuggingFaceリポジトリ - CyberHarem/yoshikawa_yuko_soundeuphoniumに公開されており、すべてのステップのモデルが保存されています。また、トレーニングデータセットはHuggingFaceデータセット - CyberHarem/yoshikawa_yuko_soundeuphoniumにも公開しており、参考になるかもしれません。

なぜより良い画像だけを選んで使わないのですか?

当モデルのデータ収集、トレーニング、プレビュー画像生成、公開までの全プロセスは、人間の介入なしで100%自動化されています。これは私たちのチームが行った興味深い実験であり、その目的のためにデータフィルタリング、自動トレーニング、自動公開を含む一連のソフトウェアインフラを構築しました。したがって、可能であれば、フィードバックやご提案をいただけますと大変ありがたいです(これらは私たちにとって非常に貴重です)。

なぜ希望するキャラクターの衣装を正確に生成できないのですか?

現在のトレーニングデータは、さまざまな画像ウェブサイトから収集されており、完全な自動パイプラインでは、キャラクターがどの公式画像を保有しているかを正確に予測することが困難です。そのため、衣装生成はトレーニングデータセットのラベルに基づくクラスタリングによって、可能な限り再現するよう試みています。この問題は今後も改善を続けていきますが、完全な解決は難しい課題です。衣装の再現精度は、手動でトレーニングされたモデルのレベルに達することは難しいでしょう。

実際、このモデルの最大の強みは、キャラクター自身の内在的特徴の再現と、より大規模なデータセットによる比較的強い汎化能力です。そのため、このモデルは衣装の変更、キャラクターのポーズ変更、もちろんキャラクターのNSFW画像生成などに最適です!😉

以下のグループの方々には、このモデルの使用をお勧めしません。ご理解いただけますと幸いです:

  1. 最小の差異であっても、オリジナルキャラクターのデザインから逸脱することを許容できない方々。
  2. キャラクターの衣装再現における精度に高い要件がある方々。
  3. Stable Diffusionアルゴリズムに基づくAI生成画像の潜在的なランダム性を受け入れられない方々。
  4. LoRAを用いたキャラクターモデルの完全自動トレーニングプロセスに不快感を抱く方々、あるいはキャラクターモデルのトレーニングは手動でのみ行うべきであり、キャラクターを軽視しないようにすべきだと考える方々。
  5. 生成された画像の内容が自身の価値観に反すると感じる方々。

このモデルで生成された画像

画像が見つかりません。