Nakagawa Natsuki/中川夏紀 (Sound! Euphonium)

詳細

ファイルをダウンロード

モデル説明

  • Civitaiの利用規約により、一部の画像をアップロードできません。完全なプレビュー画像はHUGGINGFACEでご確認ください
  • モデルバージョンv1.5.1またはv2.0+をご利用の場合、他のLoRAと同様にWebUIでそのままご利用いただけます。このモデルはkohyaスクリプトで学習されています
  • モデルバージョンv1.5またはv1.4-をご利用の場合、2つのファイルを両方使用する必要があります。詳細は説明内の「Pivotal Tunedモデルの使用方法」をご参照ください。
  • 削減されたキャラクタータグは、茶髪、ポニーテール、ロングヘア、紫目です。キャラクターの主要な特徴(例:髪の色)が安定しない場合、これらをプロンプトに追加してください
  • ptファイルのおすすめ重みは0.7–1.1、LoRAの重みは0.5–0.85です。
  • 画像は一部の固定プロンプトとデータセットに基づくクラスタリングプロンプトを使用して生成されました。ランダムなシードを使用しており、選択的な採用は行っていません。ここでご覧になるものが、実際に得られる結果です
  • 衣装用の特別な学習は行っていません。衣装に対応するプロンプトは、提供されたプレビュー投稿をご確認ください。
  • このモデルは846枚の画像で学習されています。
  • 学習設定ファイルはこちらです。
  • モデルの忠実度と制御性のバランスを取るために、自動選択したステップは3600です。以下のすべてのステップの概要をご覧ください。huggingfaceリポジトリ - CyberHarem/nakagawa_natsuki_soundeuphoniumで他の推奨ステップもお試しください。

ステップの概要

このモデルの使用方法

このセクションはモデルバージョンv1.5.1またはv2.0+向けです

他のLoRAと同様に簡単にご利用いただけます。このモデルはkohyaスクリプトで学習されています。

他のLoRAのように簡単に使用できます。このモデルはkohyaスクリプトで訓練されました。

다른 LoRA처럼 간단히 사용할 수 있습니다. 우리는 이 모델을 kohya 스크립트로 훈련했습니다.

您可以像其他LoRAs一样简单地使用它。我们使用kohya脚本对该模型进行了训练。

(ChatGPTで翻訳)

キャラクターのウェイフューや当社のテクノロジーに興味がある方は、弊社のDiscordサーバーへどうぞ。

このモデルの学習方法

より詳細な学習情報や推奨ステップについては、huggingfaceリポジトリ - CyberHarem/nakagawa_natsuki_soundeuphoniumをご覧ください。

Pivotal Tunedモデルの使用方法

このセクションはモデルバージョンv1.5またはv1.4-向けです

このモデルには2つのファイルがあります。WebUI v1.6 以下をご利用の場合は、両方のファイルを同時に使用する必要があります!!! この場合、nakagawa_natsuki_soundeuphonium.ptnakagawa_natsuki_soundeuphonium.safetensorsの両方をダウンロードし、nakagawa_natsuki_soundeuphonium.ptembeddingsフォルダに、nakagawa_natsuki_soundeuphonium.safetensorsをLoRAとして同時に読み込んでくださいWebUI v1.7以上をご利用の場合、通常のLoRAと同様にsafetensorsファイルだけを使用してください。これは、埋め込みバンドルされたLoRA/Lycorisモデルが現在、a1111のWebUIで公式にサポートされているためです。詳細はこちらをご覧ください。

此模型包含两个文件。如果您使用的是 WebUI v1.6 或更低版本,您需要同时使用这两个文件! 在这种情况下,您需要下载 nakagawa_natsuki_soundeuphonium.ptnakagawa_natsuki_soundeuphonium.safetensors 两个文件, 然后nakagawa_natsuki_soundeuphonium.pt 放入 embeddings 文件夹中,并同时使用 nakagawa_natsuki_soundeuphonium.safetensors 作为 LoRA如果您正在使用 webui v1.7 或更高版本,只需像常规 LoRAs 一样使用 safetensors 文件。 这是因为嵌入式 LoRA/Lycoris 模型现在已经得到 a1111's webui 的官方支持, 更多详情请参见这里

トリガーワードはnakagawa_natsuki_soundeuphonium、削減タグはbrown_hair, ponytail, long_hair, purple_eyesです。あるときキャラクターの特徴(例:髪の色)が安定しない場合、これらのタグをプロンプトに追加してください

なぜ一部のプレビュー画像は彼女に似ていないのか

プレビュー画像で使用されたすべてのプロンプトテキスト(画像をクリックすると確認可能)は、学習データセットから抽出された特徴情報に基づき、クラスタリングアルゴリズムで自動生成されています。画像生成に使用されたシードもランダムに生成されており、画像の選別や修正は一切行っていません。そのため、上記の問題が発生する可能性があります。

実際の運用では、当社の内部テストによれば、このような問題を抱えるモデルの多くは、プレビュー画像よりも実際の使用時の方が優れた結果を出しています。必要なのは、使用しているタグを調整することだけです

このモデルが過学習または未学習のように感じられますが、どうすればよいですか

ここで表示されているステップは自動選択されたものです。その他にもお試しいただける推奨ステップをご用意しています。こちらをクリックして、お好みのステップを選んでください。

当モデルはhuggingfaceリポジトリ - CyberHarem/nakagawa_natsuki_soundeuphoniumに公開されており、すべてのステップのモデルが保存されています。また、学習に使用したデータセットはhuggingfaceデータセット - CyberHarem/nakagawa_natsuki_soundeuphoniumに公開しており、皆様の参考になるかもしれません。

なぜより良い画像だけを使わないのですか

このモデルのデータ収集、学習、プレビュー画像生成、公開に至るまでの一連のプロセスは人間の介入なしに100%自動化されています。これは当チームが行った興味深い実験であり、そのためデータフィルタリング、自動学習、自動公開を含む一連のソフトウェアインフラを開発しました。したがって、可能な限り、さらなるフィードバックや提案をいただければ幸いです。これらは私たちにとって非常に貴重です。

なぜ希望するキャラクターの衣装が正確に生成できないのですか

現在の学習データは複数の画像サイトから収集されており、完全な自動パイプラインでは、キャラクターがどの公式画像を所有しているかを正確に予測することが困難です。そのため、衣装の生成は学習データセットのラベルに基づくクラスタリングで実現しようとしています。この問題に対して今後も対応し、最適化を試みますが、完全に解決することは難しいです。衣装再現の精度は、手動でトレーニングされたモデルと同等になることは見込めません。

実際、このモデルの最大の強みは、キャラクター自身の本質的特徴の再現性と、より大規模なデータセットによる比較的高い汎化能力です。したがって、このモデルは衣装の変更、キャラクターのポージング、そしてもちろんキャラクターのNSFW画像生成に最適です!😉

以下のグループの方々には、このモデルの使用をお勧めしません。あらかじめお詫び申し上げます:

  1. キャラクターのデザインに、些細な違いであっても許容できない方。
  2. キャラクターの衣装再現に高い正確性を求める方。
  3. Stable Diffusionアルゴリズムに基づくAI生成画像の潜在的なランダム性を受け入れられない方。
  4. LoRAによるキャラクターモデルの完全自動トレーニングプロセスに不安を感じる方、またはキャラクターモデルの学習は手動で行わなければキャラクターへの不敬だと考える方。
  5. 生成された画像の内容が自身の価値観に反すると感じる方。

このモデルで生成された画像

画像が見つかりません。