Saitou Aoi/斎藤葵 (Sound! Euphonium)

详情

模型描述

  • 由于 Civitai 的服务条款,部分图片无法上传。完整的预览图片请见 HUGGINGFACE
  • 对于模型版本 v1.5.1 或 v2.0+,您可像使用其他 LoRA 一样直接在 WebUI 中使用,它们是使用 kohya 脚本训练的
  • 对于模型版本 v1.5 或 v1.4-,您必须同时使用两个文件才能运行。详情请参见描述中的“如何使用 Pivotal Tuned 模型”。
  • 已精简的角色标签包括:发饰、发夹、长发、辫子、黑发、绿眼、双辫、发丝垂肩。当角色的核心特征(如发色)不够稳定时,您可在提示词中添加这些标签
  • pt 文件推荐权重为 0.7–1.1,LoRA 权重推荐为 0.5–0.85。
  • 图像使用一些固定提示词和基于数据集聚类的提示词生成,采用随机种子,排除了人为挑选。您看到的就是您能得到的
  • 服装未进行专门训练。您可查看我们提供的预览图以获取对应服装的提示词。
  • 本模型使用 198 张图像 训练。
  • 训练配置文件见 这里
  • 我们自动选择的步骤为 3009,以平衡模型的保真度与可控性。以下是所有步骤的概览。您可在 huggingface 仓库 - CyberHarem/saitou_aoi_soundeuphonium 中尝试其他推荐步骤。

步骤概览

如何使用本模型

本部分仅适用于模型版本 v1.5.1 或 v2.0+。

您可以像使用其他 LoRA 一样直接使用它。我们使用 kohya 脚本训练了该模型。

他のLoRAと同様に簡単に使用できます。このモデルはkohyaスクリプトで訓練されました。

다른 LoRA처럼 간단히 사용할 수 있습니다. 우리는 이 모델을 kohya 스크립트로 훈련했습니다。

您可以像其他LoRAs一样简单地使用它。我们使用kohya脚本对该模型进行了训练。

(由 ChatGPT 翻译)

如果您正在寻找模型中的女角色,或对我们的技术感兴趣,欢迎加入我们的 Discord 服务器

模型如何训练

更多训练细节与推荐步骤,请参阅 huggingface 仓库 - CyberHarem/saitou_aoi_soundeuphonium

如何使用 Pivotal Tuned 模型

本部分仅适用于模型版本 v1.5 或 v1.4-。

本模型包含两个文件。若您使用的是 WebUI v1.6 或更低版本,必须同时使用这两个文件!!! 此时,您需要下载 saitou_aoi_soundeuphonium.ptsaitou_aoi_soundeuphonium.safetensors 两个文件,然后saitou_aoi_soundeuphonium.pt 放入 embeddings 文件夹,并同时将 saitou_aoi_soundeuphonium.safetensors 作为 LoRA 加载若您使用的是 WebUI v1.7+,只需像常规 LoRA 一样使用 safetensors 文件即可。这是因为嵌入式 LoRA/Lycoris 模型现已得到 a1111 WebUI 的官方支持,详情请见 此处

このモデルには2つのファイルがあります。WebUI v1.6 以下のバージョンを使用している場合は、これらを一緒に使用する必要があります!!! この場合、saitou_aoi_soundeuphonium.ptsaitou_aoi_soundeuphonium.safetensors の両方をダウンロードする必要があり、 その後、saitou_aoi_soundeuphonium.ptembeddings フォルダに入れ、同時に saitou_aoi_soundeuphonium.safetensors をLoRAとして使用しますwebui v1.7+を使用している場合、一般的なLoRAsのようにsafetensorsファイルを使用してください。 これは、埋め込みバンドルされたLoRA/Lycorisモデルが現在、a1111のwebuiに公式にサポートされているためです。 詳細についてはこちらをご覧ください。

此模型包含两个文件。如果您使用的是 WebUI v1.6 或更低版本,您需要同时使用这两个文件! 在这种情况下,您需要下载 saitou_aoi_soundeuphonium.ptsaitou_aoi_soundeuphonium.safetensors 两个文件, 然后saitou_aoi_soundeuphonium.pt 放入 embeddings 文件夹中,并同时使用 saitou_aoi_soundeuphonium.safetensors 作为 LoRA如果您正在使用 webui v1.7 或更高版本,只需像常规 LoRAs 一样使用 safetensors 文件。 这是因为嵌入式 LoRA/Lycoris 模型现在已经得到 a1111's webui 的官方支持, 更多详情请参见这里

(由 ChatGPT 翻译)

触发词为 saitou_aoi_soundeuphonium,精简标签为 hair_ornament, hairclip, long_hair, braid, black_hair, green_eyes, twin_braids, hair_over_shoulder当某些特征(如发色)在某些时候不够稳定时,您可以将这些标签加入您的提示词中

为何部分预览图看起来不像角色本人

所有预览图中使用的提示词(可通过点击图片查看)均是基于从训练数据集中提取的特征信息,通过聚类算法自动生成的。图像生成过程中使用的种子也是随机生成的,且图像未经过任何人为筛选或修改。因此,可能出现上述问题。

实际上,根据我们的内部测试,大多数遇到此类问题的模型在实际使用中的表现均优于预览图所展示的效果。您唯一可能需要做的,就是调整所使用的标签

我觉得这个模型可能出现过拟合或欠拟合,该怎么办

您所看到的步骤是自动选择的。我们还为您推荐了其他优秀的步骤供您尝试。点击 此处 选择您喜欢的步骤。

我们的模型已发布于 huggingface 仓库 - CyberHarem/saitou_aoi_soundeuphonium,其中保存了所有步骤的模型。此外,我们还将训练数据集发布于 huggingface 数据集 - CyberHarem/saitou_aoi_soundeuphonium,这可能对您有帮助。

为何不直接使用筛选后的优质图像

本模型从数据采集、训练、生成预览图到发布,整个流程 100% 自动化,无任何人工干预。这是我们团队进行的一项有趣实验,为此我们开发了一整套软件基础设施,包括数据过滤、自动训练和自动化发布。因此,若您能提供反馈或建议,将对我们极具价值。

为何无法准确生成期望的角色服装

我们当前的训练数据来源于多个图片网站,对于全自动流程而言,准确预测某个角色拥有哪些官方图像十分困难。因此,服装生成依赖于基于训练数据集标签的聚类方法,以期实现最佳还原效果。我们将持续改进并尝试优化,但该问题仍无法完全解决。服装还原的准确度也难以达到人工训练模型的水平。

事实上,本模型最大的优势在于还原角色本身的固有特征,以及因数据集规模较大而具备的较强泛化能力。因此,本模型非常适合用于更换服装、调整角色姿态,当然也适用于生成角色的 NSFW 图像!😉

以下群体不建议使用本模型,我们深表歉意:

  1. 无法容忍任何与原角色设计微小偏差的用户。
  2. 对角色服装还原的准确性要求极高的用户。
  3. 无法接受基于 Stable Diffusion 算法生成图像中潜在随机性的用户。
  4. 对使用 LoRA 自动训练角色模型的过程感到不适,或认为训练角色模型必须完全手动操作以示尊重的用户。
  5. 觉得生成图像内容冒犯其价值观的用户。

此模型生成的图像

未找到图像。