Hisaishi Kanade/久石奏 (Sound! Euphonium)
详情
下载文件
关于此版本
模型描述
- 由于 Civitai 的服务条款,部分图片无法上传。完整的预览图片请见 HUGGINGFACE。
- 对于模型版本 v1.5.1 或 v2.0+,您可像使用其他 LoRA 一样直接在 WebUI 中使用,它们是使用 kohya 脚本训练的。
- 对于模型版本 v1.5 或 v1.4-,您必须同时使用两个文件才能运行。详情请参见描述中的“如何使用 Pivotal Tuned 模型”。
- 经过精简的角色标签为:短发、黑发、蝴蝶结、头发蝴蝶结、红眼、红色蝴蝶结。当角色的核心特征(如发色)不够稳定时,您可以在提示词中添加这些标签。
- pt 文件推荐权重为 0.7-1.1,LoRA 权重为 0.5-0.85。
- 图片是使用一些固定提示词和基于数据集聚类的提示词生成的,使用了随机种子,排除了人为挑选。您看到的就是您能得到的。
- 未对服装进行专门训练。您可以查看我们提供的预览帖以获取对应服装的提示词。
- 本模型使用了359 张图片进行训练。
- 训练配置文件见 这里。
- 我们自动选择的步骤为 1272,以平衡模型的保真度与可控性。以下是所有步骤的概览,您可以在 huggingface 仓库 - CyberHarem/hisaishi_kanade_soundeuphonium 中尝试其他推荐步骤。

如何使用此模型
本部分仅适用于模型版本 v1.5.1 或 v2.0+。
您可以像使用其他 LoRA 一样直接使用它。我们使用 kohya 脚本训练了此模型。
他のLoRAと同様に簡単に使用できます。このモデルはkohyaスクリプトで訓練されました。
다른 LoRA처럼 간단히 사용할 수 있습니다. 우리는 이 모델을 kohya 스크립트로 훈련했습니다.
您可以像其他LoRAs一样简单地使用它。我们使用kohya脚本对该模型进行了训练。
(由 ChatGPT 翻译)
如果您正在寻找模型中的角色女仆,或对我们的技术感兴趣,欢迎加入我们的 Discord 服务器。
本模型如何训练
- 本模型使用 kohya-ss/sd-scripts 训练,图像通过 a1111 的 WebUI 和 API SDK 生成。
- 自动训练框架 由 DeepGHS 团队 维护。
- 训练所用数据集为 CyberHarem/hisaishi_kanade_soundeuphonium 中的
stage3-p480-1200,共包含 359 张图片。 - 我们自动选择的步骤为 1272,以平衡模型的保真度与可控性。
- 训练配置文件见 这里。
更多训练细节和推荐步骤,请参阅 huggingface 仓库 - CyberHarem/hisaishi_kanade_soundeuphonium。
如何使用 Pivotal Tuned 模型
本部分仅适用于模型版本 v1.5 或 v1.4-。
本模型包含两个文件。若您使用的是 WebUI v1.6 或更低版本,必须同时使用这两个文件!!! 此时,您需要下载 hisaishi_kanade_soundeuphonium.pt 和 hisaishi_kanade_soundeuphonium.safetensors 两个文件,然后将 hisaishi_kanade_soundeuphonium.pt 放入 embeddings 文件夹,并同时将 hisaishi_kanade_soundeuphonium.safetensors 作为 LoRA 加载。若您使用的是 WebUI v1.7+,则只需像普通 LoRA 一样使用 safetensors 文件即可。这是因为嵌入式 LoRA/Lycoris 模型目前已获 a1111 WebUI 官方支持,详见 此处。
このモデルには2つのファイルがあります。WebUI v1.6 以下のバージョンを使用している場合は、これらを一緒に使用する必要があります!!! この場合、hisaishi_kanade_soundeuphonium.pt と hisaishi_kanade_soundeuphonium.safetensors の両方をダウンロードする必要があり、 その後、hisaishi_kanade_soundeuphonium.pt を embeddings フォルダに入れ、同時に hisaishi_kanade_soundeuphonium.safetensors をLoRAとして使用します。 webui v1.7+を使用している場合、一般的なLoRAsのようにsafetensorsファイルを使用してください。 これは、埋め込みバンドルされたLoRA/Lycorisモデルが現在、a1111のwebuiに公式にサポートされているためです。 詳細についてはこちらをご覧ください。
此模型包含两个文件。如果您使用的是 WebUI v1.6 或更低版本,您需要同时使用这两个文件! 在这种情况下,您需要下载 hisaishi_kanade_soundeuphonium.pt 和 hisaishi_kanade_soundeuphonium.safetensors 两个文件, 然后将 hisaishi_kanade_soundeuphonium.pt 放入 embeddings 文件夹中,并同时使用 hisaishi_kanade_soundeuphonium.safetensors 作为 LoRA。 如果您正在使用 webui v1.7 或更高版本,只需像常规 LoRAs 一样使用 safetensors 文件。 这是因为嵌入式 LoRA/Lycoris 模型现在已经得到 a1111's webui 的官方支持, 更多详情请参见这里。
(由 ChatGPT 翻译)
触发词为 hisaishi_kanade_soundeuphonium,精简标签为 short_hair, black_hair, bow, hair_bow, red_eyes, red_bow。当某些特征(如发色)有时不够稳定时,您可以在提示词中添加这些标签。
为何部分预览图看起来不像她
用于预览图的所有提示文本(可通过点击图片查看)均是基于从训练数据集中提取的特征信息,通过聚类算法自动生成的。图像生成过程中使用的种子也是随机的,且未经过任何人工筛选或修改。因此,可能存在上述问题。
实际上,根据我们的内部测试,大多数出现此类问题的模型在实际使用中的表现优于预览图所展示的效果。您唯一需要做的,可能是调整您使用的标签。
我觉得这个模型可能过拟合或欠拟合,我该怎么办
您看到的步骤是自动选择的。我们还为您推荐了其他优质步骤供尝试。点击 这里 选择您喜欢的步骤。
我们的模型已发布在 huggingface 仓库 - CyberHarem/hisaishi_kanade_soundeuphonium,其中保存了所有步骤的模型。同时,我们也将训练数据集发布在 huggingface 数据集 - CyberHarem/hisaishi_kanade_soundeuphonium,这可能对您有帮助。
为何不直接使用筛选后的优质图片
本模型从数据采集、训练,到生成预览图和发布,整个过程完全自动化,无人工干预。这是我们团队进行的一项有趣实验,为此我们已开发出一套完整的软件基础设施,包括数据过滤、自动训练和自动化发布。因此,若您能提供反馈或建议,我们将非常感激,因为这对我们的改进至关重要。
为何无法准确生成期望的角色服装
我们当前的训练数据来源于多个图片网站,为了实现全自动流程,准确预测某一角色拥有哪些官方图片颇具挑战。因此,服装生成依赖于基于训练数据集标签的聚类方法,以尽可能还原最佳效果。我们将持续改进这一问题,但仍难以彻底解决。服装还原的准确性也不太可能达到人工训练模型的水平。
事实上,本模型的最大优势在于准确还原角色本身固有特征,以及因数据集较大而具备较强的泛化能力。因此,本模型非常适合用于更换服装、调整角色姿势,当然也包括生成角色的 NSFW 图像!😉
对于以下人群,我们不推荐使用此模型,并深表遗憾:
- 不能容忍角色设计有任何细微偏差的用户。
- 对角色服装还原精度要求极高的应用场景使用者。
- 无法接受基于 Stable Diffusion 算法生成图像中潜在随机性的用户。
- 不适应使用 LoRA 自动训练角色模型的过程,或认为必须完全手动操作才能避免对角色不敬的用户。
- 觉得生成内容冒犯其价值观的用户。



















