owari/尾張/尾张 (Azur Lane)
详情
下载文件
关于此版本
模型描述
- 由于 Civitai 的服务条款,部分图片无法上传。完整的预览图片可在 HUGGINGFACE 上查看。
- 此模型包含两个文件。如果您使用的是 a1111 的 WebUI v1.6 或更低版本,必须同时使用这两个文件!。如果您使用的是 WebUI v1.7+,只需像普通 LoRA 一样使用 safetensors 文件即可。
- 已精简的角色标签包括:breasts, long_hair, braid, hair_over_one_eye, horns, large_breasts, yellow_eyes, blonde_hair, mole, twin_braids, dark_skin, bangs, earrings, hair_ornament, very_long_hair, dark-skinned_female, mole_under_mouth, hairclip, huge_breasts。当角色的核心特征(例如发色)不够稳定时,您可以将这些标签添加到提示词中。
- pt 文件的推荐权重为 0.7–1.1,LoRA 的推荐权重为 0.5–0.85。
- 图片是使用一些固定提示词和基于数据集聚类的提示词生成的,使用了随机种子,排除了人为挑选。您看到的就是您能得到的。
- 服装方面未进行专门训练。您可查看我们提供的预览帖子以获取对应服装的提示词。
- 本模型使用 795 张图片 训练而成。
如何使用此模型
此模型包含两个文件。如果您使用的是 WebUI v1.6 或更低版本,必须同时使用这两个文件!!! 在此情况下,您需要下载 owari_azurlane.pt 和 owari_azurlane.safetensors,然后将 owari_azurlane.pt 放入 embeddings 文件夹,并同时将 owari_azurlane.safetensors 作为 LoRA 使用。如果您使用的是 WebUI v1.7+,只需像普通 LoRA 一样使用 safetensors 文件即可。这是因为嵌入式 LoRA/Lycoris 模型现已获得 a1111 WebUI 的官方支持,详情请见 此处。
このモデルには2つのファイルがあります。WebUI v1.6 以下のバージョンを使用している場合は、これらを一緒に使用する必要があります!!! この場合、owari_azurlane.pt と owari_azurlane.safetensors の両方をダウンロードする必要があり、 その後、owari_azurlane.pt を embeddings フォルダに入れ、同時に owari_azurlane.safetensors をLoRAとして使用します。 webui v1.7+を使用している場合、一般的なLoRAsのようにsafetensorsファイルを使用してください。 これは、埋め込みバンドルされたLoRA/Lycorisモデルが現在、a1111のwebuiに公式にサポートされているためです。 詳細についてはこちらをご覧ください。
此模型包含两个文件。如果您使用的是 WebUI v1.6 或更低版本,您需要同时使用这两个文件! 在这种情况下,您需要下载 owari_azurlane.pt 和 owari_azurlane.safetensors 两个文件, 然后将 owari_azurlane.pt 放入 embeddings 文件夹中,并同时使用 owari_azurlane.safetensors 作为 LoRA。 如果您正在使用 webui v1.7 或更高版本,只需像常规 LoRAs 一样使用 safetensors 文件。 这是因为嵌入式 LoRA/Lycoris 模型现在已经得到 a1111's webui 的官方支持, 更多详情请参见这里。
触发词为 owari_azurlane,精简标签为 breasts, long_hair, braid, hair_over_one_eye, horns, large_breasts, yellow_eyes, blonde_hair, mole, twin_braids, dark_skin, bangs, earrings, hair_ornament, very_long_hair, dark-skinned_female, mole_under_mouth, hairclip, huge_breasts。当某些特征(例如发色)有时不够稳定时,您可以将这些标签添加到您的提示词中。
模型训练方式
- 本模型使用 HCP-Diffusion 训练。
- 自动训练框架 由 DeepGHS 团队 维护。
- 训练所用的基础模型为 deepghs/animefull-latest。
- 训练数据集为 CyberHarem/owari_azurlane 中的
stage3-p480-800,共包含 795 张图片。 - 批次大小为 4,分辨率为 720x720,聚类为 5 个桶。
- 正则化数据集的批次大小为 2,分辨率为 720x720,聚类为 20 个桶。
- 训练共进行 7960 步,保存并评估了 40 个检查点。
更多训练细节,请参阅 huggingface 仓库 - CyberHarem/owari_azurlane。
为何部分预览图与角色形象不符
所有预览图中使用的提示词(点击图片可查看)均是通过聚类算法自动生成的,基于从训练数据集中提取的特征信息。图像生成时使用的种子也是随机生成的,且图像未经过任何筛选或修改。因此,可能出现上述问题。
实际使用中,根据我们的内部测试,大多数出现此类问题的模型在真实应用中的表现往往优于预览图所展示的效果。您可能需要做的只是调整所使用的标签。
我觉得此模型可能过拟合或欠拟合,该怎么办?
此处显示的步骤为自动选择的结果。我们还为您推荐了其他优质步骤供尝试。点击 此处 选择您喜欢的步骤。
我们的模型已发布在 huggingface 仓库 - CyberHarem/owari_azurlane,其中保存了所有步骤的模型。同时,我们也在 huggingface 数据集 - CyberHarem/owari_azurlane 上发布了训练数据集,可能对您有帮助。
为何不直接使用更精选的图片?
本模型从数据爬取、训练、生成预览图到发布,整个过程完全自动化,无人工干预。这是我们团队进行的一项有趣实验,为此我们开发了一整套软件基础设施,包括数据过滤、自动训练和自动化发布。因此,若您能提供反馈或建议,我们将非常感激,因为这对我们的工作至关重要。
为何无法准确生成期望的角色服装?
我们当前的训练数据来源于多个图片网站,对于全自动流程而言,难以精准预测某角色拥有哪些官方图像。因此,服装生成依赖于基于训练数据集中标签的聚类,以尽可能还原效果。我们将持续改进这一问题并尝试优化,但该挑战目前尚无法彻底解决。服装还原的准确性也难以达到人工训练模型的水平。
事实上,本模型最大的优势在于还原角色本身的固有特征,以及因其较大数据集而具备的较强泛化能力。因此,本模型非常适合用于更换服装、调整角色姿势,当然也包括生成角色的 NSFW 图像!😉
以下群体不建议使用本模型,我们深表遗憾:
- 无法容忍角色设计中任何细微偏差的用户。
- 对角色服装还原准确性要求极高的应用场景用户。
- 无法接受基于 Stable Diffusion 算法生成图像中潜在随机性的用户。
- 不适应使用 LoRA 自动训练角色模型的流程,或认为必须完全手动操作以避免“不尊重角色”的用户。
- 觉得生成内容违背其价值观的用户。



















