Yoshikawa Yūko (Sound! Euphonium)

详情

模型描述

  • 由于 Civitai 的服务条款,部分图片无法上传。完整的预览图片请参见 HUGGINGFACE
  • 此模型包含两个文件,必须同时使用!!!
  • 关联的触发词仅作参考,有时可能需要调整
  • 推荐 pt 文件权重为 0.5-1.0,LoRA 权重为 0.5-0.85。
  • 图片使用若干固定提示词和基于数据集的聚类提示词生成,采用随机种子,排除了人为挑选。您看到的就是您能得到的
  • 服装未进行专门训练。您可参考我们提供的预览图获取对应服装的提示词。
  • 本模型使用 427 张图像 进行训练。

如何使用此模型

此模型包含两个文件,必须同时使用!!!。 在此情况下,您需要下载 yoshikawa_yuko_soundeuphonium.ptyoshikawa_yuko_soundeuphonium.safetensors 两个文件,然后yoshikawa_yuko_soundeuphonium.pt 作为纹理反转嵌入使用,同时将 yoshikawa_yuko_soundeuphonium.safetensors 作为 LoRA 使用

このモデルには2つのファイルがあります。一緒に使う必要があります!!!。 この場合、yoshikawa_yuko_soundeuphonium.ptyoshikawa_yuko_soundeuphonium.safetensorsの両方をダウンロード する必要があります。yoshikawa_yuko_soundeuphonium.ptをテクスチャ反転埋め込みとして使用し、同時にyoshikawa_yuko_soundeuphonium.safetensorsをLoRAとして使用してください。

这个模型有两个文件。你需要同时使用它们!!!。 在这种情况下,您需要下载yoshikawa_yuko_soundeuphonium.ptyoshikawa_yuko_soundeuphonium.safetensors这两个文件,然后将yoshikawa_yuko_soundeuphonium.pt用作纹理反转嵌入, 同时使用yoshikawa_yuko_soundeuphonium.safetensors作为LoRA。

이 모델은 두 개의 파일이 있습니다. 두 파일을 함께 사용해야 합니다!!!. 이 경우에는 yoshikawa_yuko_soundeuphonium.ptyoshikawa_yuko_soundeuphonium.safetensors 두 파일을 모두 다운로드하신 다음에 yoshikawa_yuko_soundeuphonium.pt을 텍스처 반전 임베딩으로 사용하고, 동시에 yoshikawa_yuko_soundeuphonium.safetensors을 LoRA로 사용하셔야 합니다

触发词为 yoshikawa_yuko_soundeuphonium,推荐标签为:best quality, masterpiece, highres, solo, {yoshikawa_yuko_soundeuphonium:1.15}, long_hair, ribbon, brown_hair, hair_ribbon, serafuku, green_eyes, blush, bangs, closed_mouth, bow, yellow_ribbon, hair_bow, blonde_hair

模型训练方式

本模型使用 HCP-Diffusion 进行训练,自动训练框架由 DeepGHS Team 维护。

为何部分预览图看起来不像由佳香(Sound Euphonium)

预览图中所用的所有提示词(可通过点击图片查看)均基于从训练数据集中提取的特征信息,通过聚类算法自动生成。图像生成时使用的种子也是随机生成的,且图像未经过任何筛选或修改。因此,可能出现上述问题。

实际使用中,根据我们内部测试,多数遇到此类问题的模型在真实应用中的表现往往优于预览图所示效果。您唯一需要做的可能是调整所使用的标签

我觉得这个模型可能过拟合或欠拟合,该怎么办?

我们的模型已发布在 huggingface 仓库 - CyberHarem/yoshikawa_yuko_soundeuphonium,其中保存了所有训练步骤的模型。此外,我们还发布了训练数据集在 huggingface 数据集 - CyberHarem/yoshikawa_yuko_soundeuphonium,这可能对您有帮助。

为何不直接使用筛选更好的图片?

本模型从数据爬取、训练、生成预览图到发布,整个过程100%自动化,无人工干预。这是我们团队进行的一项有趣实验,为此我们构建了一整套软件基础设施,包括数据过滤、自动训练和自动化发布。因此,若您能提供更多的反馈或建议,我们将非常感激,因为它们对我们极其宝贵。

为何无法准确生成期望角色的服装?

我们当前的训练数据来源于多个图片网站,对于全自动流程而言,难以准确预测某个角色拥有哪些官方图像。因此,服装生成依赖于基于训练数据集标签的聚类,以尽可能还原最佳效果。我们会持续改进这一问题并尝试优化,但目前仍是一项难以彻底解决的挑战。服装还原的准确度也不太可能达到人工训练模型的水平。

事实上,本模型最大的优势在于还原角色本身的固有特征,以及因使用更大数据集而具备的较强泛化能力。因此,本模型非常适合用于更换服装、调整角色姿势,当然也包括生成角色的NSFW图像!😉

以下群体不建议使用本模型,我们深表歉意:

  1. 对角色原始设计有任何细微偏差都无法容忍者。
  2. 对角色服装还原精度要求极高者。
  3. 无法接受基于 Stable Diffusion 算法生成图像时可能存在的随机性者。
  4. 不适应使用 LoRA 自动化训练角色模型的过程,或认为角色模型训练必须完全依赖人工操作以避免不敬者。
  5. 认为生成图像内容与其价值观相冲突者。

此模型生成的图像

未找到图像。