watanabe_you/渡辺曜/와타나베요 (Love Live! Sunshine!!)

详情

模型描述

  • 由于Civitai令人困惑且令人沮丧的使用条款,部分图像可能被隐藏。完整预览图像请见 HUGGINGFACE
  • 此模型包含两个文件,必须同时使用!!!
  • 关联的触发词仅供参考,有时可能需要调整。
  • 嵌入模型的推荐权重为1,可提供更高保真度;若需更强的泛化能力,可降至0.5。
  • LoRA模型的推荐权重为0.85;若出现污染迹象,建议降低至0.5。
  • 预览图像使用若干固定测试提示及从聚类数据集特征衍生的提示生成,采用随机种子,排除了人为挑选。所见即所得。
  • 服装未进行专门训练。您可参考我们提供的预览帖,获取对应服装的提示词。

如何使用此模型

此模型包含两个文件,必须同时使用!!!。在此情况下,您需下载 watanabe_you_lovelivesunshine.ptwatanabe_you_lovelivesunshine.safetensors 两个文件,然后watanabe_you_lovelivesunshine.pt 用作纹理反转嵌入,同时将 watanabe_you_lovelivesunshine.safetensors 用作LoRA

このモデルには2つのファイルがあります。一緒に使う必要があります!!!。 この場合、watanabe_you_lovelivesunshine.ptwatanabe_you_lovelivesunshine.safetensorsの両方をダウンロード する必要があります。watanabe_you_lovelivesunshine.ptをテクスチャ反転埋め込みとして使用し、同時にwatanabe_you_lovelivesunshine.safetensorsをLoRAとして使用してください。

这个模型有两个文件。你需要同时使用它们!!!。 在这种情况下,您需要下载watanabe_you_lovelivesunshine.ptwatanabe_you_lovelivesunshine.safetensors这两个文件,然后将watanabe_you_lovelivesunshine.pt用作纹理反转嵌入, 同时使用watanabe_you_lovelivesunshine.safetensors作为LoRA。

이 모델은 두 개의 파일이 있습니다. 두 파일을 함께 사용해야 합니다!!!. 이 경우에는 watanabe_you_lovelivesunshine.ptwatanabe_you_lovelivesunshine.safetensors 두 파일을 모두 다운로드하신 다음에 watanabe_you_lovelivesunshine.pt을 텍스처 반전 임베딩으로 사용하고, 동시에 watanabe_you_lovelivesunshine.safetensors을 LoRA로 사용하셔야 합니다

(Translated with ChatGPT)

触发词为 watanabe_you_lovelivesunshine,推荐标签为 best quality, masterpiece, highres, solo, {watanabe_you_lovelivesunshine:1.15}, short_hair, blue_eyes, blush, brown_hair, smile, grey_hair, breasts, bangs, open_mouth, medium_breasts

模型训练方式

本模型使用 HCP-Diffusion 进行训练,自动训练框架由 DeepGHS Team 维护。

为何部分预览图像不像 Watanabe You Lovelivesunshine

所有预览图像所使用的提示文本(点击图像可查看)均通过聚类算法自动生成,算法基于从训练数据集中提取的特征信息。图像生成所用种子亦为随机生成,图像未经任何筛选或修改。因此,可能出现上述问题。

实际使用中,经我们内部测试,大多数遇到此类问题的模型在真实场景中的表现优于预览图像所示。您唯一需要做的,可能是调整所使用的标签。

我觉得此模型过拟合或欠拟合,该怎么办?

我们的模型已发布于 huggingface 仓库 - CyberHarem/watanabe_you_lovelivesunshine,其中保存了所有训练步骤的模型。此外,我们也在 huggingface 数据集 - CyberHarem/watanabe_you_lovelivesunshine 上发布了训练数据集,可能对您有帮助。

为何不直接使用更精选的图像?

本模型从数据采集、训练、生成预览图像到发布,整个流程100%自动化,无人工干预。这是我们团队进行的一项有趣实验,为此我们开发了一整套软件基础设施,包括数据过滤、自动训练与自动化发布。因此,若您能提供反馈或建议,我们将非常感激,因为它们对我们极具价值。

为何无法准确生成期望角色的服装?

我们当前的训练数据来源于多个图像网站,对于全自动化流程而言,很难精准预测角色拥有哪些官方图像。因此,服装生成依赖于基于训练数据集标签的聚类,力求实现最佳还原效果。我们将持续改进这一问题并尝试优化,但该挑战难以彻底解决,服装还原的准确性也难以达到人工训练模型的水平。

事实上,本模型的最大优势在于还原角色本身的固有特征,以及因其更大数据集带来的较强泛化能力。因此,本模型非常适合用于更换服装、调整角色姿势,当然也包括生成角色的NSFW图像!😉

以下群体不建议使用本模型,我们深表遗憾:

  1. 无法容忍任何角色设计细节偏离原始设定的用户。
  2. 对角色服装还原精度要求极高的应用场景用户。
  3. 无法接受基于Stable Diffusion算法的AI生成图像可能存在的随机性用户。
  4. 不适应使用LoRA全自动训练角色模型流程的用户,或认为训练角色模型必须完全手动操作以示尊重的用户。
  5. 觉得生成内容违背自身价值观的用户。

此模型生成的图像

未找到图像。