Sekine (4-nin wa Sorezore Uso o Tsuku)
详情
下载文件
关于此版本
模型描述
- 此模型包含两个文件,您必须同时使用它们!!!
- 相关触发词仅供参考,有时可能需要调整。
- 嵌入模型的推荐权重为1,可提供更高保真度;若需更强的泛化能力,可降低至0.5。
- LoRA模型的推荐权重为0.85;若出现污染迹象,建议降低至0.5。
- 预览图使用少量固定测试提示词及从聚类数据集特征衍生的多个提示词生成,采用随机种子,排除了人为挑选。所见即所得。
- 服装方面未进行专门训练。您可查阅我们提供的预览帖子,获取对应服装的提示词。
如何使用此模型
此模型包含两个文件,您必须同时使用它们!!!。在此情况下,您需下载 sekine_4ninwasorezoreusootsuku.pt 和 sekine_4ninwasorezoreusootsuku.safetensors 两个文件,然后将 sekine_4ninwasorezoreusootsuku.pt 用作纹理反转嵌入,同时将 sekine_4ninwasorezoreusootsuku.safetensors 用作LoRA。
このモデルには2つのファイルがあります。一緒に使う必要があります!!!。 この場合、sekine_4ninwasorezoreusootsuku.ptとsekine_4ninwasorezoreusootsuku.safetensorsの両方をダウンロード する必要があります。sekine_4ninwasorezoreusootsuku.ptをテクスチャ反転埋め込みとして使用し、同時にsekine_4ninwasorezoreusootsuku.safetensorsをLoRAとして使用してください。
这个模型有两个文件。你需要同时使用它们!!!。 在这种情况下,您需要下载sekine_4ninwasorezoreusootsuku.pt和sekine_4ninwasorezoreusootsuku.safetensors这两个文件,然后将sekine_4ninwasorezoreusootsuku.pt用作纹理反转嵌入, 同时使用sekine_4ninwasorezoreusootsuku.safetensors作为LoRA。
이 모델은 두 개의 파일이 있습니다. 두 파일을 함께 사용해야 합니다!!!. 이 경우에는 sekine_4ninwasorezoreusootsuku.pt와 sekine_4ninwasorezoreusootsuku.safetensors 두 파일을 모두 다운로드하신 다음에 sekine_4ninwasorezoreusootsuku.pt을 텍스처 반전 임베딩으로 사용하고, 동시에 sekine_4ninwasorezoreusootsuku.safetensors을 LoRA로 사용하셔야 합니다。
触发词为 sekine_4ninwasorezoreusootsuku,推荐标签为:best quality, masterpiece, highres, solo, {sekine_4ninwasorezoreusootsuku:1.15}, brown_hair, glasses, braid, twin_braids, long_hair, ahoge, purple_eyes, serafuku, brown_eyes。
模型训练方式
本模型使用 HCP-Diffusion 训练,自动训练框架由 DeepGHS 团队 维护。
为何部分预览图不像 Sekine 4ninwasorezoreusootsuku
所有预览图使用的提示文本(可通过点击图片查看)均通过聚类算法自动生成,算法基于从训练数据集中提取的特征信息。图像生成所用种子亦为随机生成,且图片未经过任何筛选或修改。因此,可能出现上述问题。
实际使用中,根据我们的内部测试,多数出现此类问题的模型在真实应用中的表现往往优于预览图所示效果。您唯一可能需要做的,就是调整所使用的标签。
我觉得此模型可能存在过拟合或欠拟合,我该怎么办?
我们的模型已发布在 HuggingFace 仓库 - CyberHarem/sekine_4ninwasorezoreusootsuku_,其中保存了所有训练步骤的模型。此外,我们也将训练数据集发布在 HuggingFace 数据集 - CyberHarem/sekine4ninwasorezoreusootsuku,可能对您有所帮助。
为何不直接使用筛选得更好的图片?
本模型从数据爬取、训练、生成预览图到发布,整个流程完全自动化,无人工干预。这是我们团队进行的一项有趣实验,为此我们构建了一整套软件基础设施,包括数据过滤、自动训练与自动发布。因此,若您能提供反馈或建议,我们将非常感激,因为这对我们的改进至关重要。
为何无法准确生成角色的服装?
当前训练数据来源于多个图片网站,对于全自动流程而言,难以准确预测角色拥有哪些官方图像。因此,服装生成依赖于对训练数据集中标签的聚类分析,以期实现最佳还原效果。我们将持续改进此问题,但仍难以彻底解决,其还原精度也难以达到人工训练模型的水平。
事实上,本模型的最大优势在于精准还原角色本身的固有特征,以及因数据集规模较大而具备的较强泛化能力。因此,本模型非常适合用于更换服装、调整角色姿势,当然也包括生成角色的NSFW图像!😉
以下用户群体不建议使用本模型,敬请谅解:
- 无法容忍角色设计中哪怕最轻微偏差的用户。
- 对角色服装还原精度要求极高的应用场景用户。
- 无法接受基于Stable Diffusion算法生成图像时潜在随机性的用户。
- 不适应使用LoRA全自动训练角色模型的过程,或坚信必须纯手动训练才不致“亵渎”角色的用户。
- 认为生成图像内容违背其价值观的用户。












