YiffAI 2.3.22
详情
下载文件
关于此版本
模型描述
你好!YiffAI (YAI) 是基于基础的 SD 2.x 768-v 模型,使用 kohya 仓库的微调变体训练而成,可支持各种向量,用于创作大量(拟人化)兽人图像!该模型在单张 3090 显卡上进行了约 400 小时的调优,能以多种风格生成令人惊艳的图像,至少是 SD 2.x 本身所能实现的范围之内。
2023年1月26日:目前训练已转为以 SD 2.0 768-V 作为模型基础,从 YAI 2.3.22 版本开始。此模型不像基于 SD 2.1 768-V 的模型那样明确需要 xformers,但其他设置仍适用。若您希望使用基于 SD 2.1 的模型,请务必仔细阅读本说明中关于 xformers 的要求!
建议生成图像时使用 768x768 分辨率,或在其基础上稍作调整。512x512 及以下分辨率效果较差——和大多数基于 768-v 系列模型的情况一致。
更多补充信息、提示、使用指南等,欢迎加入本模型原始发布的 Discord 服务器:Furry Diffusion Discord
值得注意的是,该模型不使用 SD 2.x 本身以外的艺术家标签。—所有艺术家标签均未人工添加。— 相反,请使用真实有效的风格术语,例如水彩、反光阴影、边缘光、或甚至 kemono!当然,它也能理解许多与兽人相关的特定话题,为图像创作提供灵感。否则它根本不可能达到这样的效果。
杂项说明:
您必须使用 Automatic1111 的最新版 WebUI,或功能相当的界面来运行此模型。如果您之前使用过 Auto1111 的界面,那么几乎可以肯定您需要删除安装目录下的 /venv 文件夹。下次启动时它会自动重建,但必须这么做才能更新所有依赖项以加载 SD 2.x 模型。
您必须安装 xformers 来运行基于 2.1 的模型,或必须在批处理文件中使用 --no-half 或类似命令行参数,以全精度运行。若不使用 xformers 或 no-half,您的图像必然全黑!请务必重视此警告。若您愿意重新安装或需要安装界面,https://www.reddit.com/r/StableDiffusion/comments/zpansd/automatic1111s_stable_diffusion_webui_easy/ 可使这一过程变得非常简单。
您必须将包含的 YAML 文件放在与模型同级的文件夹中,即模型所在的目录。通常在 Auto1111 中,该路径为 "/models/stable-diffusion"。YAML 文件的文件名必须与模型文件名完全一致!
本模型以及 SD 2.x 本身均经过 Clip Skip 训练!使用 Clip Skip 与不使用之间的结果差异可能非常大。若您不想使用 Clip Skip,或想尝试更狂野的效果,请将模型文件名末尾加上 "noskip",使其与另一个 YAML 文件匹配!否则,请切勿更改该文件的命名格式!* 补充说明:目前尚不支持上传多个 YAML 文件,因此唯一可用的配置就是带 Clip Skip 的版本。






