FluffyRock E6-LAION
详情
下载文件
关于此版本
模型描述
此处信息仍在完善中。
该模型与 fluffyrock-1088-megares-terminal-snr-vpred 类似,均使用终端 SNR 和 v-预测,但训练数据额外包含了 e6、laion、booru、gpt4mini 等多个数据集。由于这些超大规模数据集的“多样性”,其输出风格与概念的范围远超仅基于 e6 训练的大多数模型,但结果也可能较为“实验性”且不稳定。
与其他许多 FR 模型不同,本模型并非从其他 FR 模型分叉而来,而是从 SD1.5 重新开始训练。由于这一原因以及数据集规模的扩大,完成一次完整训练所需时间呈几何级增长,且模型在知识层面远落后于其他 FR 模型。
所有过往训练轮次,以及可能的新轮次,均可在 E6-LAION 的 HuggingFace 仓库 中找到。
PolyFur 是另一个正在开发的类似项目,但使用了更为精选的数据集。
提示词使用:
该模型能理解类似于 SD1.5 和 e621 标签的自然语言,但二者属于独立的知识体系,结合使用可能获得更佳输出。建议使用 A1111 的 BREAK 关键字。
与其它模型(即使是其他 FluffyRock 模型)相比,您可能需要更完整、更谨慎地编写提示词(例如,不明确提示“尾巴”,原本应为尾巴的部分可能被误解为第三条腿)。E6LAION 可能会逐字解释通常无意义的“提示词杂烩”,并产生(非)预期的结果。
请使用 e621 标签,无需下划线,用逗号分隔,顺序不限。
艺术家标签使用 "by 名称" 格式,不包含通常会有的 (artist) 括号。
注意:使用 FluffyRock vpred 模型需额外设置:
请使用提供的配置文件。
您必须启用 cfg 重缩放(cfg rescale)。
对于 A1111(以及可能的 Vlad 分支),请使用 CFG_Rescale_webui 扩展。
Comfy UI 中也有实现方法,但我尚未亲自测试。我相信 ComfyUI_experiments 已包含相关节点。
自动补全:
标签自动补全文件 —— 当前仅支持 pre-3M 数据集。我正在构建新版本,但需手动核查并修正 3.5 万个冲突标签。
为何有两个轮次编号?
第一个数字是从训练开始的连续轮次。
第二个数字是该特定分支的起始轮次。
对于 E6-LAION,该模型源自一个更早、数据集更小的 E6-LAION 实验分支。
故障排除:
输出效果差:
请勿在 512x512 分辨率下采样,使用 768 或更高分辨率。超过 1088 可能出现 SD1.x 的高分辨率异常。高分辨率修复(high-res-fix)及其他类似方法可轻松实现 2k+ 分辨率。
提示一些艺术风格,使用 "by [e6 艺术家标签,无下划线]",为获得更好效果,可尝试多个风格。若提示词中完全不包含任何风格引导,结果可能极差。
v-pred 故障排除:
输出仅为噪点/云雾: 缺少配置文件。
输出过暗: 提高 cfg 重缩放数值。通常 0.7–0.9 效果最佳。
部分采样器可能无法正常工作,因为 cfg 重缩放支持尚未完善。请参阅 Discord 线程获取最新讨论。
训练 LoRA:
v-pred 可能需要启用 v_parameterization 进行训练。kohya_ss 可能会警告在 v1 上使用此设置,忽略该警告——没人预期有人会在 SD1.5 上使用 v-prediction 训练。
在非 vpred 的 FR 模型上训练的 LoRA 很可能仍可使用。
如需帮助,请在 Discord 中提问。
链接与资源:
Hugging Face 仓库 包含每条模型线的所有版本。完整克隆该仓库需超过 1.5TB 磁盘空间,已提前警告。
Furry Diffusion Discord 服务器 及其上的 FR 专帖
LodestoneRock 的 Patreon —— 帮助支持训练成本。
许可证:WTFPL

由于 Civitai 网站内的生成功能(至少对这些模型)已损坏,我不得不将商业用途选项设为错误值,以禁用烦人的“创建”按钮。您可以在生成服务中使用这些模型,我们并不在意,但若它能正常工作就更好了。:V
据称,目前除 vpred 模型外,其他均已恢复正常。
如果您发布 FluffyRock 模型的公开合并版本,若能链接回 HF 或 Civitai 上的 FR 帖子,我们将不胜感激。








