SDXL Simulacrum ROSE 512 tokens T5-XL
详情
下载文件
关于此版本
模型描述
支持最多 512 个 token,配合 Alucard 使用
当事情出错时会发生什么?
过度专注。它可能会选择一个主题并过度聚焦于此。在某个时刻,偏差导致某些元素权重过高,因此系统需要完全重新加权才能正确使用。
如何使用?
ComfyUI 工作流已附在商务女性图片上,以确保 Alucard 按预期工作,但这并非最简单的过程。
好了,我现在已正确命名所有内容。如果你拿到的是错误的版本,请确保获取正确版本。
提示词(Prompting)
每个版本均经过训练,以在 1280x1280 或更大尺寸(最高约 16nnx16nn)下激活,且 NSFW 元素应被完全黑名单屏蔽。
支持最多 512 个 token(配合 Alucard),以及 flan-t5-large 或 xl 设置为 512 个 token。在 256 时稍显稳定,但完全能够处理。将其与 bert-beatrix-2048 配对,可将上下文扩展至 512 以上,最高达 2048,但由此产生的结果最多只算是勉强可用。
它们主要针对小马主题输入以保证质量;因此你可以使用:
score_9, score_8, score_7, score_6, score_5, score_4, score_3, score_2, score_1 用于评分
masterpiece, most aesthetic, very aesthetic, displeasing, very displeasing 用于美学评价
rating_safe, rating_sensitive, rating_explicit, rating_nsfw
grid_a1 <- 完整网格支持
支持纯英文,并包含众多基础元素系统
大量的颜色、质量和确定性能力
使其正常工作
SIMULACRUM ROSE Epsilon 包含三个组件:
微调器(Refiner)——专门用于优化图像生成的第 800 至 1000 步(即 80% 至 100%)。
需要:
- Simulacrum V4 - Epred 专家 + 所有 clips
早期阶段(Early)——专门用于强化上下文并彻底重构文本到图像生成的图像。
需要:
- Simulacrum V4 - Epred 专家 + 所有 clips
全流程(Full)——在合并并完成 0-1000 步全系统微调后,结合上述两个模块的综合方案。
需要:
Simulacrum V4 - Epred 专家 + 所有 clips
-
dev2_electric_boogaloo
已配置的 clip 采样器
- 目前有多个,使用已配置的版本
shiva 折叠
100 步,单次通过
flan-t5-large
bert-beatrix-2048
Simulacrum Rose T2I - 1.0 强度
以上所有组件共同确保 Full 正常运行。部分组件可能被错误标记,若输出出现扫描线或异常结果,请尝试将 Refiner 替换为 T2I。
训练过程
每个模型均使用约一百万张图像训练超过 100 个 epoch,问题很快就会显现。它们被过度训练了,这也是我此前一直犹豫是否发布的原因。
若没有一套庞大的工具集支持,就无法轻松实现 Simulacrum Rose - Full 的正确插值版本。David 将在未来解决此问题,并直接与 Simulacrum Rose V2 配合。
这些模型均使用一种名为 Alucard 的新调度、折叠和处理格式进行训练——这是一种分步过程,旨在与标准噪声生成并行,实现条件的分隔式分桶处理。
系统本质上失败了,因为它无法在当前插值频谱内与噪声类型收敛。这既部分归因于微分方程设置错误,也部分归因于步进系统引入的随机漂移。
这些本质上是 NSFW 模型,因为训练过程过于激烈,但它们仍可用于多种用途,并具备相当强大的实用性。
它远未达到预期的水平。
对于等待这一版本的用户,我深表歉意。我曾长期推迟发布,而最终结果与频谱不兼容。尽管如此,输出结果仍应共享。
其 token 上下文在远超预期的 token 数量下仍能保持连贯性。模型在 bert-beatrix-2048 和 flan-t5-large 作为催化剂的条件下进行训练,因此当与标准 clips 搭配 simulacrum-epsilon-v4 使用时,效果最佳。




