Yolkhead's Albums
详情
下载文件
关于此版本
模型描述
AI和机器学习的免费资源:patreon.com/yolkhead
Patreon 上的所有内容均100%免费,这得益于一些出色会员的支持。因此,如果你觉得这些资源有帮助,他们无疑发挥了重要作用。
所有生成的图像应仍包含元数据,因此只需将其拖入 Forge 的图像检查器即可。从不进行图像修复,所有结果都应可直接复现。我通常甚至不用高分辨率修复(hires.fix),而是直接将 CFG 调得非常高,原生生成高分辨率图像——这其实是一种炫耀,没人真会注意,但我自己乐在其中。
版本:
CRUSH (sdxl)
在此预存专辑:https://artists.landr.com/055905712428
生成指南--------------------
最佳配合“粘性负向提示”方法使用:https://www.patreon.com/posts/sticky-negatives-119624467
我建议从 CFG 10-20 开始,使用 DPM 2a 或 DPM 3M SDE,以及 UNIFORM 调度器,步数为 15 - 60(在许多情况下,15 步已足够,有时甚至可低至 11)。请注意,此模型不含任何超模块或类似内容,仅依靠高 CFG 值而无明显伪影,意味着准确的嵌入,从而允许更低的步数和/或更高分辨率。
我尚未广泛测试其与 LoRA 的兼容性,但根据我测试的几个 LoRA,其权重需为正常值的约 1/10。
/end_生成指南---------------
这个模型是我至今使用过最通用的一个。它是一个简单的合并模型,通过树状层级逐步构建,最终实现一个使用 8 个模型、每阶段以 50%/50% 权重合并的模型。
不,我不知道它具体包含哪些内容。这正是设计的一部分:我进行了盲测图像评估,以决定哪些模型将被纳入其中,并相应修改了模型名称,以确保我的先入之见不会偏向任何方向。
本质上,该模型的权重更接近于用户偏好的“平均值”,因为我测试的模型均是用户高度偏好的模型,再从中根据进一步的个体偏好优化进行筛选。因此,该模型的权重并不特别强烈,高 CFG 值是正常现象,才能获得你所需的信号强度。
这意味着,如果你在此基础上进行微调,必须将学习率设置得低得多。我将在某个视频中解释原因,但请相信我,你会发现损失曲线比正常学习率低几个数量级时要好得多。这与模型权重中原始信号通过相对性保留有关,由于均值回归,这些信号非常“脆弱”——但这是另一个话题,等我有空在 Patreon 上详细说明。
我推荐为此模型使用 DPM2a、DPM 3M SDE 或 DDPM。尤其是 DPM 2a 在高 CFG 值下表现更佳,因为额外增加的噪声在拥有强大且准确的向量时很容易被处理,而这种增加本质上为修正错误提供了有用信息,同时有助于避免过拟合。
PINK CONCRETE (flux)
在此收听专辑:https://open.spotify.com/album/6mb2KnxcVOIKZBzEiq2Mdg?si=EIlFSDTfSfaFJglMPttk4g
Pink Concrete 音乐视频:https://www.instagram.com/reel/DD4Ah0LObCe
我强烈建议将 zer0int 的 CLIP-L 微调版本与本模型(以及任何 flux 微调模型)结合使用,因为性能提升简直惊人。
两者之间存在差异,但哪个更好尚不明确:建议保留两者,因为当你在某个提示上遇到困难时,切换 CLIP 模型可能会突然解决问题。
该模型基于我过去在 SDXL 微调中使用过的方法构建,但此次更加精细——我需要为数据集生成更高品质的图像,以避免无意中损害模型的 UNet。一般来说,模型品质越高,用于训练的数据集就需要越谨慎,因为任何“品质下降”都可能主观地损害其原始构图的特性。
这是一个整体提升。它不像某些 flux 微调模型那样擅长处理 NSFW 内容,但公平地说,目前没有任何 flux 微调模型能在这一方面超越 SDXL,因此这无关紧要。我设计此模型的主要目的是取消基础 flux 模型中许多安全训练,以提升 UNet 的质量和整体表现,作为未来微调的起点(结果似乎比预期更好)。




















