Large Rank LoRA - Experiments towards full finetuning

详情

模型描述

大秩 LoRA - 面向全微调的实验

这是什么?

这是一个包含大秩(维度)和大数据集的 LoRA 集合,主要用于在组合数据集上测试全微调设置,这些组合数据集由曾用于独立 LoRA 的数据集构成。(详见每个版本的说明列表)

目标是找到一个单一的数据集和训练设置,能够:

  • 在单个检查点/LoRA 中良好地表达所有概念
  • 提升基础输出的美学质量和解剖结构准确性

之后,我将使用该数据集和训练设置来训练新的全微调模型。

适合谁使用?

如果你喜欢本集合中包含的任何 LoRA 数据集,你可能也会喜欢这些组合结果——目前测试表明,各个概念/角色仍能得到较佳的保留。(参见此帖进行对比)

这些模型对其他创作者在模型混合/微调中也可能有帮助。我基于 Pony 基础模型进行训练,以兼容最多的合并混合方案。

数据集

包含的数据集均经过:

  • 手动筛选质量与美学标签:

    • masterpiece, best quality, low quality, very aesthetic, aesthetic
  • 每个数据集约 1000 张图像

例如,Fantasy Anime v.1 [Pony] 版本 包含来自以下 LoRA 数据集的 3374 张图像:

推荐提示结构:

正向提示:

{{tags}}
score_9, score_8_up, score_7_up, score_6_up, absurdres, masterpiece, best quality, very aesthetic

负向提示:

(worst quality, low quality:1.1), score_4, score_3, score_2, score_1, error, bad anatomy, bad hands, watermark, ugly, distorted, signature

此模型生成的图像

未找到图像。