A Certain Theory for LoRa Transfer

详情

模型描述

受到 Lykon 发布的 AnyLora 以及 Machi 所进行的一项实验的启发,我决定进一步探究用于训练的基础模型对结果的影响。

完整文档如下:

https://rentry.org/LyCORIS-experiments#a-certain-theory-on-lora-transfer

在同一页面我还列出了其他实验。

此处重点关注动漫训练。简要总结如下:

  • 若希望更换模型时切换风格,应使用 NAI 或 ACertainty。反之,若希望在一组模型上保留训练出的风格,应选择与这些模型都接近的基础模型(可能是合并模型)。

  • 若希望在使用模型 X 时保留其风格,应选择一个不包含该风格的 X 的祖先模型进行训练。特别是,若希望生成角色扮演图像,建议在 NAI 上训练,不要直接在 NeverEndingDream 或 ChilloutMix 上训练。

  • 除非训练的是类似 WD 那种大规模内容,否则一般不建议使用 SD 1.4/1.5 进行动漫训练。

通用建议

  • 数据集最重要。尽可能使用正则化数据集。确保数据多样且标注准确(请注意:触发词学习的是图像中的内容,而不一定被描述在标签中)。

  • 使用更高分辨率训练可以提升背景和细节表现,但不一定值得。

  • 我本人完全看不出在 CLIP 1 和 CLIP 2 上训练有何区别。如果你观察到差异,请告知我。

由于无法上传完整分辨率图片(每个超过100MB),你可以自行下载压缩包查看。

  • 图片 2-6:使用最终检查点,权重为 1 生成
  • 图片 7-9:使用中间检查点生成
  • 图片 10-12:使用最终检查点,权重为 0.65 生成

此模型生成的图像

未找到图像。