每个可下载文件都有独特的角色或风格。我在训练中降低了LoRA乘数,现在相比本系列的第一个版本,它收敛得更快,同时保持了稳定性。
使用“松散的笔触”以获得更强的效果。
它在训练时使用了NF4权重,并遵循了原始Turbo模型的步骤(与其他训练器不同)。使用了自定义脚本,相较于其他LoRA稍显过度训练。
已在Haoming的_A1111 Forge Neo_中以bfloat16精度进行测试。