在之前(比如6个月前),我们只能使用“梗科学”来训练LoRA。而这次是在NovelAI模型基础上,采用clip跳过2、不启用VAE,并在x512分辨率下进行更合理的风格训练,同时使用了长宽比分桶(aspect ratio bucketing)技术。现在的模型响应更好,体积也小得多(可能还能进一步缩小,依然保持效果,不过这点就留给你去探索了)。训练使用A100显卡,批量大小为10,采用DAdaptAdam优化器。
无需特殊标签,只需在启用LoRA时正常输入提示词即可。“高分辨率修复”功能可获得最佳效果。
如果您将此LoRA用于组合使用或托管在生成服务上,请务必注明并链接回本页面(尤其是您因此获利时)