这是一个经过更好训练的版本,内存占用低——dim8fp4,约50MB的LORA。我用它取得了不错的效果,试试看吧。
在kohya中使用约2000步训练,采用pony diffuser。
终于掌握了LORA训练的诀窍,尽情享受吧。如果有任何需求,请告诉我。
这是一个小马模型,即最适合与小马及其合并模型使用(此模型尤其能很好地融入不同风格)。
Wt- 0.8-1.0