Seylen
详情
下载文件
模型描述
你能想象这个LoRA仅用3张图像就训练出来了吗?我也觉得不可思议,但它真的有效!
这是怎么发生的?
我用Perchance生成了初始图像:一张正面、一张侧面和一张背面,保持了足够的连贯性以 resembling 角色。在本地使用ComfyUI进行变体和超分辨率处理后,我想:“为什么不去试一下制作一个LoRA呢?”
在训练完上一个LoRA之后,我就一直在思考这个问题:“理论上,仅用3张图像和极少的标签词就能训练出一个角色LoRA”是可能的。
这样,LoRA只包含角色本身,而没有那些会拖慢训练步骤和生成效果的随机杂乱内容。考虑到这仅仅是第四代训练,而结果已经略微“过火”,这表明:使用极小的数据集和最少的标签,也能高效快速地完成LoRA训练。
回头来看,你或许还可以参考一下Hyper-LoRA论文,以及那个能在生成过程中动态生成LoRA权重的实验性模型。




