这段文字比我通常喜欢的要更奇怪一些,不确定为什么这次的效果没有以往好,我将来可能会重新训练这个模型。如果你正在使用其他LoRA,遇到不一致的情况请见谅,可以尝试降低其他LoRA的强度。我在展示图中将其他LoRA的强度调低到了0.8。