这是版本 1.0,增加了 100 步训练,数据集相同。整体效果好得多,您应能期待各次生成结果更加一致,眼神接触和鼻子动作也明显改善。这是一个更稳定的版本,不会浪费生成次数。然而,动作的多样性仍然相当有限,您得到的结果几乎与图库中展示的一致。
我计划进行两项额外实验,以结束“闻蟑螂”之旅:
注意:我正在寻找一种将 OneTrainer Hunyuan LoRA 转换为 ComfyUI 的方法。如果有人有相关指南,请留言。同时,对于在 ComfyUI 中使用时遇到问题的人,请按以下方式修复(本质上是重命名部分 LoRA 键):
在 lora.py 文件中,查找以下行:
if isinstance(model, comfy.model_base.HunyuanVideo):
并在该条件块内粘贴:
diffusers_keys = comfy.utils.flux_to_diffusers(model.model_config.unet_config, output_prefix="diffusion_model.")
for j in diffusers_keys:
if j.endswith(".weight"):
to = diffusers_keys[j]
key_map["transformer.{}".format(j[:-len(".weight")])] = to #simpletrainer 和可能的常规 diffusers flux lora 格式
key_map["lycoris_{}".format(j[:-len(".weight")].replace(".", "_"))] = to #simpletrainer lycoris
key_map["lora_transformer_{}".format(j[:-len(".weight")].replace(".", "_"))] = to #onetrainer