これは、同じデータセットを使用した100ステップ追加のトレーニングを経たバージョン1.0です。全体的に結果が大幅に改善され、ジェネレーション間の一貫性が高まり、目線と鼻の動きがはるかに良くなりました。ジェネレーションを無駄にしない、より安定したバージョンです。ただし、動きの多様性は依然として限られており、ギャラリーで見られるものとほぼ同じ結果が得られます。
「犬の匂いを嗅ぐ」プロジェクトを終えるために、今後2つの追加実験を計画しています:
注意: OneTrainerのHunyuan LoRAをComfyUIに変換する方法を探しています。その方法についてのガイドラインをお持ちの方は、メッセージを残してください。その間、ComfyUIで使用に困っている方は、以下のように対応してください(LoRAのキー名を一部変更します):
lora.py ファイル内で次の行を検索してください:
if isinstance(model, comfy.model_base.HunyuanVideo):
そして、その条件ブロック内に以下を貼り付けてください:
diffusers_keys = comfy.utils.flux_to_diffusers(model.model_config.unet_config, output_prefix="diffusion_model.")
for j in diffusers_keys:
if j.endswith(".weight"):
to = diffusers_keys[j]
key_map["transformer.{}".format(j[:-len(".weight")])] = to #simpletrainer and probably regular diffusers flux lora format
key_map["lycoris_{}".format(j[:-len(".weight")].replace(".", "_"))] = to #simpletrainer lycoris
key_map["lora_transformer_{}".format(j[:-len(".weight")].replace(".", "_"))] = to #onetrainer