이것은 동일한 데이터셋을 사용한 버전 1.0으로, 훈련 단계를 100회 추가한 것입니다. 전반적으로 결과가 훨씬 더 나아졌으며, 생성 간 일관성이 향상되고, 눈맞춤과 코 동작이 훨씬 더 우수해졌습니다. 일반적으로 더 안정적인 버전으로, 생성을 낭비하지 않습니다. 그러나 동작의 다양성은 여전히 제한적이며, 갤러리에서 보는 것과 거의 동일한 결과를 얻게 됩니다.
저는 "코 킁킁거리는" 여정을 마무리하기 위해 두 가지 추가 실험을 계획하고 있습니다:
동일한 데이터셋을 사용하되, 각 이미지 설명에 다른 동의어로 동작을 기술하는 버전. 이는 제가 예시 영상에서 반복적으로 사용하는 문장 간의 연관성을 줄일 것입니다.
훈련 세트에 비디오 데이터를 포함한 버전. 초기 실험 결과가 긍정적이므로, 새로운 버전이 출시될 때 알림을 받으려면 팔로우해 주세요.
참고: 저는 OneTrainer Hunyuan LoRA를 ComfyUI로 변환하는 방법을 찾고 있습니다. 만약 해당 변환 방법에 대한 가이드를 가지고 계시다면 메시지를 남겨주세요. 그동안 ComfyUI에서 사용에 어려움을 겪고 계신 분들은 아래 방법으로 해결할 수 있습니다(기본적으로 LoRA 키 이름을 변경):
lora.py 파일에서 다음 줄을 검색하세요:
if isinstance(model, comfy.model_base.HunyuanVideo):
그 조건 블록 내에 다음 코드를 붙여넣으세요:
diffusers_keys = comfy.utils.flux_to_diffusers(model.model_config.unet_config, output_prefix="diffusion_model.")
for j in diffusers_keys:
if j.endswith(".weight"):
to = diffusers_keys[j]
key_map["transformer.{}".format(j[:-len(".weight")])] = to #simpletrainer and probably regular diffusers flux lora format
key_map["lycoris_{}".format(j[:-len(".weight")].replace(".", "_"))] = to #simpletrainer lycoris
key_map["lora_transformer_{}".format(j[:-len(".weight")].replace(".", "_"))] = to #onetrainer