Easy LoRA Trainer
세부 정보
파일 다운로드
모델 설명
간단하고 빠른 LoRA 트레이너 설정입니다. 512px 해상도, 배치 크기 1로 5분 트레이닝 후 1it/s 속도를 달성했으므로 상당히 빠릅니다.
flux1_devFP8Kijai11GB.safetensors와 일반적인 flux1-dev.safetensors 모델을 모두 사용할 수 있습니다.
flux1-dev는 약간 더 빠르지만 로드 시간이 조금 더 걸리며, VRAM 사용량은 동일하여 약 16.3GB입니다. HighVram를 false로 설정해도 이 측면에서는 아무런 변화가 없습니다.
"Split Mode"를 "true"로 설정하면 24GB 중 최대 41%를 사용하므로 약 10GB의 VRAM을 사용합니다.
VRAM이 16GB 미만인 경우에만 이 옵션을 사용하세요. 16GB를 보유한 경우 먼저 "false"로 설정하고 OOM이 발생하는지 확인하세요. 이 옵션을 "true"로 설정하면 이 예시에서 트레이닝 시간이 20분이 아닌 110분이 걸립니다.
ComfyUI Manager에서 찾을 수 있는 3개의 사용자 정의 노드를 만들었습니다(누락된 노드).
Layer1과 Layer2로 나누어 특정 레이어만 트레이닝할 수 있습니다.
검증 사전 시각화 및 손실을 추가하고, 사전 시각화 및 트레이닝 인자를 대상 폴더에 저장합니다.
512 해상도에서 600스탭 트레이닝에는 15분이 소요되었습니다.



