Lora Lab: Press Start, Auto Gen, Auto Label, Auto Compile
세부 정보
파일 다운로드
모델 설명
3단계 자동 LoRA
배치 번호를 설정하고 실행을 누르면 자동 캡션과 함께 수백 장의 고해상도 이미지를 생성하세요!
자동으로 모든 이미지를 하나의 통합 폴더에 저장합니다.
이를 LoRA 트레이너에 입력하세요!
Auto MED를 추천드립니다. 완전 자동화, 수동 패키징 불필요, 정확도에 거의 손실 없음
Semi-Auto HI는 약간의 캡션 품질 향상을 위해 노력을 기울이고자 하는 사용자를 위한 더 많은 수동 상호작용을 제공합니다
Auto LO는 저사양 VRAM GPU를 사용하는 사용자를 위한 것입니다. 하나의 ksampler 모델과 하나의 인터프리터 모델(Florence-Basic 또는 Large)을 로드해야 합니다
https://github.com/anyantudre/Florence-2-Vision-Language-Model
실행 버전
**____________________**VRAM ______정확도_____ 수동 작업
Semi-Auto HI _________고_____________고______________ 고
Auto MED ____________고- ___________고- _____________낮음
Auto LO ____________중__________중_____________낮음
SemiAuto HI: 이중 추론 모델은 프롬프트의 정확도를 높이지만, 폴더를 수동으로 통합하고 각 이미지에 최적의 프롬프트를 선택해야 합니다. 이중 얼굴 리파이너와 리파이너 베이스 모델에 4배 업스케일을 적용하면 높은 사실성과 정확도를 생성합니다.
Auto MED: 단일 추론 모델은 자동으로 컴파일되며 수동 패키징이 필요 없습니다. 그러나 자동 프롬프트의 정확도는 약간 낮아집니다(제가 보기에는 눈에 띄지 않음). 이중 얼굴 리파이너와 리파이너 베이스 모델에 4배 업스케일을 적용하면 높은 사실성과 정확도를 생성합니다.
Auto LO: 단일 추론 모델은 자동으로 컴파일되며 수동 패키징이 필요 없습니다. 그러나 자동 프롬프트의 정확도는 약간 낮아집니다(제가 보기에는 눈에 띄지 않음). 얼굴 리파이너와 리파이너 베이스 모델 없이 2배 업스케일을 적용하면 중간 수준의 사실성과 정확도를 생성합니다.
프롬프트 버킷을 입력할 때 콤마 사이에 공백을 넣지 마세요.
(trait1,trait2,trait3)
작동 방식 (Semi-Auto HI):
워크플로우 논리

실제 이미지 예시

워크플로우 프롬프트 버킷

워크플로우 결과 1 (랜덤 프롬프트, 랜덤 방향, Florence 및 MAI 결과)

워크플로우 결과 2 (랜덤 프롬프트, 랜덤 방향, Florence 및 MAI 결과)

Henry 이미지 + 최고의 프롬프트 = 자동 LoRA 데이터

LoRA 학습 이미지 저장 위치: /output/train/image/
LoRA 텍스트 저장 위치: /output/text/Florence 및 /output/text/MAI
업스케일된 이미지 저장 위치: /output/train/source/
시스템 사양:
이 워크플로우는 기본적으로 고VRAM을 요구합니다.
충분한 수요가 있다면, 중간 및 저VRAM 버전도 제작하겠습니다.
고VRAM: 가능한 한 큰 모델과 fp16/sdpa를 사용하세요.
저VRAM: 가능한 한 베이스 모델과 fp8/플래시 어텐션을 사용하고, 리파이너와 업스케일, 디테일러는 생략하세요(재설계가 다소 복잡할 수 있음).

사전 준비:
필요한 커스텀 노드: rgthree, easy-use, impact pack, impact subpack, florence 2, MiaoshouAI, basic math, was ns, Crystools, kj nodes, StringOps (개발자 분들께 감사드립니다!)
워크플로우를 열면 ComfyUI-Manager가 누락된 노드를 알려줄 것입니다.
"누락된 노드 설치"를 클릭하고, ComfyUI를 재시작한 후 브라우저를 새로고침하세요.
여전히 누락된 노드가 있다면, Manager 창의 커스텀 노드 메뉴에서 검색하세요.
또한 플래시 어텐션도 설치해야 했습니다.
가장 쉬운 방법은 CUDA 버전을 확인(nvidia-smi 명령어 사용)하고, 아래 링크에서 해당 버전과 일치하는 사전 빌드된 whl 파일을 다운로드하는 것입니다: https://github.com/mjun0812/flash-attention-prebuild-wheels?tab=readme-ov-file



