AstolfoXL
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
AstolfoXL (1EP)
가장 처음(아마도 유일한)의 개별 전체 미세조정 으로, 멀티-GPU를 사용했습니다.
LoKR 작동합니다, 하지만 괜찮습니다. 我不做人了,早苗!
Discord: "Good luck".
사양
기본 모델: AstolfoMix-XL, 버전 255c
기술 보고서: ch06
학습 지표(tensorboard): HF
데이터셋(이미지 > 레이턴스): danbooru2024, e621_2024
데이터셋(태그 + 캡션): meta_lat.json
1 스텝 = 16장의 이미지, 4x RTX 3090 24G.
1EP 학습에 778k 스텝, 8.0 + 4.6 = 1260만 장의 이미지
태그 + NLP 캡션에 A1111 token 트릭 사용
트레이너 코드: PR은 머지되지 않을 예정입니다
학습 파라미터: adamW8bit, UNET 1.5e-6, TE 1.2e-5, BS4(4 GPU) grad accu 4, 71% UNET (속도 + 반드시 언더피팅)
1EP 학습에 75~100일 이상 소요. 1EP만 학습. 10k 스텝마다 저장.
학습 결과 및 손실 곡선: HF의 Tensorboard
핵심 개념: 비지도 학습
기대 효과: MID (100% 필터 없음, 품질 태그 없음) 또는 "현실성"
사용법
LoRA 학습 / 이 모델 위에 병합. 호환성은 여전히 215c에 가깝습니다. 리얼리스틱한 인간 콘텐츠도 여전히 지원됩니다. "내 말을 믿어라 브로."
아티스트 태그는 작동하지 않을 수 있지만, 학습했습니다. 그냥 자신의 "NAI" 프롬프트를 여기에 던지세요.
TIPO를 사용해 NLP 기반으로 태그 기반 프롬프트를 확장하세요.
짧은 태그는 배경 레이턴스 잡음의 영향을 받습니다. 태그는 E621 또는 danbooru에서 확인할 수 있습니다.
모든 이미지는 단 한 번만 학습되었습니다. 추적할 작업이나 KPI는 없으며, 그런 전지전능한 상태는 이미 아카이브되었습니다. 손실 곡선은 수렴도 발산도 하지 않는 평평한 상태입니다.
전체 문서는 AstolfoMix 시리즈와 같은 길이로 공개될 예정입니다.















