RDBT - NTYM
세부 정보
파일 다운로드
모델 설명
RDBT [NetaYume]
재조정된 분포
v0.2는 베이스 버전과 함께 출시됩니다.
이 모델은 확산 모델을 개선하기 위한 테스트 이론의 일환입니다.
NTYM4에서 약 7만 장의 이미지로 학습되었습니다.
목표:
- 더 나은 텍스처와 예술적 디테일.
- 더 나으며 안정적인 프롬프트 일관성.
- 균형 잡힌 대비와 조명. 절대 과도한 밝기나 과포화 없음.
또한 2배 빠릅니다.
가이드
프롬프트: 기본적으로 NetaYume와 동일합니다. 단, 다음 사항 제외:
- 스타일 프롬프트가 필수입니다. 이 모델은 기본 스타일이 없습니다. NetaYume의 기본 TV 애니메이션 스타일은 삭제되었습니다.
- Gemma 2가 아티스트 이름에 과도하고 잘못된 주의를 기울이지 않도록, 프롬프트 끝에 "Digital anime art style by @xxxx."를 사용하세요.
- 품질 태그는 필요 없습니다. 데이터셋은 평균 "마스터피스"보다 더 높은 품질을 가지고 있습니다.
- 캐릭터를 설명하기 위해 많은 태그를 사용할 필요가 없습니다. 가장 독특한 태그만 사용하세요. 예: "elf girl frieren, fox girl tamamo \(fate\)". 참고: img.
- 시작은 간단한 자연어로, 끝은 태그로 구성하세요.
설정:
- CFG 스케일: 1. CFG 1~1.5도 가능하지만, 원한다면.
- 샘플러: euler_a + normal을 선호하세요.
- 타임스텝 시프트: 3~4.5로 더 나은 디테일을 얻으세요. (ModelSamplingAuraFlow 노드에서 유래)
CFG 디스틸된 모델에 대해:
- CFG 스케일과 네거티브 프롬프트를 조정할 수 없습니다. 이들은 모델 내부에서 학습되었습니다.
- CFG 스케일 = 1은 특별한 값입니다. 이는 CFG와 네거티브 프롬프트를 비활성화함을 의미합니다.
- 네거티브 프롬프트에 대한 순방향 계산이 필요 없으므로, 2배 빠르게 생성할 수 있습니다.
일부 학습 세부 정보
총 데이터셋은 약 7만 장의 이미지를 포함하며, 균등하게 가중치가 부여되지 않았습니다.
layers.[2:25]만 학습되었습니다.
캡션은 주로 Gemini에서 생성되었으며, 자연어만 사용하고 태그는 포함하지 않았습니다.
이번에는 LoRA가 아닌가요?
다단계 학습. LoRA 사용하지 않음.
버전
v0.1 cfg 디스틸: bf16 전체 모델.
v0.1 cd tcfp8: (문제 있음, 다운로드 금지, 곧 삭제 예정) cfg 디스틸 버전이며, ComfyUI용 tensorcorefp8 버전도 포함됨.













