FluffyRock E6-LAION

세부 정보

모델 설명

여기의 정보는 작업 중입니다.

이 모델은 fluffyrock-1088-megares-terminal-snr-vpred와 유사하게 터미널 SNR과 v-예측을 사용하지만, e6, laion, booru, gpt4mini의 추가 데이터셋으로 학습되었습니다. 이 매우 큰 데이터셋들의 "다양성" 때문에, e6만으로 학습된 대부분의 모델보다 훨씬 넓은 스타일과 개념의 출력을 생성할 수 있지만, 결과는 때때로 "실험적"이고 불안정할 수 있습니다.

다른 많은 FR 모델들과 달리, 이 모델은 다른 FR 모델에서 파생되지 않았으며 SD1.5에서부터 처음 시작되었습니다. 이 점과 데이터셋의 증가된 규모 때문에, 전체 학습 루프를 완료하는 데 걸리는 시간이 기하급수적으로 길어졌고, 이 모델은 다른 FR 모델에 비해(지식 면에서) 훨씬 뒤쳐져 있습니다.

과거 모든 에포크 및 아마도 더 최신의 에포크는 E6-LAION HuggingFace 저장소에서 찾을 수 있습니다.

PolyFur는 유사한 프로젝트로, 더 정제된 데이터셋을 사용하여 현재 진행 중입니다.

프롬프팅:

이 모델은 SD1.5 및 e621 태그와 유사하게 자연어를 인식하지만, 이 둘은 별개의 지식 영역으로 간주되므로, 둘을 함께 사용하면 더 나은 출력을 얻을 수 있습니다. A1111의 BREAK 키워드 사용을 권장합니다.

다른 모델(심지어 다른 FluffyRock 모델들 조차도)보다 이 모델에서는 더 완전하고 신중하게 프롬프트를 작성해야 할 수도 있습니다. (예: '꼬리'를 프롬프트하지 않으면, 원래 꼬리였을 부분이 3번째 다리로 나올 수 있습니다.) E6LAION은 보통 무의미한 "프롬프트 샐러드"를 문자 그대로 해석하고 (기대치 못한) 결과를 생성할 수 있습니다.

e621 태그는 언더스코어 없이, 쉼표로 구분하여 어떤 순서로든 사용하세요.

아티스트 태그는 일반적으로 "(아티스트)"가 붙는 태그에서도 "by 이름" 형식으로 사용하세요.

FluffyRock vpred 모델을 사용하려면 추가 설정이 필요합니다:

제공된 설정 파일을 사용하세요.

CFG 리스케일을 사용해야 합니다.

A1111(또는 Vlad 포크)의 경우, CFG_Rescale_webui 확장 프로그램을 사용하세요.

Comfy UI에서 이를 수행하는 방법이 있지만, 저는 아직 직접 테스트해보지 않았습니다. ComfyUI_experiments에 해당 노드가 있을 것이라 생각합니다.

자동 완성:

태그 자동 완성 파일 — 현재 이 파일은 pre-3M 데이터셋만을 커버합니다. 새로운 파일을 만들고 있지만, 수동으로 검증하고 수정해야 하는 35,000개의 충돌하는 태그가 있습니다.

두 개의 에포크 번호?

첫 번째 숫자는 학습 시작부터의 연속적인 에포크 번호입니다.

두 번째 숫자는 해당 라인의 분기점에서의 에포크 번호입니다.

E6-LAION의 경우, 이 모델은 더 작은 데이터셋을 사용한 이전의 E6-LAION 실험에서 분기되었습니다.

문제 해결:

출력이 나쁨:

512x512 해상도로 샘플링하지 마세요. 768 이상을 사용하세요. 1088을 초과하면 일반적인 SD1.x 고해상도 이상 현상이 발생할 수 있습니다. 하이레스-픽스 및 유사한 방법은 2k 이상 해상도를 쉽게 얻는 데 효과적입니다.

일부 예술 스타일을 프롬프트하세요. "by [언더스코어 없는 e6 아티스트 태그]"를 사용하세요. 더 나은 결과를 위해 여러 스타일을 프롬프트하세요. 어떤 스타일도 지정하지 않은 프롬프트는 매우 나쁠 수 있습니다.

VPred 문제 해결:

출력이 단순한 잡음/구름일 경우: 설정 파일 누락.

출력이 너무 어두움: CFG 리스케일을 높이세요. 일반적으로 0.7–0.9 범위에서 가장 잘 작동합니다.

일부 샘플러는 CFG 리스케일 지원이 아직 불완전하기 때문에 제대로 작동하지 않을 수 있습니다. 자세한 정보는 Discord 스레드를 확인하세요.

LoRA 학습:

vpred는 v_파라메터라이제이션을 활성화한 상태로 학습해야 할 수 있습니다. kohya_ss는 v1에 이를 사용할 때 경고할 수 있지만, 무시하세요. SD1.5를 v-예측으로 학습할 것이라고 예상한 사람은 아무도 없습니다.

vpred가 아닌 FR 모델로 학습한 LoRA는 일반적으로 작동할 수 있습니다.

도움이 필요하면 Discord에서 문의하세요.

링크 및 자원:

태그 자동 완성 파일

Hugging Face 저장소 — 모든 모델 라인의 모든 버전을 포함합니다. 이 저장소를 전체 git 클론하려면 1.5TB 이상의 디스크 공간이 필요합니다. 경고드립니다.

FluffyRock Discord 서버

Furry Diffusion Discord 서버 및 그 안의 FR 스레드

LodestoneRock의 Patreon — 학습 비용을 지원해 주세요.

라이선스: WTFPL

wtfpl-badge-1

Civitai의 내장 생성 기능이(최소한 이 모델들에 대해서는) 작동하지 않기 때문에, 귀찮은 "생성" 버튼을 비활성화하기 위해 상업 사용 권한을 잘못 설정했습니다. 생성 서비스에서 모델을 사용하셔도 괜찮지만, 실제로 작동했으면 좋겠습니다. :V

현재 vpred 모델을 제외하고는 정상 작동하는 것으로 보입니다.

FluffyRock 모델의 공개 병합본을 배포하실 경우, HF 또는 Civitai의 FR 게시글로의 링크를 남겨주시면 감사하겠습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.