Mangled Merge Flux
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
Civitai 커뮤니티에 Mangled Merge Flux를 소개하게 되어 기쁩니다. Stable Diffusion 2.1에서 시작되어 SDXL로 이어진 전통을 이어, 이번 모델은 Flux.1 아키텍처를 사용한 기이한 병합 실험의 새로운 홈이 될 것입니다.
V1
Mangled Merge V1은 Mangled Merge Flux Matrix, Mangled Merge Flux Magic, PixelWave 03, FluxBooru v0.3, 및 Flux-dev-de-distill을 병합하여, 808개의 LoRA가 병합된 것과 같은 미학을 제공하면서도 PixelWave의 스타일, Booru 데이터셋의 지식, 그리고 디디스틸된 모델의 기능을 결합한 모델을 만들었습니다. 이 모델에서는 LoRA가 잘 작동하며, CFG는 1과 3.5 사이가 최적입니다. Flux 가이던스는 작동하지 않지만, 네거티브 프롬프트는 매우 잘 작동하고, 동적 임계값 설정을 강력히 추천합니다.
Mangled Merge V1과 Flux.1 Dev 모델의 비교를 보려면 이 게시물을 확인하세요.
면책사항:
Civitai는 업로드 시 제한된 프루닝 옵션만 제공하며, 동일한 옵션을 두 번 선택할 수 없기 때문에 모든 정보를 한 페이지에 담기 위해 제공된 옵션 중에서 선택해야 했습니다. 하지만 실제 양자화 및 파일 크기는 다음과 같습니다.
BF16 - 22.17 GB
Q8_0 - 11.85 GB
Q6_K - 9.18 GB
Q5_K - 7.85 GB
Q4_K - 6.46 GB
v0:
이 첫 번째 버전은 초기 학습을 위한 기초적인 시작점입니다. 저는 실험을 계속하면서 새로운 병합 방법을 탐색하고 심지어 창출할 계획입니다. 그러나 v0은 고전적인 브루트 포스 병합과 폴딩 방식입니다. Della 방법을 시도해 보았지만, Flux 모델 구조의 규모가 너무 커서 24GB VRAM을 사용해도 OOM 오류가 발생했습니다. 이번 주에는 새로운 접근법을 시도할 계획입니다. 더 많은 내용이 곧 제공될 예정입니다.
또한 이 프로젝트는 llama 양자화 및 Schnell 변환에 대한 학습 과정이기도 했습니다. 양자화는 완료했지만, v0의 Schnell 변환은 단순히 Flux Dev to Schnell 4단계 LoRA를 병합한 것이었습니다. 향후 변환 프로세스를 위한 새로운 기술도 탐색할 계획입니다.
이 모델에 포함된 LoRA 목록은 다음 Google 시트 링크를 통해 확인하세요.




















