Flux.1-Heavy-17B(GGUF)
세부 정보
파일 다운로드
모델 설명
Flux.1-Heavy-17B GGUF 양자화
🚀 주요 자원 최적화

원래 요구사항:
40GB VRAM
80GB 시스템 RAM
이제 다음 사양으로도 사용 가능:
최소 8GB VRAM
32GB 시스템 RAM
설명
이것은 원래의 Flux.1-Heavy-17B 모델(city96 제작)을 메모리 최적화한 GGUF 양자화 버전으로, 낮은 VRAM 요구 사양을 가진 시스템에서도 사용할 수 있도록 합니다. 원래 모델은 12B 파라미터의 Flux.1-dev 모델을 자기 병합한 17B 파라미터 모델로, 일관된 이미지를 생성할 수 있는 최초의 오픈소스 17B 이미지 모델 중 하나로 주목받았습니다.
제공되는 버전
Q6_K 버전
VRAM 요구 사항: 16GB
품질과 성능의 최적 균형
RTX 3080/3090 또는 유사 GPU를 보유한 사용자에게 권장
Q5_K_M 버전
VRAM 요구 사항: 12GB
메모리 사용량을 줄인 상태에서 우수한 품질
RTX 3060 Ti/3070/2080 Ti 사용자에게 적합
Q3_K_L 버전
VRAM 요구 사항: 8GB
가장 메모리 효율적인 버전
RTX 3060/2060 Super와 같은 중급 GPU에서도 실행 가능
주요 기능
원래 Flux.1-Heavy-17B 모델의 핵심 기능 유지
다양한 VRAM 구성에 최적화됨
고성능 GPU 없이도 넓은 하드웨어 호환성 제공
지정된 VRAM 수준에서 부드러운 작동
원래 모델에 비해 자원 요구 사항이 크게 감소
설치 방법
원하는 양자화 버전을 다운로드
GGUF 파일을 모델 디렉토리에 배치
설정을 새 모델 파일로 업데이트
크레딧
원본 모델: city96 (Flux.1-Heavy-17B)
기본 아키텍처: Flux.1-dev (12B 파라미터 모델)
참고 사항
성능은 특정 하드웨어 구성에 따라 달라질 수 있음
사용 가능한 VRAM과 품질 요구 사항에 따라 양자화 수준을 선택
낮은 양자화 수준은 원본 모델에 비해 약간의 품질 저하를 보일 수 있음






