Flux.1-Heavy-17B(GGUF)

세부 정보

파일 다운로드

모델 설명

Flux.1-Heavy-17B GGUF 양자화

🚀 주요 자원 최적화

Training

원래 요구사항:

  • 40GB VRAM

  • 80GB 시스템 RAM

이제 다음 사양으로도 사용 가능:

  • 최소 8GB VRAM

  • 32GB 시스템 RAM

설명

이것은 원래의 Flux.1-Heavy-17B 모델(city96 제작)을 메모리 최적화한 GGUF 양자화 버전으로, 낮은 VRAM 요구 사양을 가진 시스템에서도 사용할 수 있도록 합니다. 원래 모델은 12B 파라미터의 Flux.1-dev 모델을 자기 병합한 17B 파라미터 모델로, 일관된 이미지를 생성할 수 있는 최초의 오픈소스 17B 이미지 모델 중 하나로 주목받았습니다.

제공되는 버전

Q6_K 버전

  • VRAM 요구 사항: 16GB

  • 품질과 성능의 최적 균형

  • RTX 3080/3090 또는 유사 GPU를 보유한 사용자에게 권장

Q5_K_M 버전

  • VRAM 요구 사항: 12GB

  • 메모리 사용량을 줄인 상태에서 우수한 품질

  • RTX 3060 Ti/3070/2080 Ti 사용자에게 적합

Q3_K_L 버전

  • VRAM 요구 사항: 8GB

  • 가장 메모리 효율적인 버전

  • RTX 3060/2060 Super와 같은 중급 GPU에서도 실행 가능

주요 기능

  • 원래 Flux.1-Heavy-17B 모델의 핵심 기능 유지

  • 다양한 VRAM 구성에 최적화됨

  • 고성능 GPU 없이도 넓은 하드웨어 호환성 제공

  • 지정된 VRAM 수준에서 부드러운 작동

  • 원래 모델에 비해 자원 요구 사항이 크게 감소

설치 방법

  1. 원하는 양자화 버전을 다운로드

  2. GGUF 파일을 모델 디렉토리에 배치

  3. 설정을 새 모델 파일로 업데이트

크레딧

  • 원본 모델: city96 (Flux.1-Heavy-17B)

  • 기본 아키텍처: Flux.1-dev (12B 파라미터 모델)

참고 사항

  • 성능은 특정 하드웨어 구성에 따라 달라질 수 있음

  • 사용 가능한 VRAM과 품질 요구 사항에 따라 양자화 수준을 선택

  • 낮은 양자화 수준은 원본 모델에 비해 약간의 품질 저하를 보일 수 있음

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.