GGUF (Flux) workflow v2.0
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
--- v2.0는 3개의 LoRA 스폿, 메타데이터 포함 이미지 저장, 선택적 업스케일 및 빠른 공유보다 더 정교한 기능을 제공 ---
댓글에서 묻는 분들을 위한 빠른 공유: 이 모델은 Q8을 사용합니다.
/model/647237?modelVersionId=724149
F16도 사용 가능하며, Q8보다 품질이 우수하지만 PC에 부하가 더 큽니다.
/model/662958/flux1-dev-gguf-f16
GGUF 모델 직접 다운로드:
https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main
😂 제공된 프롬프트는 Google 검색 결과로 나오는 Lada의 의미를 풍자한 것입니다 😂
VRAM이 Q8에 가까운 경우, 더 작고 품질은 거의 동일한 Q6_K를 사용할 수도 있습니다!










