GGUF: FastFlux (Flux.1-Schnell Merged with Flux.1-Dev)

세부 정보

파일 다운로드

모델 설명

[참고: GGUF 파일을 얻으려면 다운로드한 파일을 압축 해제하세요. Civitai는 이를 원래 지원하지 않기 때문에 이 호환 방법을 사용합니다.]

Flux1.D가 Flux1.S에 통합되었습니다. 이 모델은 단 4단계만으로도 Schnell보다 우수한 품질의 이미지를 생성할 수 있으며, 단계를 더 늘릴수록 품질이 더욱 향상되면서도 VRAM 사용량은 매우 적습니다. Q_4_0 버전은 제가 사용하는 11GB 1080ti에서 45초 안에 1024x1024 이미지를 생성하며, 약 6.5GB의 VRAM을 사용합니다.

이 모델은 이 커스텀 노드를 사용하여 ComfyUI와 함께, 또는 Forge UI와 함께 사용할 수 있습니다. Forge UI의 GGUF 지원에 대해 자세히 알고 싶다면, 그리고 VAE, clip_l, t5xxl 모델을 다운로드할 수 있는 위치를 알고 싶다면 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050를 참조하세요.

어떤 모델을 다운로드해야 할까요?

[현재 상황: 업데이트된 Forge UI와 Comfy UI(GGUF 노드)를 사용하여 11GB 1080ti에서 Q8_0을 실행할 수 있습니다.]

사용 가능한 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 충분히 들어간다면 추가 추론 비용은 매우 작습니다. 크기 순서는 Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0입니다.

  • Q4_0과 Q4_1은 8GB VRAM에 들어갑니다.
  • Q5_0과 Q5_1은 11GB VRAM에 들어갑니다.
  • Q8_0은 더 큰 VRAM이 있다면 사용하세요!

참고: CPU 오프로딩을 사용하면 VRAM에 맞지 않는 모델도 실행할 수 있습니다.

LoRA 사용 팁

이 모델은 LoRA와 매우 잘 작동하는 것으로 나타났습니다(Comfy에서 테스트됨). 하지만 단계 수를 약간 늘리면(8-10단계) 더 나은 결과를 얻을 수 있습니다.

업데이트 사항

V2: 원본 모델(v1)은 fp8 체크포인트에서 생성되었습니다. 이는 이중 양자화로 인해 오차가 누적되어 선명한 이미지를 생성하지 못했습니다. v2는 bf16 Dev 및 Schnell 체크포인트를 수동으로 병합한 후 GGUF로 변환하였습니다. 이 버전은 더 많은 디테일과 훨씬 선명한 결과를 생성할 수 있습니다.

Flux.1 Dev 및 Flux.1 Schnell과 관련된 모든 라이선스 조건이 적용됩니다.

PS: 병합 방법에 대해 jicecomfy.org에게 감사의 말을 전합니다. 이 모델은 https://github.com/city96/ComfyUI-GGUF/blob/main/tools/convert.py를 약간 수정하여 생성되었습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.