GGUF_K: HyperFlux 8-Steps K_M Quants

세부 정보

파일 다운로드

모델 설명

경고: 이 K-양자화 모델은 ComfyUI와 완벽하게 작동하지만, 아직 Forge UI에서는 작동하지 않았습니다. 이 상황이 변경되면 알려주세요. 원래의 비-K 양자화 모델은 여기 에서 찾을 수 있으며, 이들은 Forge UI와 호환되는 것이 확인되었습니다.

[참고: GGUF 파일을 얻으려면 다운로드한 파일을 압축 해제하세요. CivitAI는 이를 원래 지원하지 않아 이 대안이 필요합니다]

이것들은 HyperFlux 8스텝용 K(_M) 양자화 모델입니다. K 양자화는 비-K 양자화보다 약간 더 정밀하고 성능이 우수합니다. HyperFlux는 Flux.D와 ByteDance의 8스텝 HyperSD LoRA를 병합하여 GGUF 형식으로 전환한 모델입니다. 결과적으로, 단 8스텝만으로 완전히 노이즈 제거된 이미지를 생성하면서 약 6.2GB의 VRAM만을 사용하는 초메모리 효율적이고 빠른 DEV(CFG 민감) 모델을 얻게 됩니다(Q4_0 양자화 기준).

이 모델은 이 맞춤형 노드를 사용하여 ComfyUI에서 실행할 수 있습니다. 그러나 Forge UI에서는 작동하지 않았습니다. VAE, clip_l 및 t5xxl 모델을 다운로드할 위치는 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050에서 확인하세요.

FastFlux 및 기타 DEV-Schnell 병합 모델 대비 장점

  • 훨씬 더 나은 품질: FastFlux와 같은 Schnell 모델과 비교해 8스텝에서 훨씬 더 우수한 품질과 표현력을 제공합니다.

  • CFG/가이던스 민감성: 이 모델은 DEV 모델이므로 하이브리드 모델과 달리 완전한(디스틸된) CFG 민감성을 제공합니다. 즉, 프롬프트 민감성 대 creativity, 부드러움 대 채도를 조절할 수 있습니다.

  • DEV LoRA와 완전 호환되며, Schnell 모델의 호환성보다 우수합니다.

  • 유일한 단점: 최고 품질을 위해 8스텝이 필요합니다. 그러나 Schnell 모델을 사용할 때도 최고 결과를 위해 적어도 8스텝을 시도할 가능성이 높습니다.

어떤 모델을 다운로드해야 할까요?

[현재 상황: 업데이트된 ComfyUI(GGUF 노드)를 사용해 11GB VRAM을 가진 1080ti에서 Q6_K를 실행할 수 있습니다.]

사용 가능한 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 들어간다면 추가 추론 비용은 매우 작습니다. 크기 순서: Q2 < Q3 < Q4 < Q5 < Q6. 메모리가極도로 부족하지 않는 한 Q2와 Q3은 추천하지 않습니다.

모든 라이선스 조건은 Flux.1 Dev에 적용됩니다.

PS: ByteDance가 개발한 HyperSD Flux 8스텝 LoRA에 감사드립니다. 이 LoRA는 https://huggingface.co/ByteDance/Hyper-SD/tree/main에서 확인할 수 있습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.