GGUF_K: HyperFlux 16-Steps K_M Quants
세부 정보
파일 다운로드
모델 설명
경고: 이 K 양자화 모델은 ComfyUI에서 완벽하게 작동하지만, 아직 Forge UI에서는 작동하지 않았습니다. 이 상태가 변경되면 알려주세요. 원래의 비-K 양자화 모델은 여기 에서 찾을 수 있으며, Forge UI에서 확인된 작동 버전입니다.
[참고: GGUF 파일을 얻으려면 다운로드한 파일을 압축 해제하세요. CivitAI는 GGUF를 원래 지원하지 않아 이 우회 방법이 필요합니다]
이것들은 HyperFlux 16단계용 K(_M) 양자화 모델입니다. K 양자화 모델은 비-K 양자화 모델보다 약간 더 정밀하고 성능이 우수합니다. HyperFlux는 Flux.D와 ByteDance의 16단계 HyperSD LoRA를 병합하여 GGUF 형식으로 전환한 모델입니다. 결과적으로, Q4_K_M 양자화 기준으로 약 6.2GB VRAM만 사용하면서도 16단계만으로 완전히 노이즈 제거된 이미지를 생성하는 초고효율적이고 빠른 DEV(CFG 민감) 모델을 얻을 수 있습니다. 또한 품질은 약 30단계의 원래 DEV 모델과 매우 유사합니다.
이 모델은 이 커스텀 노드를 사용해 ComfyUI에서 사용할 수 있습니다. 그러나 Forge UI에서는 작동하지 않았습니다. VAE, clip_l 및 t5xxl 모델을 다운로드할 수 있는 위치는 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050를 참조하세요.
장점
원래 DEV 모델과 비슷한 품질을 가지면서도 약 16단계만 사용합니다.
일반적으로 8단계 HyperFlux보다 더 뛰어난 품질과 표현력을 제공합니다.
동일한 시드를 사용할 경우 출력 이미지는 원래 DEV 모델과 매우 유사하므로 빠른 탐색 후 최종 생성에는 DEV 모델을 사용할 수 있습니다.
우연의 일치로 종종 DEV 모델보다 더 나은 결과를 얻을 수도 있습니다.
단점: 16단계가 필요합니다.
어떤 모델을 다운로드해야 할까요?
[현재 상황: 업데이트된 ComfyUI(GGUF 노드)를 사용하면 11GB VRAM을 가진 1080ti에서 Q6_K를 실행할 수 있습니다.]
사용 가능한 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 들어간다면 추가 추론 비용은 매우 작습니다. 크기 순서는 Q2 < Q3 < Q4 < Q5 < Q6입니다. 메모리에 절대적으로 들어가지 않는 경우를 제외하고는 Q2와 Q3 사용은 권장하지 않습니다.
모든 라이선스 조건은 Flux.1 Dev와 동일하게 적용됩니다.
PS: ByteDance의 HyperSD Flux 8단계 LoRA에 대한 크레딧은 https://huggingface.co/ByteDance/Hyper-SD/tree/main에서 확인할 수 있습니다.
