GGUF: HyperFlux 16-Steps (Flux.1 Dev + ByteDance HyperSD LoRA)
세부 정보
파일 다운로드
모델 설명
경고: 이는 16단계 모델입니다. 더 빠른 8단계 모델은 여기에서 찾을 수 있습니다.
[참고: GGUF 파일을 얻기 위해 다운로드한 파일을 압축 해제하세요. Civitai는 이를 원래 지원하지 않기 때문에 이 방법을 사용합니다]
Flux.D와 ByteDance의 16단계 HyperSD LoRA를 결합하여 GGUF 형식으로 변환한 모델입니다. 결과적으로, Q4_0 양자화 기준 약 6.2GB VRAM만 소비하면서도 16단계만으로 완전히 노이즈 제거된 이미지를 생성하는 초메모리 효율적이고 빠른 DEV(CFG 민감) 모델을 얻을 수 있습니다. 또한 품질은 약 30단계를 사용하는 원래 DEV 모델과 매우 유사합니다.
장점
원래 DEV 모델과 유사한 품질을 제공하면서 단 16단계만 필요합니다.
일반적으로 8단계 HyperFlux보다 더 나은 품질과 표현력을 제공합니다.
동일한 시드를 사용할 경우 출력 이미지는 원래 DEV 모델과 매우 유사하므로 빠른 탐색 후 최종 생성은 DEV 모델로 수행할 수 있습니다.
우연히 원래 DEV 모델보다 더 나은 결과를 얻을 수도 있습니다 :) .
단점: 16단계가 필요합니다.
어떤 모델을 다운로드해야 하나요?
[현재 상황: 최신 Forge UI 및 Comfy UI(GGUF 노드)를 사용하여 11GB VRAM을 가진 1080ti에서 Q8_0을 실행할 수 있습니다.]
사용 가능한 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 맞는 경우 추가 추론 비용은 매우 작습니다. 파일 크기 순서: Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0.
Q4_0 및 Q4_1: 8GB VRAM에 적합
Q5_0 및 Q5_1: 11GB VRAM에 적합
Q8_0: 더 많은 VRAM을 보유한 경우
참고: CPU 오프로딩을 사용하면 VRAM에 맞지 않아도 모델을 실행할 수 있습니다.
모든 라이선스 조건은 Flux.1 Dev와 동일하게 적용됩니다.
PS: HyperSD Flux 16단계 LoRA는 ByteDance가 개발했으며, https://huggingface.co/ByteDance/Hyper-SD/tree/main에서 확인할 수 있습니다.
