GGUF: HyperFlux 8-Steps (Flux.1 Dev + ByteDance HyperSD LoRA)

세부 정보

파일 다운로드

모델 설명

[참고: GGUF 파일을 얻으려면 다운로드한 파일을 압축 해제하세요. Civitai는 GGUF를 원래 지원하지 않기 때문에 이 작업이 필요합니다.]

ByteDance의 8단계 HyperSD LoRA를 Flux.D와 병합하여 GGUF 형식으로 변환한 모델입니다. 이 결과로, 8단계만으로 완전히 노이즈 제거된 이미지를 생성하면서 약 6.2GB VRAM(QUANT Q4_0 기준)만 사용하는 초고효율적이고 빠른 DEV(CFG 민감) 모델을 얻을 수 있습니다.

이 모델은 이 커스텀 노드를 사용하여 ComfyUI에서, 또는 Forge UI에서 사용할 수 있습니다. Forge UI의 GGUF 지원에 대한 자세한 정보와 VAE, clip_l, t5xxl 모델 다운로드 위치는 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050를 참조하세요.

FastFlux 및 기타 Dev-Schnell 병합 모델 대비 장점

  • 훨씬 더 나은 품질: FastFlux와 같은 Schnell 모델과 비교해 8단계에서 훨씬 더 우수한 품질과 표현력을 얻을 수 있습니다.

  • CFG/가이던스 민감도: 이 모델은 DEV 모델이므로 하이브리드 모델과 달리 완전한(디스틸된) CFG 민감도를 제공합니다. 즉, 프롬프트 민감도 대 creativity, 부드러움 대 채도를 조절할 수 있습니다.

  • Dev LoRA와 완전히 호환되며, Schnell 모델보다 우수한 호환성을 제공합니다.

  • 유일한 단점: 최고 품질을 위해서는 8단계가 필요합니다. 하지만 이미 Schnell 모델로 최고 결과를 얻기 위해 적어도 8단계를 시도할 가능성이 높습니다.

어떤 모델을 다운로드해야 하나요?

[현재 상황: 최신 Forge UI와 Comfy UI(GGUF 노드)를 사용하면, 11GB VRAM을 가진 1080ti에서 Q8_0을 실행할 수 있습니다.]

사용 가능한 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 들어갈 경우 추가 추론 비용은 매우 작습니다. 크기 순서: Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0

  • Q4_0과 Q4_1은 8GB VRAM에 들어갑니다.
  • Q5_0과 Q5_1은 11GB VRAM에 들어갑니다.
  • Q8_0은 여유가 있다면 사용하세요!

참고: CPU 오프로딩을 사용하면 VRAM에 들어가지 않는 모델도 실행할 수 있습니다.

모든 라이선스 조건은 Flux.1 Dev에 적용됩니다.

PS: HyperSD Flux 8단계 LoRA는 ByteDance가 개발했으며, https://huggingface.co/ByteDance/Hyper-SD/tree/main에서 확인할 수 있습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.