GGUF: HyperFlux Unchained 8-Steps (Flux Unchained + ByteDance HyperSD LoRA)

세부 정보

파일 다운로드

모델 설명

[참고: GGUF 파일을 얻기 위해 다운로드한 파일을 압축 해제하세요. Civitai는 GGUF를 원래 지원하지 않기 때문에 이 작업이 필요합니다.]

FluxUnchained과 바이트댄스의 HyperSD LoRA를 병합한 후 GGUF 형식으로 변환한 모델입니다. 이로 인해 매우 낮은 VRAM을 사용하면서도 8단계만으로 예술적인 NSFW 이미지를 생성할 수 있게 되었습니다. Q_4_0 모델은 1080ti에서 8단계로 1024x1024 이미지를 생성할 때 약 6.5GB의 VRAM을 사용하며 약 1.5분이 소요됩니다. [(https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050)에서 Forge UI의 GGUF 지원 및 VAE, clip_l, t5xxl 모델 다운로드 방법을 확인하세요.]

또한 다른 LoRA와 결합하여 원하는 효과를 얻을 수 있습니다.

FastFlux UnchainedHyFU와의 비교 장점

  • 훨씬 나은 품질: HyFU 같은 Schnell 모델과 비교해 8단계에서 훨씬 뛰어난 품질과 표현력을 제공합니다.

  • CFG/가이던스 민감도: 이 모델은 DEV 모델이므로 하이브리드 모델과 달리 완전한(정제된) CFG 민감도를 제공합니다. 즉, 프롬프트 민감도 대 creativity, 부드러움 대 채도를 조절할 수 있습니다.

  • Dev LoRA와 완전 호환되며, Schnell 모델보다 호환성이 우수합니다.

  • 유일한 단점: 최고 품질을 얻으려면 8단계가 필요합니다. 하지만 사실 Schnell 모델을 사용할 때도 최적 결과를 위해 일반적으로 8단계 이상을 시도할 것입니다.

어떤 모델을 다운로드해야 할까요?

[현재 상황: 업데이트된 Forge UI 및 Comfy UI(GGUF 노드)를 사용하여 11GB VRAM을 가진 1080ti에서 Q8_0 모델을 실행할 수 있습니다.]

사용 가능한 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 들어간다면 추가 추론 비용은 매우 작습니다. 크기 순서는 Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0입니다.

  • Q4_0 및 Q4_1: 8GB VRAM에 적합

  • Q5_0 및 Q5_1: 11GB VRAM에 적합

  • Q8_0: 더 많은 VRAM이 있다면 사용하세요!

참고: CPU 오프로딩을 사용하면 VRAM에 맞지 않는 모델도 실행할 수 있습니다.

모든 라이선스 조건은 Flux.1 Dev에 적용됩니다.

PS: HyperSD Flux 8단계 LoRA는 바이트댄스가 개발했으며, https://huggingface.co/ByteDance/Hyper-SD/tree/main에서 확인할 수 있습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.