GGUF: HyperFlux Unchained 16-Steps (Flux Unchained + ByteDance HyperSD LoRA)
세부 정보
파일 다운로드
모델 설명
경고: 이는 16단계 모델입니다. 더 빠른 8단계 모델은 여기에서 찾을 수 있습니다.
[참고: GGUF 파일을 얻으려면 다운로드한 파일을 압축 해제하세요. Civitai는 원래 GGUF를 지원하지 않기 때문에 이 방법을 사용합니다]
FluxUnchained과 바이트댄스의 HyperSD LoRA를 병합하여 GGUF 형식으로 변환한 모델입니다. 이로 인해 16단계로 매우 낮은 VRAM을 사용하면서도 예술적인 NSFW 이미지를 생성할 수 있게 되었습니다. Q_4_0 모델은 제 1080ti에서 16단계로 1024x1024 이미지를 생성할 때 약 6.5GB의 VRAM을 소모하며 약 3분이 걸립니다. [Forge UI의 GGUF 지원 및 VAE, clip_l, t5xxl 모델 다운로드 위치에 대한 자세한 정보는 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050를 참조하세요.]
원하는 효과를 얻기 위해 다른 LoRA와도 결합할 수 있습니다.
장점
원래 FluxUnchained DEV 모델과 유사한 품질을 제공하면서도 단지 약 16단계만 필요합니다.
일반적으로 8단계 HyperFlux Unchained보다 품질과 표현력이 더 우수합니다.
동일한 시드를 사용할 경우 출력 이미지는 원래 DEV 모델과 매우 유사하므로, 빠른 탐색 후 DEV 모델로 최종 생성에 활용할 수 있습니다.
우연한 결과로 DEV 모델보다 더 나은 결과를 얻을 수도 있습니다 :) .
단점: 16단계가 필요합니다
어떤 모델을 다운로드해야 하나요?
[현재 상황: 업데이트된 Forge UI 및 Comfy UI(GGUF 노드)를 사용하여 제 11GB 1080ti에서 Q8_0을 실행할 수 있습니다.]
자신의 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 들어간다면 추가 추론 비용은 매우 작습니다. 크기 순서는 Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0입니다.
Q4_0 및 Q4_1은 8GB VRAM에 들어갑니다.
Q5_0 및 Q5_1은 11GB VRAM에 들어갑니다.
Q8_0은 여유가 있다면 사용하세요!
참고: CPU 오프로딩을 사용하면 VRAM에 들어가지 않는 모델도 실행할 수 있습니다.
모든 라이선스 조건은 Flux.1 Dev와 동일하게 적용됩니다.
PS: HyperSD Flux 16단계 LoRA의 개발자인 바이트댄스에 감사드립니다. 이 LoRA는 https://huggingface.co/ByteDance/Hyper-SD/tree/main에서 확인할 수 있습니다.
