GGUF: HyperFlux Unchained 16-Steps (Flux Unchained + ByteDance HyperSD LoRA)

세부 정보

파일 다운로드

모델 설명

경고: 이는 16단계 모델입니다. 더 빠른 8단계 모델은 여기에서 찾을 수 있습니다.

[참고: GGUF 파일을 얻으려면 다운로드한 파일을 압축 해제하세요. Civitai는 원래 GGUF를 지원하지 않기 때문에 이 방법을 사용합니다]

FluxUnchained과 바이트댄스의 HyperSD LoRA를 병합하여 GGUF 형식으로 변환한 모델입니다. 이로 인해 16단계로 매우 낮은 VRAM을 사용하면서도 예술적인 NSFW 이미지를 생성할 수 있게 되었습니다. Q_4_0 모델은 제 1080ti에서 16단계로 1024x1024 이미지를 생성할 때 약 6.5GB의 VRAM을 소모하며 약 3분이 걸립니다. [Forge UI의 GGUF 지원 및 VAE, clip_l, t5xxl 모델 다운로드 위치에 대한 자세한 정보는 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050를 참조하세요.]

원하는 효과를 얻기 위해 다른 LoRA와도 결합할 수 있습니다.

장점

  • 원래 FluxUnchained DEV 모델과 유사한 품질을 제공하면서도 단지 약 16단계만 필요합니다.

  • 일반적으로 8단계 HyperFlux Unchained보다 품질과 표현력이 더 우수합니다.

  • 동일한 시드를 사용할 경우 출력 이미지는 원래 DEV 모델과 매우 유사하므로, 빠른 탐색 후 DEV 모델로 최종 생성에 활용할 수 있습니다.

  • 우연한 결과로 DEV 모델보다 더 나은 결과를 얻을 수도 있습니다 :) .

  • 단점: 16단계가 필요합니다

어떤 모델을 다운로드해야 하나요?

[현재 상황: 업데이트된 Forge UI 및 Comfy UI(GGUF 노드)를 사용하여 제 11GB 1080ti에서 Q8_0을 실행할 수 있습니다.]

자신의 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 들어간다면 추가 추론 비용은 매우 작습니다. 크기 순서는 Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0입니다.

  • Q4_0 및 Q4_1은 8GB VRAM에 들어갑니다.

  • Q5_0 및 Q5_1은 11GB VRAM에 들어갑니다.

  • Q8_0은 여유가 있다면 사용하세요!

참고: CPU 오프로딩을 사용하면 VRAM에 들어가지 않는 모델도 실행할 수 있습니다.

모든 라이선스 조건은 Flux.1 Dev와 동일하게 적용됩니다.

PS: HyperSD Flux 16단계 LoRA의 개발자인 바이트댄스에 감사드립니다. 이 LoRA는 https://huggingface.co/ByteDance/Hyper-SD/tree/main에서 확인할 수 있습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.