GGUF: FastFlux Unchained (FluxUnchained merged in Flux.S)
세부 정보
파일 다운로드
모델 설명
FP8 - 모든 기능을 갖춘 하나의 모델: /model/671478 (하지만, 우선 GGUF를 시도하세요!)
[참고: GGUF 파일을 얻으려면 다운로드한 파일을 압축 해제하세요. Civitai는 GGUF를 원래 지원하지 않기 때문에 이 방법을 사용합니다]
FluxUnchained과 FastFlux을 병합하여 GGUF로 변환한 모델입니다. 이로 인해 매우 낮은 VRAM을 사용하면서도 4-8단계로 예술적인 NSFW 이미지를 생성할 수 있게 되었습니다. Q_4_0 모델은 약 6.5GB의 VRAM을 사용하며, 8단계로 1024x1024 이미지를 생성하는 데 약 1.5분이 소요됩니다. [Forge UI의 GGUF 지원에 대해 자세히 알아보려면, 그리고 VAE, clip_l, t5xxl 모델을 다운로드할 위치를 확인하려면 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050을 참조하세요.]
이 모델을 다른 LoRA와 결합하여 원하는 효과를 얻을 수도 있습니다.
어떤 모델을 다운로드해야 할까요?
[현재 상황: 업데이트된 Forge UI 및 Comfy UI(GGUF 노드)를 사용하여 11GB VRAM을 가진 1080ti에서 Q8_0을 실행할 수 있습니다.]
당신의 VRAM에 맞는 모델을 다운로드하세요. 모델이 GPU 메모리에 들어간다면 추가 추론 비용은 매우 작습니다. 크기 순서는 Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0입니다.
- Q4_0 및 Q4_1은 8GB VRAM에 들어갑니다.
- Q5_0 및 Q5_1은 11GB VRAM에 들어갑니다.
- Q8_0은 더 큰 VRAM이 있다면 사용하세요!
참고: CPU 오프로딩을 사용하면 VRAM에 들어가지 않는 모델도 실행할 수 있습니다.
LoRA 사용 팁
이 모델은 LoRA와 매우 잘 작동하는 것으로 나타났습니다(Comfy에서 테스트됨). 하지만 단계 수를 약간 증가시켜야 할 수 있습니다(8-10단계).
Flux.1 Dev 및 Schnell과 관련된 모든 라이선스 조건이 적용됩니다.







