Florence Upscaler FLUX | LORA | GGUF
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
플로렌스 간단한 업스케일러
이 워크플로우는 두 가지 방식으로 업스케일링을 가능하게 합니다:
- 플로렌스 모듈을 사용한 자동 업스케일링
- 사용자 지정 프롬프트를 사용한 수동 업스케일링
“플로렌스 활성화” 노드를 우회하여 수동 모드로 전환하세요.
노드 관련 문제가 발생할 경우, 다음 워크플로우를 사용하여 “누락된 노드 가져오기”를 실행하세요:
https://huggingface.co/UmeAiRT/FLUX-auto_installer/resolve/main/UmeAiRT-Nodecheck.json?download=true
필요한 리소스:
Flux.1
Kijai/flux-fp8 at main (huggingface.co)
ComfyUI\models\unet에 "flux1-dev-fp8"
black-forest-labs/FLUX.1-dev at main (huggingface.co)
\ComfyUI\models\vae에 "ae"
comfyanonymous/flux_text_encoders at main (huggingface.co)
\ComfyUI\models\clip에 "t5xxl_fp8_e4m3fn"
\ComfyUI\models\clip에 "clip_l"
GGUF용
권장 사항:
24GB VRAM: Q8_0 + T5_Q8 또는 FP8
16GB VRAM: Q5_K_S + T5_Q5_K_M 또는 T5_Q3_K_L
<12GB VRAM: Q4_K_S + T5_Q3_K_L
GGUF_Model
city96/FLUX.1-dev-gguf at main (huggingface.co)
ComfyUI\models\unet에 "flux1-dev-Q8_0.gguf"
GGUF_clip
city96/t5-v1_1-xxl-encoder-gguf at main (huggingface.co)
\ComfyUI\models\clip에 "t5-v1_1-xxl-encoder-Q8_0.gguf"
향상된 Flux 텍스트 인코더
ViT-L-14-TEXT-detail-improved-hiT-GmP-TE-only-HF.safetensors · uwg/upscaler at main (huggingface.co)
\ComfyUI\models\clip에 "ViT-L-14-GmP-ft-TE-only-HF-format.safetensors"
업스케일러
ESRGAN/4x_NMKD-Siax_200k.pth · uwg/upscaler at main (huggingface.co)
\ComfyUI\models\upscale_models에 "4x_NMKD-Siax_200k.pth"












