Florence Upscaler FLUX | LORA | GGUF
详情
下载文件
关于此版本
模型描述
Florence 简单超分辨率放大器
此工作流提供两种超分辨率放大方式:
- 通过 Florence 模块自动放大
- 通过自定义提示手动放大
跳过“激活 Florence”节点以切换至手动模式。
如果遇到节点问题,请使用以下工作流中的“导入缺失节点”功能:
https://huggingface.co/UmeAiRT/FLUX-auto_installer/resolve/main/UmeAiRT-Nodecheck.json?download=true
所需资源:
Flux.1
Kijai/flux-fp8 主分支 (huggingface.co)
将 "flux1-dev-fp8" 放置于 ComfyUI\models\unet
black-forest-labs/FLUX.1-dev 主分支 (huggingface.co)
将 "ae" 放置于 \ComfyUI\models\vae
comfyanonymous/flux_text_encoders 主分支 (huggingface.co)
将 "t5xxl_fp8_e4m3fn" 放置于 \ComfyUI\models\clip
将 "clip_l" 放置于 \ComfyUI\models\clip
对于 GGUF 格式
推荐配置:
24 GB 显存:Q8_0 + T5_Q8 或 FP8
16 GB 显存:Q5_K_S + T5_Q5_K_M 或 T5_Q3_K_L
<12 GB 显存:Q4_K_S + T5_Q3_K_L
GGUF 模型
city96/FLUX.1-dev-gguf 主分支 (huggingface.co)
将 "flux1-dev-Q8_0.gguf" 放置于 ComfyUI\models\unet
GGUF clip
city96/t5-v1_1-xxl-encoder-gguf 主分支 (huggingface.co)
将 "t5-v1_1-xxl-encoder-Q8_0.gguf" 放置于 \ComfyUI\models\clip
改进版 Flux 文本编码器
ViT-L-14-TEXT-detail-improved-hiT-GmP-TE-only-HF.safetensors · zer0int/CLIP-GmP-ViT-L-14 主分支 (huggingface.co)
将 "ViT-L-14-GmP-ft-TE-only-HF-format.safetensors" 放置于 \ComfyUI\models\clip
超分辨率模型
ESRGAN/4x_NMKD-Siax_200k.pth · uwg/upscaler 主分支 (huggingface.co)
将 "4x_NMKD-Siax_200k.pth" 放置于 \ComfyUI\models\upscale_models


