Florence Upscaler FLUX | LORA | GGUF
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
Florence シンプルアップスケーラー
このワークフローは、以下の2つの方法でアップスケーリングを可能にします:
- Florenceモジュールによる自動アップスケーリング
- ご自身のプロンプトによる手動アップスケーリング
「Activate Florence」ノードをバイパスして、手動モードに切り替えます。
ノードに問題がある場合は、次のワークフローで「missing nodeのインポート」を使用してください:
https://huggingface.co/UmeAiRT/FLUX-auto_installer/resolve/main/UmeAiRT-Nodecheck.json?download=true
必要なリソース:
Flux.1
Kijai/flux-fp8 at main (huggingface.co)
ComfyUI\models\unet に「flux1-dev-fp8」
black-forest-labs/FLUX.1-dev at main (huggingface.co)
\ComfyUI\models\vae に「ae」
comfyanonymous/flux_text_encoders at main (huggingface.co)
\ComfyUI\models\clip に「t5xxl_fp8_e4m3fn」
\ComfyUI\models\clip に「clip_l」
GGUF用
推奨設定:
24 GB VRAM:Q8_0 + T5_Q8 または FP8
16 GB VRAM:Q5_K_S + T5_Q5_K_M または T5_Q3_K_L
<12 GB VRAM:Q4_K_S + T5_Q3_K_L
GGUF_Model
city96/FLUX.1-dev-gguf at main (huggingface.co)
ComfyUI\models\unet に「flux1-dev-Q8_0.gguf」
GGUF_clip
city96/t5-v1_1-xxl-encoder-gguf at main (huggingface.co)
\ComfyUI\models\clip に「t5-v1_1-xxl-encoder-Q8_0.gguf」
より優れたFluxテキストエンコーダー
ViT-L-14-TEXT-detail-improved-hiT-GmP-TE-only-HF.safetensors · zer0int/CLIP-GmP-ViT-L-14 at main (huggingface.co)
\ComfyUI\models\clip に「ViT-L-14-GmP-ft-TE-only-HF-format.safetensors」
アップスケーラー
ESRGAN/4x_NMKD-Siax_200k.pth · uwg/upscaler at main (huggingface.co)
\ComfyUI\models\upscale_models に「4x_NMKD-Siax_200k.pth」


