Flux.1 D + Flux.1 Kontext Workflows + SageAttention + GGUF + MultiGPU
詳細
ファイルをダウンロード
モデル説明
私のTGチャンネル - https://t.me/StefanFalkokAI
私のTGチャット - https://t.me/+y4R5JybDZcFjMjFi
こんにちは!私はFlux.1 DおよびFlux.1 Kontextを使用してComfyUI用の画像を生成する際の作業フローを紹介します。
Fluxモデルを含むワークフローを用意しました。
Flux 1.Dモデル(/model/618692?modelVersionId=691639)、Flux 1.Kontext(https://huggingface.co/Comfy-Org/flux1-kontext-dev_ComfyUI/tree/main/split_files/diffusion_models)、CLIP(https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main)、VAE(https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/ae.safetensors)が必要です。
また、優れたFlux SPROモデルをお勧めします - /model/1953067?modelVersionId=2210446
GGUF Flux.1 D - https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main
GGUF Flux.1 Kontext - https://huggingface.co/QuantStack/FLUX.1-Kontext-dev-GGUF/tree/main
さらに、高速生成のためにSageattention 2.2.0(Triton版)(https://huggingface.co/Kijai/PrecompiledWheels/tree/main)とTorch 2.7.0+(https://github.com/pytorch/pytorch/releases)が必要です。また、CUDA 12.8(https://developer.nvidia.com/cuda-12-8-0-download-archive)とVS Code(https://visualstudio.microsoft.com/downloads/)をダウンロードしてインストールしてください。
Sageattentionのインストール方法(1.0.6版):Sageattention 2.2.0をインストールするには、.whlファイルを.zipにリネームし、.zip内のフォルダをComfyUI\python_embeded\Lib\site-packagesにコピーしてください。
ワークフローに問題がある場合やトラブルが発生した場合は、コメントをお願いします。
















