FLUX.1-DEV & Kontext Workflows Megapack
詳細
ファイルをダウンロード
モデル説明
更新日: 2025年2月7日
02.07: sdxl-to-fluxワークフローをバージョン4.6に更新(SDXL CN部分を修正、以前は正常に動作していませんでした)
02.07: Kontextワークフローをバージョン1.4に更新し、それに伴ってKontextインペイントワークフローを同梱しました。
基本設定:
1) ComfyUIポータブル版を以下からダウンロード:
https://docs.comfy.org/installation/comfyui_portable_windows
定期的に Updateフォルダ内のupdate_comfyui_and_python_dependencies.batを使用してComfyUIを更新してください。
2) Node Managerが必要であり、これを使っていくつかのカスタムノードをインストールする必要があります。
https://github.com/ltdrdata/ComfyUI-Manager
ノードの更新も定期的に行うことを忘れないでください。
3) 最近、Get and Set nodes がインストールマネージャーで見つからないようです。これらは非常に役立つため、リポジトリに直接アクセスして手動でインストールしてください:
https://github.com/kijai/ComfyUI-KJNodes
これを以下に解凍してください:
ComfyUI\custom_nodes
要件をインストールするには、ComfyUI\custom_nodes\ComfyUI-KJNodes フォルダに移動し、「requirements.txt」ファイルをコピーして python_embeded フォルダに貼り付けます。
その後、python_embeded フォルダ(ComfyUIがすべての依存関係を管理するフォルダ)内で cmd を実行し、以下のコマンドを実行します:
pip install -r requirements.txt
4) Civitaiのページ上部から必要なワークフローを選択し、.zipファイルをダウンロードして以下に解凍してください:
ComfyUI\user\default\workflows
5) ComfyUI内で、.jsonファイルを読み込み(またはドラッグ&ドロップ)してワークフローを開きます。
注意: ComfyUIに画像を読み込むと、古いバージョンのワークフローが読み込まれる可能性があります。必ず.jsonファイルを使用してください。
注意: プロンプトボックスには2つの入力欄があります。clip_lボックスにはプロンプトを入力しないでください。これはプロンプトの反映が不安定で不自然な結果を生み出します。
ノードの色分け:
緑色ノード: これらのノードでは、数値を自由に変更して目的の結果を得ることができます。
赤色ノード: これらは私が推奨する設定です。ただし、自由に実験してください。
青色ノード: これらはローダーノードです。ここでファイルを正しく読み込んでください(ファイル名をクリックして選択してください)。オプションが表示されない場合は、ファイルを正しいパスに配置していない、または配置している場合でもComfyUIを更新する必要がある可能性があります。
- ComfyUIを実行中にモデルなどを追加した場合は、「R」キーを押して更新してください。
=============================================
機能:
LORAs
\ComfyUI\models\loras
ワイルドカード
\ComfyUI\custom_nodes\ComfyUI-Impact-Pack\wildcards
- サブフォルダ内にも配置できます。
ワイルドカードノード:
Populateモード: 上部のボックスにワイルドカードを使用してプロンプトを入力できます。
Fixedモード: 下部のボックスにワイルドカードなしでプロンプトを入力できます。
LLM
\ComfyUI\models\llm_gguf\
入力した短いプロンプトから、LLM AIモデルを使用して詳細なプロンプトを生成できます。
私が使用しているモデルのリンク (Mistral-7B-Instruct-v0.3-GGUF)
https://huggingface.co/MaziyarPanahi/Mistral-7B-Instruct-v0.3-GGUF/tree/main
- あなたのPCに適した量子化レベルを選択してください。
ControlNet (CN)
\ComfyUI\models\controlnet
最適なDepthプリプロセッサ: DepthAnythingv2
最適なOpenPoseプリプロセッサ: DWPreprocessor
注意: 不自然な結果が出た場合は、設定を調整してください。
ADetailer
\ComfyUI\models\ultralytics\bbox
\ComfyUI\models\ultralytics\segm
「no Dill」の警告が出た場合は、bboxモデルを使用するか、HuggingfaceのAnzhcが提供する「no Dill」セグメンテーションモデルを使用してください。
ADetailer用にさらにモデルを追加したい場合は、CivitAIまたはHuggingfaceで検索してください。
Ultimate SD Upscaler
\ComfyUI\models\upscale_models
Ultimate SD Upscalerは多くのシステムリソースを消費します!最終的な画像を生成するために4枚以上のタイルを生成し、それらを統合して高い詳細度を実現します。
アップスケーリングモデルとして、私は複数をテストしましたが、SwinIRカテゴリのものが最も優れています。
Flux Redux (IP Adapter)
2つのファイルが必要です:
flux1-redux-dev:
https://huggingface.co/black-forest-labs/FLUX.1-Redux-dev/tree/main
ComfyUI\models\style_models
siglicp_vision_patch14_384
https://huggingface.co/Comfy-Org/sigclip_vision_384/blob/main/sigclip_vision_patch14_384.safetensors
ComfyUI/models/clip_vision
Flux Infill Inpaint
必要ファイル:
FLUX.1-Fill-dev:
https://huggingface.co/black-forest-labs/FLUX.1-Fill-dev/tree/main
ComfyUI\models\diffusion_models
=============================================
ワークフロー:
F.1 img2img
バージョン1.1: LORAサポートを追加し、画像解像度の設定も可能にしました。
注意: img2img中に人物のLORAを使用すると、LORAの顔を対象画像の体に適用する形で顔変換のように機能します。
=============================================
F.1 Style Changer (RF Inversion)
このワークフローでは、画像を入力し、FLUXとLORAsを使用してスタイルを変更できます。
その後、出力をUltimate SD Upscalerに渡し、最終的にHandsなどにAdetailerを適用して改善します。
注意: プロンプト欄は空のままにしてください。スタイルの設定にはLORAsを使用してください。これが最も効果的です。
注意: この段階でキャラクターロラ+顔用Adetailerを使用して、顔を切り替えることができます。
=============================================
F.1 text2img 4.0
このワークフローは以下を実行します:
text2img。ワイルドカード、LORAs、2x ControlNetをサポートします。
Fluxによるハイレゾフィックス
Ultimate SD Upscaler
最大3つのAdetailer(LORAサポート付き)
指、眼鏡、目など、検出用の追加モデルについてはCivitAIで探してください。LORAsも使用できます。
モデルについては推奨リソースのセクションをご覧ください。これらは現在私が使用しているモデルです。
注意: 特定のノードや機能を使用したくない場合は、そのノードをクリック(複数選択するにはCtrlキーを押しながらボックス選択)し、Ctrl+Bを押してバイパスしてください(トグル機能)。
LLMについての注意: 現在、この機能は時代遅れになっています。ChatGPTでアイデアからプロンプトを生成してもらうほうが、リソースを消費せず、追加モデルも不要で、無料版でも十分に高品質な結果が得られます。
PRO TIP!
このワークフローは各段階で画像を生成します。
どのステップでも悪い結果が出た場合:
キューから処理をキャンセルしてください。
ComfyUIに最後の良好な画像を読み込み(インターフェースにドラッグ&ドロップ)します。
問題を引き起こしたオプションを変更します(例: Adetailerでは、ノイズ低減量を増減する必要があるかもしれません)。
画像を生成します。処理は最初からではなく、使用している画像から再開されるため、時間を無駄にしません!(少なくともキャッシュされている限り、Adetailerには通常適用されます)。

この例では、手の修正が不十分でした。そこで処理を停止し、最後の良好な画像を再読み込み、手の詳細化ノードのノイズ低減量を増やして処理を再開しました(この場合、Adetailer #2からの再開)。
=============================================
F.1 text2img LLM(今後の更新予定)
単純な概念プロンプトを詳細なプロンプトに変換する「すべてが1つにまとまった」コンセプトは興味深いですが、ChatGPTでプロンプトを生成するほうがはるかに簡単で、リソースを消費せず、追加モデルも不要です。
=============================================
SD TO FLUX Ultimate
注意: このワークフローはSD ControlNets(Fluxではありません)を必要とします!
このワークフローは以下を実行します:
ステップ1: SD txt2img(SD1.5またはSDXL/PonyXL)
この段階でControlNetを使用するため、正しいモデル(SD1.5またはSDXL)を使用する必要があります。
ワイルドカードとSD LORAsをサポートします。
ステップ2: Fluxハイレゾフィックス
SD LORAsをサポートします
ステップ3: Flux USDU。1つはアップスケーリング用、もう1つは精細化用。
ステップ4: Adetailer(最大6つ、私は通常顔と手に使用)
重要: 必要なノイズ低減量は画像によって異なります。どの段階でも悪い結果が出た場合は、上記のPRO TIPを使用してください。
ここで、Flux用のAdetailerを3つ(顔、手、足)追加しました。これらが最も優れた結果を出します。また、SD用のAdetailerを最大3つ(NSFW対応のため、SDは特に非写実的なスタイルで優れた結果を得られるため)。
=============================================
F.1 Fill Inpainting
1. 「アップロードするファイルを選択」をクリックし、インペイントしたい画像を選択します。
2. 画像を右クリックして「マスクエディタで開く」を選択します。ここでマスクを描画できます。
3. インペイントが完了したら「保存」を押してください。
- 注意: 画像全体を再計算するため、通常のインペイントより遅いですが、より良い結果を出す傾向があります。
=============================================
F.1 インペイント(他の画像からのサンプリング使用)
1. 「アップロードするファイルを選択」をクリックし、インペイントしたい画像を選択します。
2. 画像を右クリックして「マスクエディタで開く」を選択します。ここでマスクを描画できます。
3. インペイントが完了したら「ノードに保存」を押してください。
4. サンプリング: 同一画像または別の画像の要素を使用してインペイントできます。2番目の画像は任意の画像(サイズが同じ、またはそれに合わせてリサイズする必要あり)で構いません。2番目の「Load Image」ノードに画像を読み込み、インペイント元として使用したい部分にマスクを設定してください。
このオプションを使用したくない場合は、2番目の画像ノードを無効化してください(Ctrl+B)
これは高速です。インペイントされた領域のみが再計算されます。
=============================================
SDXLインペイント(他の画像からのサンプリング使用)
なぜこのワークフローがあるのですか?
現在、LORAsから特定の「画像の細部」を正しく取得できないため、回避策としてこの方法を採用しています。
FLUXで画像を生成し、その後、SDXL、Pony、またはSD1.5モデルを使用して乳首など特定の部分をインペイントして目的の結果を得ます。
なぜAdetailerを使わないのか? なぜなら、毎回画像全体を再生成して細部が正しくなるのを待つのではなく、必要な細部だけを何度も生成したほうがはるかに効率的だからです。特にComfyUIではこの点が重要です。
サンプリング: ここで、同一または別の画像の要素を使用してインペイントできます。2番目の画像は任意の画像(サイズが同じ、またはそれに合わせてリサイズする必要あり)で構いません。2番目の「Load Image」ノードに画像を読み込み、インペイント元として使用したい部分にマスクを設定してください。
- このオプションを使用したくない場合は、2番目の画像ノードを無効化してください(Ctrl+B)
=============================================
アウトペイント:
100%最高の結果とは言えませんが、各辺最大256ピクセルまで拡張することで、十分な結果を得られます。しかし、ややランダム性が必要な場合があります。
=============================================
=============================================
非推奨(サポート終了)
High-Res fix 1.3 LITE(非推奨)
このワークフローは2段階で動作します:
text2img: 緑色ノードのdimensionsボタンをクリックすることで、Flux対応の安全な解像度を選択できるノードを追加しました。
img2img: この段階で画像を高解像度で再生成します。緑色ノードで拡大率を選択できます(A1111と同様)。
バージョン1.1: 各段階のプレビューを追加しました。
バージョン1.2: 専用のFluxプロンプトノードを追加。ガイドANCEスケールを含みますが、T5XXLボックス(下部) のみ使用してください。
バージョン1.3: サブアップスケーリングを削除。別途ワークフローとして提供しています。
=============================================
High-Res fix CN(ワイルドカード、LORAs、ControlNet)(非推奨)
注意: バージョン1.6以上をご使用ください。それ以前のバージョンはLORAsと正常に動作しませんでした。
2パスワークフロー:
Flux txt2img
Fluxハイレゾフィックス
このワークフローはHigh-Res fix 1.3 LITEのすべての機能に加え、ワイルドカードとLORAsをサポートします。
High-Res fix CN + Upscale(ControlNet、ワイルドカード、LORAs、Ultimate SD Upscaler)(非推奨)
3パスワークフロー:
Flux txt2img
Flux img2img
Ultimate SD Upscale
このワークフローはHigh-Res fixのすべての機能に加え、Ultimate SD Upscaler(最終画像を1タイルずつ生成して拡大) を備えています。
=============================================
text2img CN(ControlNet、ワイルドカード、LORAs)(非推奨)
1パスワークフロー:
- Flux txt2img
ワイルドカードとLORAサポート付きのtext2img。ハイレゾフィックスは含まれていません。
解像度選択機能を追加しました(詳細は上記のハイレゾバージョンを参照)。
text2img CN + アップスケール (ControlNet、ワイルドカード、LoRA、Ultimate SD アップスケーラー) (非推奨)
2パスワークフロー:
Flux txt2img
Ultimate SD アップスケール
text2img と同じですが、Ultimate SD アップスケーラーも追加されています。
text2img Adetailer (ワイルドカード、LoRA、Adetailer) (非推奨)
最大3パスワークフロー:
Flux txt2img
Adetailer #1
Adetailer #2(必要ない場合は CTRL+B でノードを無効化)
各Adetailerパスは、独立したプロンプトとLoRAをサポートします。
=============================================
SDXL to FLUX CN (ControlNet、ワイルドカード、LoRA)
SDXL / PonyXL / SD1.5 で動作
2パスワークフロー:
SD txt2img
Flux High Res Fix
これにより、お気に入りのスタイルで画像を生成し、自動的にFLUXでimg2imgに送信できます。最適な結果を得るには、ノイズ除去値を調整する必要があるかもしれません。
SDXL to FLUX CN + アップスケーラー (ControlNet、ワイルドカード、LoRA、Ultimate SD アップスケーラー)
SDXL / PonyXL / SD1.5 で動作
3パスワークフロー:
SD txt2img
Flux High Res Fix
Ultimate SD アップスケーラー
=============================================
アップスケーリング:A1111 / Forge の「EXTRA」タブと同じ
\ComfyUI\models\upscale_models
個人的には、画像をアップスケールする良い方法とは思いませんが、必要であればこちらにも含めています。
アップスケーリング:
計算が少し特殊です。x4 アップスケーラーを使用する場合、x4は自動的に適用されるため、最終的なスケーリング係数を得るには、目的の倍率をこの数値に掛け合わせる必要があります。
例:4 × 0.25 = 1(アップスケーリングなし)
ご希望のアップスケーラーを自由に使用してください。


