ComfyUI beginner friendly Flux.2 Klein 4B GGUF Simple Cloth Swap Workflow by Sarcastic TOFU

詳細

ファイルをダウンロード

モデル説明

これは、非常にシンプルでComfyUI初心者向けのFlux.2 Klein 4B GGUF単純な衣装交換ワークフローです。自然言語での簡単なテキスト編集指示を使って、対象画像の被写体の衣装を交換できます。このワークフローでは、衣装交換の2つのシナリオを実証しています。#1. 主なシナリオでは、衣装参照画像(図2)から衣装部分を単純に分離・抽出し、対象画像(図1)の衣装だけを交換します。その他の要素(照明、環境、顔、ポーズ、背景)はすべてそのまま保持します。これは非常にうまく機能します。#2. さらに、衣装の抽出と交換に加えて、出力に対して他の変更(照明、環境、靴、背景、出力画像のアスペクト比)も行います。この場合、やや小さな問題(足の余計な指、靴のやや不自然なレンダリング)が発生することがありますが、それらはさらに微調整が必要かもしれません。両方のシナリオ用のプロンプトと例を含めています。私は8GBのAMD GPUで動作するQ8モデルを使用しました。しかし、より高性能なGPUをお持ちの場合は、完全な非量子化されたFlux.2 Klein 4Bモデルに置き換えることができます。逆に、より弱いGPUをお持ちの場合は、以下からFlux.2 Klein 4B GGUFモデルの低性能ハードウェア対応バージョンを入手できます(UnslothのHuggingFaceリポジトリ:https://huggingface.co/unsloth/FLUX.2-klein-4B-GGUF/tree/main)およびその他の関連リソース。

Flux.2 Klein 4Bおよび9Bモデルは、「リクテファイドフロー」アーキテクチャを採用した新世代の高速AI画像生成モデルであり、画像生成とプロフェッショナルレベルの編集を1つのコンパクトなパッケージに統合しています。これらのモデルは、「ステップディスティレーション」を活用しているため、従来のモデルが数十ステップを要するのに対し、わずか4ステップで高品質な画像を生成でき、現代のハードウェアではサブセカンド速度を実現しています。4Bバージョンは個人利用および商用利用の両方で許容的なApache 2.0ライセンスでリリースされています。一方、より強力な9Bバージョンは、研究および個人プロジェクト用の非商用ライセンスを使用しています。両モデルは、1:1の正方形から21:9のウルトラワイド、9:21の縦長まで計11のネイティブアスペクト比をサポートし、最大4メガピクセル(例:2048x2048)の鮮明な画像を生成できます。さらにアクセスしやすくするために、FP8(8ビット)やNVFP4(4ビット)などのQ(量子化)モデルが提供されており、これらはモデルの「脳のサイズ」を縮小してメモリ使用量を削減します。具体的には、FP8バージョンは約1.6倍高速でVRAM使用量を40%削減し、NVFP4バージョンは最大2.7倍高速でVRAM使用量を55%削減します。これらの最適化により、4BモデルはVRAMが8GB~12GBのシステムで動作可能であり、最も低性能なFlux.2 Klein 4B Q2またはQ3 GGUFモデルを使用すれば、6GB、4GB、2GBのVRAMを搭載した非常に低性能なGPUや、最新のノートPCやミニPCチップに搭載された統合グラフィックス(iGPU)でも動作可能です。

必要なファイルをダウンロードするには、Hugging Faceアカウントが必要です(詳細は以下に記載)。ComfyUIマネージャーまたはその他の欠落ノードを使用してComfyUIにGGUFアドオンをインストールし、正しいファイルを適切な場所に配置してください。また、SD 1.5 + SDXL 1.0、WAN 2.1、WAN 2.2、MagicWAN Image v2、QWEN、HunyuanImage-2.1、HiDream、KREA、Chroma、AuraFlow、Z-Image Turbo、Flux用の他のワークフローもご確認ください。お気に入りのアイテムには、ぜひイエローバズを投げてください。

使い方:

#1. まず、ご希望のFlux.2 Klein 4B GGUFモデル(またはフルモデルに置き換え)を選択してください。

#2. 次に、編集用の画像を選択します。左側にターゲット画像(図1)、右側に衣装参照画像(図2)を配置してください。

#3. 次のステップで、画像編集の指示を入力してください。(例のように、非常に正確かつターゲットを絞って入力してください。)

#4. 出力画像の枚数を選択してください(「Run」ボタン横の数字を変更してください)。

#5. その後、画像サンプリング方法、CFG、ステップなどの設定を選択してください(デフォルトのままにすることをお勧めします)。

#5. 最後に「Run」ボタンを押して生成してください。これで完了です。

** このワークフローは、「Isolate Clothing」サブグラフ内でSAM3(Segment Anything Model 3)モデルを使用して、衣装参照画像(図2)から衣装を分離・抽出します。初回実行時には、SAM3モデルがまだダウンロードされていない場合、自動ダウンロードに追加で1分半~2分ほどかかることがあります。ただし、一度ダウンロードされれば、以降の実行では高速に動作します。

必要なファイル

================

Flux.2 Klein 4B モデル -

-----------------------

### 使用したFlux.2 Klein 4B GGUFモデルのダウンロードリンク

------------------------------------------------------

https://huggingface.co/unsloth/FLUX.2-klein-4B-GGUF/resolve/main/flux-2-klein-4b-Q8_0.gguf

### 使用したFlux.2 Klein 4B テキストエンコーダーのダウンロードリンク

--------------------------------------------------------

https://huggingface.co/Comfy-Org/flux2-klein-4B/resolve/main/split_files/text_encoders/qwen_3_4b.safetensors

### 使用したFlux.2 Klein 4B VAEのダウンロードリンク

-----------------------------------------------

https://huggingface.co/Comfy-Org/flux2-dev/resolve/main/split_files/vae/flux2-vae.safetensors

このモデルで生成された画像

画像が見つかりません。