ComfyUI beginner friendly Flux.2 Klein 4B GGUF Text-to-Image Workflow by Sarcastic TOFU

詳細

ファイルをダウンロード

モデル説明

これは、単一のFlux.2 Klein 4B GGUFモデルと動作する非常にシンプルでComfyUI初心者向けのテキストから画像へのワークフローです。私は8GBのAMD GPUに適したQ8モデルを使用しましたが、より高性能なGPUをお持ちの場合は、完全な非量子化されたFlux.2 Klein 4Bモデルに置き換えることができます。逆に、GPUの性能が低い場合は、以下のリンクからFlux.2 Klein 4B GGUFモデルに対応する低スペックハードウェア用の他のGGUFモデルを検索できます(UnslothのHuggingFaceリポジトリ:https://huggingface.co/unsloth/FLUX.2-klein-4B-GGUF/tree/main)およびその他の関連リソース。

Flux.2 Klein 4Bおよび9Bモデルは、「リクティファイドフロー」アーキテクチャを採用した新しい高速AI画像生成モデルで、画像生成とプロフェッショナルレベルの編集を1つのコンパクトなパッケージに統合しています。これらのモデルは、「ステップ蒸留」技術を使用しているため、従来のモデルが数十ステップを必要とするところを、わずか4ステップで高品質な画像を生成し、現代のハードウェアではサブセカンドレベルの速度を実現しています。4Bバージョンは個人利用および商用利用の両方で許容的なApache 2.0ライセンスのもとでリリースされていますが、より強力な9Bバージョンは研究および個人プロジェクト用の非商業ライセンスを使用しています。両モデルは1:1の正方形から21:9の超ワイド、9:21の縦長まで、11種類のネイティブアスペクト比をサポートし、2048x2048などの4メガピクセルまでの鮮明な画像を生成できます。さらにアクセスしやすくするために、FP8(8ビット)やNVFP4(4ビット)などのQ(量子化)モデルが提供されており、これらはモデルの「脳のサイズ」を縮小してメモリ使用量を削減します。具体的には、FP8バージョンは約1.6倍速く、VRAM使用量を40%削減し、NVFP4バージョンは最大2.7倍速く、VRAM使用量を55%削減します。これらの最適化により、4Bモデルは8GB~12GBのVRAMを持つシステムで動作可能であり、最も低スペックなFlux.2 Klein 4B Q2またはQ3 GGUFモデルでは、6GB、4GB、2GBのVRAMを持つ非常に低性能なGPU、あるいは最新のラップトップやミニPCチップに搭載された統合グラフィックス(iGPU)でも動作します。

必要なファイルをダウンロードするには、Hugging Faceアカウントが必要です(詳細は以下に記載)。ComfyUIマネージャーまたは他の必要なノードをインストールし、正しいファイルを適切な場所に配置してください。また、SD 1.5 + SDXL 1.0、WAN 2.1、WAN 2.2、MagicWAN Image v2、QWEN、HunyuanImage-2.1、HiDream、KREA、Chroma、AuraFlow、Z-Image Turbo、Fluxなどの他のワークフローもご確認ください。気に入ったものには、ぜひ黄色いバズを投げてください。

使い方:

#1. まず、ご希望のFlux.2 Klein 4B GGUFモデル(またはフルモデルに置き換え)を選択してください。

#2. 生成したい画像の寸法を設定してください。

#3. 次に、ポジティブプロンプトとネガティブプロンプトを入力してください。

#4. 生成する画像の枚数を選択してください(「Run」ボタン横の数値を変更)。

#5. イメージサンプリング方法、CFG、ステップなどの設定を選択してください。

#6. 最後に「Run」ボタンを押して生成してください。これで完了です。

※このワークフローでのLORAの使用はオプションです。LORAなしで使用することも、1つ、2つ、または任意の数のLORAを使用することもできます。新しいLORAを追加するには、上部の「L」ボタンを押してLORAマネージャーを新しいタブで起動し、お好みのLORAを見つけて、使用する場合は上向きのカイトボタンをクリックしてください。

必要なファイル

===================

Flux.2 Klein 4Bモデル -


使用するFlux.2 Klein 4B GGUFモデルのダウンロードリンク


https://huggingface.co/unsloth/FLUX.2-klein-4B-GGUF/resolve/main/flux-2-klein-4b-Q8_0.gguf

使用するFlux.2 Klein 4Bテキストエンコーダーのダウンロードリンク


https://huggingface.co/Comfy-Org/flux2-klein-4B/resolve/main/split_files/text_encoders/qwen_3_4b.safetensors

使用するFlux.2 Klein 4B VAEのダウンロードリンク


https://huggingface.co/Comfy-Org/flux2-dev/resolve/main/split_files/vae/flux2-vae.safetensors

使用したLORA(最初の例画像のみ):

96yottea style for Flux 2 Klein


/model/2318188/96yottea-style-for-flux-2-klein

このモデルで生成された画像

画像が見つかりません。