Joe's Adaptive Guidance GGUF FLUX.1-schnell Workflow

詳細

ファイルをダウンロード

モデル説明

イントロ

アダプティブガイダンスカスタムノードを発見した後、これはサンプリングガイダンスを新規の方法で調整するだけのシンプルなカスタムノードですが、これによりデディスティルモデルが可能になると同時に、ディスティルされたハイパーモデルやSchnellでも興味深い結果が得られるようになりました。私はまだApacheライセンスのSchnellを大変気に入っています。そこで、私が作成したかったのは、GGUF UNetおよびGGUFテキストエンコーダーも使用する、非常にシンプルなワークフローを共有することです。

これまで私がテストしてきた他のワークフローは、主に他の人の学習支援を目的としていましたが、これは私が実際に人々が画像を簡単に作成し、ComfyUIに慣れることを期待して共有する最初のワークフローです。私はすでにForgeとWebUIを完全に離脱しています。

コメントをお願いします。

このワークフローは、Windows 2022およびWindows 11上で4060Ti、4080 Super、4090でテスト済みです。

LoRA
LoRAと共にこのワークフローをテストしましたが、LoRAを個別のノードとしてこのワークフローにドラッグして接続するか、Power LoRAローダーを使用すると最も安定して動作します。

UNetモデル Flux
UNETフォルダーにGGUFモデルが必要です(Q6より低いものは推奨しません)。

推奨モデル
Flux Fusion V2 GGUF(最良の結果)
または
GGUF形式のSchnellベースまたはマージモデル

提供されている設定はハイパーモデルとSchnellモデルで動作しますが、Devモデルやデディスティルモデルでは動作しません。このワークフローはDevモデルやデディスティルモデルに対応するよう調整可能ですが、これはこのワークフローの目的ではありません。

VAE
私は公式Schnell Hugging FaceページのVAEを使用していますが、AEのVAEでも動作します。現在、FluxではVAEモデル間の差異はほとんどありません。

GGUFテキストエンコーダー

次に、clip_lとt5のGGUFバージョンが必要です。Q6またはQ8を推奨します。
https://huggingface.co/city96/t5-v1_1-xxl-encoder-gguf
これにより、CLIPの読み込みとオフロードが高速化されます。

必要なカスタムノード:
アダプターガイダーはこちら
https://github.com/asagi4/ComfyUI-Adaptive-Guidance

GGUFがまだない場合はこちら(テキストエンコーダーとUNetのGGUF対応を可能にします)
https://github.com/city96/ComfyUI-GGUF

アスペクト比空画像
アスペクト比セレクターを使用していることに気づくでしょう。この機能が広まればとても嬉しいですが、カスタムノードなしでも、アスペクト比(例:16/9、4/3、3/5など)とベースメガピクセルを入力することで、希望する画像サイズを自動生成できます。

このモデルで生成された画像

画像が見つかりません。