GGUF: FastFlux (Flux.1-Schnell Merged with Flux.1-Dev)

詳細

ファイルをダウンロード

モデル説明

[注意: GGUFファイルを取得するには、ダウンロードしたファイルを解凍してください。Civitaiはネイティブに対応していないため、この回避策が必要です]

Flux1.DはFlux1.Sにマージされました。このモデルはわずか4ステップで高品質な画像(Schnellより優れた品質)を生成でき、ステップ数を増やすほど品質がさらに向上し、VRAMの消費量は非常に少ないです。Q_4_0は、私の11GBの1080tiで45秒以内に1024x1024の画像を生成し、約6.5GBのVRAMを使用します。

このモデルは、このカスタムノードを使用してComfyUIで、またはForge UIで利用できます。Forge UIにおけるGGUFサポートの詳細、およびVAE、clip_l、t5xxlモデルのダウンロード先については、https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050をご覧ください。

どのモデルをダウンロードすべきですか?

[現在の状況: 最新のForge UIとComfy UI(GGUFノード)を使用すると、私の11GBの1080tiでQ8_0を実行できます。]

ご使用のVRAMに収まるサイズのモデルをダウンロードしてください。モデルがGPUに収まる場合、推論コストの差は非常に小さいです。サイズの順序は Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0 です。

  • Q4_0とQ4_1は8GB VRAMに収まります
  • Q5_0とQ5_1は11GB VRAMに収まります
  • Q8_0は、より多くのVRAMをお持ちの場合はこちらを!

注: CPUオフロードを使用すると、VRAMに収まらないモデルでも実行できます。

LoRAの使用に関するヒント

このモデルはLoRAと非常に良く動作します(Comfyでテスト済み)。ただし、ステップ数を少し増やす(8〜10ステップ)必要があるかもしれません。

更新情報

V2: 原版(v1)はfp8チェックポイントから作成しましたが、二重量子化によりエラーが蓄積し、v1では鮮明な画像を生成できませんでした。v2では、bf16のDevとSchnellチェックポイントを手動でマージし、その後GGUFを作成しました。このバージョンはより詳細で、はるかに鋭い結果を生成できます。

Flux.1 DevおよびFlux.1 Schnellに関連するすべてのライセンス条項が適用されます。

PS: マージ手法については、jiceさんとcomfy.orgに謝意を表します。私はhttps://github.com/city96/ComfyUI-GGUF/blob/main/tools/convert.pyを若干修正してこのモデルを作成しました。

このモデルで生成された画像

画像が見つかりません。