GGUF_K: HyperFlux 8-Steps K_M Quants

詳細

ファイルをダウンロード

モデル説明

警告:これらのKクオンティゼーションモデルはComfyUIでは完璧に動作しますが、Forge UIではまだ動作させることができませんでした。この状況が変化した場合はお知らせください。非Kクオンティゼーションのオリジナルモデルは こちら で入手でき、Forge UIで動作することが確認されています。

[注:GGUFファイルを取り出すためにダウンロードしたファイルを解凍してください。CivitAIはGGUFをネイティブでサポートしていないため、この回避策が必要です]

これらはHyperFlux 8ステップ用のK(_M)クオンティゼーションモデルです。Kクオンティゼーションは非Kクオンティゼーションよりも若干精度とパフォーマンスが優れています。HyperFluxはFlux.DとByteDanceの8ステップHyperSD LoRAを統合し、GGUF形式に変換したものです。その結果、わずか8ステップで完全にノイズ除去された画像を生成し、約6.2GBのVRAMしか消費しない、メモリ効率が极高で高速なDEV(CFGに敏感)モデルが得られます(Q4_0クオンティゼーションの場合)。

このモデルは、このカスタムノードを使用してComfyUIで利用できます。ただし、Forge UIでは動作させることができませんでした。VAE、clip_l、t5xxlモデルのダウンロード先については、https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050 をご参照ください。

FastFlux およびその他のDev-Schnellマージモデルとの比較利点

  • より高い画質:FastFluxなどのSchnellモデルと比べ、8ステップではるかに優れた品質と表現力が得られます。

  • CFG/ガイドアンスensitivity:このモデルはDEVモデルであるため、ハイブリッドモデルとは異なり、完全な(蒸留済み)CFG感度を享受できます。つまり、プロンプト感度と創造性、ソフトさと彩度のバランスを制御できます。

  • DEV LoRAと完全互換で、Schnellモデルの互換性よりも優れています。

  • 欠点:最高品質を得るには8ステップが必要です。ただし、Schnellモデルでもおそらく最高品質を得るために少なくとも8ステップを試すでしょう。

どのモデルをダウンロードすべきですか?

[現状:最新版のComfyUI(GGUFノード)を使用して、11GBの1080tiでQ6_Kを動作させることができます。]

ご利用のVRAMに収まるモデルをダウンロードしてください。モデルがGPUメモリに収まる場合、推論コストの差は非常に小さいです。サイズの順序は Q2 < Q3 < Q4 < Q5 < Q6 です。メモリに全く収まらない場合を除き、Q2とQ3の使用は推奨しません。

すべてのライセンス条件はFlux.1 Devに準じます。

PS: ByteDanceが開発したHyperSD Flux 8ステップLoRAへのクレジットは、以下で確認できます:https://huggingface.co/ByteDance/Hyper-SD/tree/main

このモデルで生成された画像

画像が見つかりません。