GGUF_K: HyperFlux 8-Steps K_M Quants
詳細
ファイルをダウンロード
モデル説明
警告:これらのKクオンティゼーションモデルはComfyUIでは完璧に動作しますが、Forge UIではまだ動作させることができませんでした。この状況が変化した場合はお知らせください。非Kクオンティゼーションのオリジナルモデルは こちら で入手でき、Forge UIで動作することが確認されています。
[注:GGUFファイルを取り出すためにダウンロードしたファイルを解凍してください。CivitAIはGGUFをネイティブでサポートしていないため、この回避策が必要です]
これらはHyperFlux 8ステップ用のK(_M)クオンティゼーションモデルです。Kクオンティゼーションは非Kクオンティゼーションよりも若干精度とパフォーマンスが優れています。HyperFluxはFlux.DとByteDanceの8ステップHyperSD LoRAを統合し、GGUF形式に変換したものです。その結果、わずか8ステップで完全にノイズ除去された画像を生成し、約6.2GBのVRAMしか消費しない、メモリ効率が极高で高速なDEV(CFGに敏感)モデルが得られます(Q4_0クオンティゼーションの場合)。
このモデルは、このカスタムノードを使用してComfyUIで利用できます。ただし、Forge UIでは動作させることができませんでした。VAE、clip_l、t5xxlモデルのダウンロード先については、https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050 をご参照ください。
FastFlux およびその他のDev-Schnellマージモデルとの比較利点
より高い画質:FastFluxなどのSchnellモデルと比べ、8ステップではるかに優れた品質と表現力が得られます。
CFG/ガイドアンスensitivity:このモデルはDEVモデルであるため、ハイブリッドモデルとは異なり、完全な(蒸留済み)CFG感度を享受できます。つまり、プロンプト感度と創造性、ソフトさと彩度のバランスを制御できます。
DEV LoRAと完全互換で、Schnellモデルの互換性よりも優れています。
欠点:最高品質を得るには8ステップが必要です。ただし、Schnellモデルでもおそらく最高品質を得るために少なくとも8ステップを試すでしょう。
どのモデルをダウンロードすべきですか?
[現状:最新版のComfyUI(GGUFノード)を使用して、11GBの1080tiでQ6_Kを動作させることができます。]
ご利用のVRAMに収まるモデルをダウンロードしてください。モデルがGPUメモリに収まる場合、推論コストの差は非常に小さいです。サイズの順序は Q2 < Q3 < Q4 < Q5 < Q6 です。メモリに全く収まらない場合を除き、Q2とQ3の使用は推奨しません。
すべてのライセンス条件はFlux.1 Devに準じます。
PS: ByteDanceが開発したHyperSD Flux 8ステップLoRAへのクレジットは、以下で確認できます:https://huggingface.co/ByteDance/Hyper-SD/tree/main
