GGUF_K: HyperFlux 16-Steps K_M Quants
詳細
ファイルをダウンロード
モデル説明
警告:これらのKクオンツはComfyUIでは完璧に動作しますが、Forge UIではまだ動作させられていません。状況が変わったら教えてください。非Kクオンツのオリジナル版はこちらで確認でき、Forge UIで動作することが確認されています。
[注:GGUFファイルを取得するにはダウンロードしたファイルを解凍してください。CivitaiはGGUFをネイティブでサポートしていないため、この回避策が必要です]
これらはHyperFlux 16ステップ用のK(_M)クオンツです。Kクオンツは非Kクオンツよりもやや高精度でパフォーマンスも優れています。HyperFluxは、Flux.DとByteDanceの16ステップHyperSD LoRAを統合し、GGUF形式に変換したものです。その結果、約6.2GBのVRAM(Q4_K_Mクオンツの場合)で16ステップのみで完全にノイズ除去された画像を生成できる、超メモリ効率が高く高速なDEV(CFG対応)モデルになります。また、品質は約30ステップの元のDEVモデルに非常に近いです。
これはカスタムノードを使用してComfyUIで利用できます。しかし、Forge UIではこれらが動作しませんでした。VAE、clip_l、t5xxlモデルのダウンロード先についてはこちらをご覧ください。
利点
- 元のDEVモデルと同等の品質を実現しながら、約16ステップで済む。
- 全般に8ステップのHyperFluxよりも品質と表現力が優れている。
- 同じシードを使用すると、出力画像は元のDEVモデルと非常に似ているため、迅速な検索に使用し、最終生成はDEVモデルで行える。
- 偶然にも、DEVモデルよりも優れた結果が得られることもある。
- 欠点:16ステップが必要。
どのモデルをダウンロードすべきですか?
[現在の状況:更新されたComfy UI(GGUFノード)を使用して、11GBの1080tiでQ6_Kを実行できます。]
ご利用のVRAMに収まるモデルを選んでください。モデルがGPUメモリに収まれば、推論コストの差は非常に小さいです。サイズ順はQ2 < Q3 < Q4 < Q5 < Q6です。メモリにまったく収まらない場合を除き、Q2やQ3の使用は推奨しません。
すべてのライセンス条項はFlux.1 Devに準じます。
PS: HyperSD Flux 8ステップLoRAの開発者であるByteDanceに感謝します。詳細はこちらをご覧ください。
