GGUF: HyperFlux 16-Steps (Flux.1 Dev + ByteDance HyperSD LoRA)
詳細
ファイルをダウンロード
モデル説明
警告:これは16ステップモデルです。より高速な8ステップモデルはこちらでご覧いただけます。
[注意:GGUFファイルを取り出すにはダウンロードしたファイルを解凍してください。CivitaiはGGUFをネイティブでサポートしていないため、この回避策が必要です]
Flux.DとByteDanceの16ステップHyperSD LoRAを統合し、GGUF形式に変換したモデルです。その結果、Q4_0量子化で約6.2GBのVRAMを消費しながら、16ステップで完全にノイズ除去された画像を生成できる、超メモリ効率が高く高速なDEV(CFG対応)モデルになります。また、約30ステップの元のDEVモデルと比べても、品質は非常に近いです。
利点
- 元のDEVモデルと同等の品質を実現しつつ、約16ステップで済む。
- 一般的に8ステップのHyperFluxよりも品質と表現力が優れている。
- 同じシードを使用した場合、出力画像は元のDEVモデルと非常に似ているため、迅速な検索に使用し、最終生成にはDEVモデルを使用できる。
- たまに、偶然によってDEVモデルよりも優れた結果を得られる場合もある :) 。
- 欠点:16ステップが必要。
どのモデルをダウンロードすべきですか?
[現在の状況:最新のForge UIとComfy UI(GGUFノード)を使用すると、11GBの1080tiでQ8_0を実行できます。]
ご使用のVRAMに収まるモデルをダウンロードしてください。モデルがGPUに収まる場合、推論にかかる追加コストは非常に小さいです。サイズ順は Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0 です。
- Q4_0 と Q4_1:8GB VRAMに収まります
- Q5_0 と Q5_1:11GB VRAMに収まります
- Q8_0:より多くのVRAMをお持ちの場合に
注:CPUオフロードを使用すると、VRAMに収まらないモデルでも実行できます。
すべてのライセンス条項はFlux.1 Devに適用されます。
PS: HyperSD Flux 16ステップ LoRAの開発者であるByteDanceに感謝します。詳細はhttps://huggingface.co/ByteDance/Hyper-SD/tree/mainをご覧ください。




