GGUF: HyperFlux Unchained 16-Steps (Flux Unchained + ByteDance HyperSD LoRA)
詳細
ファイルをダウンロード
モデル説明
警告:これは16ステップモデルです。より高速な8ステップモデルはこちらでご確認ください。
[注意:GGUFファイルを取得するには、ダウンロードしたファイルを解凍してください。Civitaiはネイティブに対応していないため、この回避策を使用しています]
FluxUnchained と ByteDance の HyperSD LoRA をマージし、GGUF形式に変換したモデルです。その結果、VRAM消費量を極力抑えながら、16ステップで芸術的なNSFW画像を生成可能になりました。Q_4_0モデルは、私の1080tiで16ステップ、1024x1024画像を生成する際に約6.5GBのVRAMを消費し、約3分かかります。[Forge UIのGGUFサポートについて、およびVAE、clip_l、t5xxlモデルのダウンロード方法についてはhttps://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050をご覧ください。]
他のLoRAと組み合わせることで、ご希望の効果を得ることも可能です。
利点
- 元のFluxUnchained DEVモデルと同等の品質を、約16ステップで実現。
- 一般的に、8ステップのHyperFlux Unchainedよりも品質と表現力が高い。
- 同じシードを使用すると、出力画像は元のDEVモデルと非常に似た結果となり、高速な検索に使用し、最終生成はDEVモデルで行えます。
- 偶然の効果により、DEVモデルよりも優れた結果が得られることもあります :) 。
- 欠点:16ステップを必要とします。
どのモデルをダウンロードすべきですか?
[現在の状況:最新版のForge UIとComfy UI(GGUFノード)を使用すると、11GBの1080tiでもQ8_0を実行できます。]
ご使用のVRAMに収まるモデルをダウンロードしてください。モデルがGPUメモリに収まる場合、推論にかかる追加コストは非常に小さいです。サイズ順はQ4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0です。
- Q4_0とQ4_1:8GB VRAMに収まります。
- Q5_0とQ5_1:11GB VRAMに収まります。
- Q8_0:より多くのVRAMをお持ちの場合はこちら!
注:CPUオフロードを使用すれば、VRAMに収まらないモデルでも実行可能です。
すべてのライセンス条件はFlux.1 Devに準じます。
PS: HyperSD Flux 16ステップLoRAの開発者であるByteDanceに謝意を表します。詳細はhttps://huggingface.co/ByteDance/Hyper-SD/tree/mainをご覧ください。

















