Flux.1-Heavy-17B(GGUF)
詳細
ファイルをダウンロード
モデル説明
Flux.1-Heavy-17B GGUF クォンタイズ
🚀 主要なリソース最適化

元の必要条件:
- 40GB VRAM
- 80GB システムRAM
現在の対応リソース:
- 最低8GB VRAM
- 32GB システムRAM
説明
これらは、city96が開発した元のFlux.1-Heavy-17Bモデルのメモリ最適化版GGUFクォンタイズです。低VRAM環境でも実行可能になります。元のモデルは、12BパラメータのFlux.1-devモデルを自己マージした17Bパラメータモデルで、コヒーレントな画像を生成可能な初期のオープンソース17B画像モデルの一つとして注目されています。
利用可能なバージョン
Q6_K バージョン
- VRAM要件:16GB
- 品質とパフォーマンスの最適なバランス
- RTX 3080/3090 または同様のGPUを搭載したユーザーにおすすめ
Q5_K_M バージョン
- VRAM要件:12GB
- メモリ使用量を抑えつつ高品質
- RTX 3060 Ti/3070/2080 Ti ユーザーに最適
Q3_K_L バージョン
- VRAM要件:8GB
- 最もメモリ効率の高いバージョン
- RTX 3060/2060 Super などのミドルレンジGPUでも実行可能
主な特徴
- 元のFlux.1-Heavy-17Bモデルのコア機能を維持
- 異なるVRAM構成向けに最適化
- ハイエンドGPUを必要とせずに広範なハードウェア互換性を実現
- 指定されたVRAMレベルでスムーズに動作
- 元のモデルと比較してリソース要件が劇的に削減
インストール方法
- 希望するクォンタイズバージョンをダウンロード
- GGUFファイルをモデルディレクトリに配置
- 設定を更新して新しいモデルファイルを指し示す
クレジット
- 元のモデル:city96(Flux.1-Heavy-17B)
- 基底アーキテクチャ:Flux.1-dev(12Bパラメータモデル)
注意点
- パフォーマンスは使用するハードウェア構成によって異なる場合があります
- 利用可能なVRAMと品質要件に基づいてクォンタイズレベルを選択してください
- クォンタイズレベルが低いほど、元のモデルと比較して品質がやや低下する可能性があります





