Flux.1-Heavy-17B(GGUF)

詳細

ファイルをダウンロード

モデル説明

Flux.1-Heavy-17B GGUF クォンタイズ

🚀 主要なリソース最適化

Training

元の必要条件:

  • 40GB VRAM
  • 80GB システムRAM

現在の対応リソース:

  • 最低8GB VRAM
  • 32GB システムRAM

説明

これらは、city96が開発した元のFlux.1-Heavy-17Bモデルのメモリ最適化版GGUFクォンタイズです。低VRAM環境でも実行可能になります。元のモデルは、12BパラメータのFlux.1-devモデルを自己マージした17Bパラメータモデルで、コヒーレントな画像を生成可能な初期のオープンソース17B画像モデルの一つとして注目されています。

利用可能なバージョン

Q6_K バージョン

  • VRAM要件:16GB
  • 品質とパフォーマンスの最適なバランス
  • RTX 3080/3090 または同様のGPUを搭載したユーザーにおすすめ

Q5_K_M バージョン

  • VRAM要件:12GB
  • メモリ使用量を抑えつつ高品質
  • RTX 3060 Ti/3070/2080 Ti ユーザーに最適

Q3_K_L バージョン

  • VRAM要件:8GB
  • 最もメモリ効率の高いバージョン
  • RTX 3060/2060 Super などのミドルレンジGPUでも実行可能

主な特徴

  • 元のFlux.1-Heavy-17Bモデルのコア機能を維持
  • 異なるVRAM構成向けに最適化
  • ハイエンドGPUを必要とせずに広範なハードウェア互換性を実現
  • 指定されたVRAMレベルでスムーズに動作
  • 元のモデルと比較してリソース要件が劇的に削減

インストール方法

  1. 希望するクォンタイズバージョンをダウンロード
  2. GGUFファイルをモデルディレクトリに配置
  3. 設定を更新して新しいモデルファイルを指し示す

クレジット

  • 元のモデル:city96(Flux.1-Heavy-17B)
  • 基底アーキテクチャ:Flux.1-dev(12Bパラメータモデル)

注意点

  • パフォーマンスは使用するハードウェア構成によって異なる場合があります
  • 利用可能なVRAMと品質要件に基づいてクォンタイズレベルを選択してください
  • クォンタイズレベルが低いほど、元のモデルと比較して品質がやや低下する可能性があります

このモデルで生成された画像

画像が見つかりません。