HIDREAM
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
🔥 HiDream: 複数フォーマット対応の高度なAI画像生成
📌 概要
HiDreamは、速度、品質、VRAM使用量、ソフトウェア互換性の異なるニーズに合わせて、複数のAIモデルバージョンとフォーマット(.safetensorsや.ggufなど)で提供されています。これらを理解することで、ご使用のハードウェアに最適なオプションを選択し、正しいダウンロードリンクを見つけることができます。
🔑 このガイドでカバーする内容
コアモデル:主要なバリエーション(Full、Dev、Fast)とその入手先
必要なコンポーネント:完全な機能を実現するために必要なText EncoderとVAEモデル
量子化バージョン:GGUFモデルバージョンとその入手先
ハードウェア要件:これらのモデルに必要なGPU VRAMの一般的な要件
⚡ コアHiDream画像モデル
1. HiDream Full
焦点:最高品質・詳細度
設定:ステップ:50、サンプラー:uni_pc、スケジューラ:simple、CFG:5.0(ネガティブプロンプトが必要)
2. HiDream Dev
焦点:速度と実験
設定:ステップ:28、サンプラー:lcm、スケジューラ:normal、CFG:1.0(ネガティブプロンプト不要)
3. HiDream Fast
焦点:最大速度
設定:ステップ:16、サンプラー:lcm、スケジューラ:normal、CFG:1.0(ネガティブプロンプト不要)
ダウンロード先(FP16/FP8 Diffusionモデル分割版):Hugging Faceリポジトリ
注意:希望するモデル(例:hidream_i1_full_fp16.safetensors)のすべての部分をダウンロードし、ComfyUI/models/diffusion_models/フォルダに配置してください。
🧠 Text EncoderおよびVAEモデル
これらのコンポーネントは、プロンプトの解釈と画像の最終仕上げに不可欠です。メイン画像モデルと一緒に読み込む必要があり、追加のVRAMを消費します。
必要なHiDream Text Encoder
clip_g_hidream.safetensors(1.39 GB)
clip_l_hidream.safetensors(248 MB)
llama_3.1_8b_instruct_fp8_scaled.safetensors(9.08 GB)
t5xxl_fp8_e4m3fn_scaled.safetensors(5.16 GB)
ダウンロード先(分割Text Encoder):Hugging Faceリポジトリ
注意:必要なエンコーダー(clip_g、clip_l、t5xxl、llama3.1)のすべての部分をダウンロードし、ComfyUI/models/text_encoders/フォルダに配置してください。
VAE
📁 推奨フォルダ構成
HiDreamモデルとコンポーネントを最適に整理するには、以下の推奨構成に従ってください:
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 diffusion_models/
│ │ └── 📄 hidream_i1_[variant].safetensors(または .gguf)
│ ├── 📂 text_encoders/
│ │ ├── 📄 clip_g_hidream.safetensors
│ │ ├── 📄 clip_l_hidream.safetensors
│ │ ├── 📄 llama_3.1_8b_instruct_fp8_scaled.safetensors
│ │ └── 📄 t5xxl_fp8_e4m3fn_scaled.safetensors
│ ├── 📂 vae/
│ │ └── 📄 ae.safetensors
📊 GGUFモデルバージョン(量子化HiDream)
利用可能なHiDream-I1 GGUF量子化バージョンとダウンロードリンク
HiDream Full GGUF
HiDream Fast GGUF
HiDream Dev GGUF
注:K-quant(_K_M、_K_S)は、同様のビットレベルにおいて、従来の標準quant(_0、_1)よりも通常、品質が優れています。
💻 GPU VRAM要件とモデルの適合性
VRAMは非常に重要です。モデル、必要な補助コンポーネント(エンコーダー、VAE)、ソフトウェアオーバーヘッド、生成プロセスすべてを格納できる十分な容量が必要です。
GPU VRAM別GGUFの一般的な適合性(HiDream Full GGUFサイズを基準)
1. 8GB VRAM
- Q2_K(6.56 GB)に最適、または一部オフロードを用いてQ3_K_S(8.21 GB)/Q3_K_M(8.77 GB)も可能。
2. 12GB VRAM(例:RTX 3060 12GB)
Q3レベルはVRAM内に完全に収容可能。
Q4レベル(最大[email protected])は実行可能だが、大きなQ4モデルは一部レイヤーをCPU/RAMにオフロードする必要がある。
Q5レベル(最大13.5GB)は可能だが、より大きなオフロードが必要。
推奨:Q4_K_MまたはQ4_K_Sから開始。オフロードによる速度低下が問題な場合はQ3_K_Mを試してください。
3. 16GB VRAM
Q5レベル(最大13.5GB)をVRAM内に完全に実行可能。
Q6_K(14.7GB)も実行可能で、最小限のオフロードのみが必要な場合も。
4. 24GB VRAM(またはそれ以上)
Q6_K(14.7GB)を快適に実行可能で、Q8_0などのより高量子化バージョンも可能。
FP16フル版(34.2GB)は24GBでも大幅なオフロードが必要で、VRAMを完全利用するには48GB以上または複数GPU構成が推奨されます。
🙏 クレジット
元のFLUX.1-Fill-devモデルを開発したBlack Forest Labsに特別な感謝を。
GGUFの開拓者であるcity96に大いに感謝!🙌
👨💻 開発者情報
このガイドはAbdallah Al-Swaitiによって作成されました:
その他のツールやアップデートについては、私のComfyUI-OllamaGeminiをご覧ください。
✨ HiDreamであなたの創造的ビジョンを高めましょう ✨



