HIDREAM

詳細

ファイルをダウンロード

モデル説明

🔥 HiDream: 複数フォーマット対応の高度なAI画像生成

📌 概要

HiDreamは、速度、品質、VRAM使用量、ソフトウェア互換性の異なるニーズに合わせて、複数のAIモデルバージョンとフォーマット(.safetensorsや.ggufなど)で提供されています。これらを理解することで、ご使用のハードウェアに最適なオプションを選択し、正しいダウンロードリンクを見つけることができます。

🔑 このガイドでカバーする内容

  1. コアモデル:主要なバリエーション(Full、Dev、Fast)とその入手先

  2. 必要なコンポーネント:完全な機能を実現するために必要なText EncoderとVAEモデル

  3. 量子化バージョン:GGUFモデルバージョンとその入手先

  4. ハードウェア要件:これらのモデルに必要なGPU VRAMの一般的な要件

⚡ コアHiDream画像モデル

  • 1. HiDream Full

    • 焦点:最高品質・詳細度

    • 設定:ステップ:50、サンプラー:uni_pc、スケジューラ:simple、CFG:5.0(ネガティブプロンプトが必要)

  • 2. HiDream Dev

    • 焦点:速度と実験

    • 設定:ステップ:28、サンプラー:lcm、スケジューラ:normal、CFG:1.0(ネガティブプロンプト不要)

  • 3. HiDream Fast

    • 焦点:最大速度

    • 設定:ステップ:16、サンプラー:lcm、スケジューラ:normal、CFG:1.0(ネガティブプロンプト不要)

ダウンロード先(FP16/FP8 Diffusionモデル分割版)Hugging Faceリポジトリ

注意:希望するモデル(例:hidream_i1_full_fp16.safetensors)のすべての部分をダウンロードし、ComfyUI/models/diffusion_models/フォルダに配置してください。

🧠 Text EncoderおよびVAEモデル

これらのコンポーネントは、プロンプトの解釈と画像の最終仕上げに不可欠です。メイン画像モデルと一緒に読み込む必要があり、追加のVRAMを消費します。

必要なHiDream Text Encoder

  1. clip_g_hidream.safetensors(1.39 GB)

  2. clip_l_hidream.safetensors(248 MB)

  3. llama_3.1_8b_instruct_fp8_scaled.safetensors(9.08 GB)

  4. t5xxl_fp8_e4m3fn_scaled.safetensors(5.16 GB)

ダウンロード先(分割Text Encoder)Hugging Faceリポジトリ

注意:必要なエンコーダー(clip_g、clip_l、t5xxl、llama3.1)のすべての部分をダウンロードし、ComfyUI/models/text_encoders/フォルダに配置してください。

VAE

📁 推奨フォルダ構成

HiDreamモデルとコンポーネントを最適に整理するには、以下の推奨構成に従ってください:

📂 ComfyUI/
├── 📂 models/
│   ├── 📂 diffusion_models/
│   │   └── 📄 hidream_i1_[variant].safetensors(または .gguf)
│   ├── 📂 text_encoders/
│   │   ├── 📄 clip_g_hidream.safetensors
│   │   ├── 📄 clip_l_hidream.safetensors
│   │   ├── 📄 llama_3.1_8b_instruct_fp8_scaled.safetensors
│   │   └── 📄 t5xxl_fp8_e4m3fn_scaled.safetensors
│   ├── 📂 vae/
│   │   └── 📄 ae.safetensors

📊 GGUFモデルバージョン(量子化HiDream)

利用可能なHiDream-I1 GGUF量子化バージョンとダウンロードリンク

  1. HiDream Full GGUF

  2. HiDream Fast GGUF

  3. HiDream Dev GGUF

:K-quant(_K_M、_K_S)は、同様のビットレベルにおいて、従来の標準quant(_0、_1)よりも通常、品質が優れています。

💻 GPU VRAM要件とモデルの適合性

VRAMは非常に重要です。モデル、必要な補助コンポーネント(エンコーダー、VAE)、ソフトウェアオーバーヘッド、生成プロセスすべてを格納できる十分な容量が必要です。

GPU VRAM別GGUFの一般的な適合性(HiDream Full GGUFサイズを基準)

1. 8GB VRAM

  • Q2_K(6.56 GB)に最適、または一部オフロードを用いてQ3_K_S(8.21 GB)/Q3_K_M(8.77 GB)も可能。

2. 12GB VRAM(例:RTX 3060 12GB)

  • Q3レベルはVRAM内に完全に収容可能。

  • Q4レベル(最大[email protected])は実行可能だが、大きなQ4モデルは一部レイヤーをCPU/RAMにオフロードする必要がある。

  • Q5レベル(最大13.5GB)は可能だが、より大きなオフロードが必要。

  • 推奨:Q4_K_MまたはQ4_K_Sから開始。オフロードによる速度低下が問題な場合はQ3_K_Mを試してください。

3. 16GB VRAM

  • Q5レベル(最大13.5GB)をVRAM内に完全に実行可能。

  • Q6_K(14.7GB)も実行可能で、最小限のオフロードのみが必要な場合も。

4. 24GB VRAM(またはそれ以上)

  • Q6_K(14.7GB)を快適に実行可能で、Q8_0などのより高量子化バージョンも可能。

  • FP16フル版(34.2GB)は24GBでも大幅なオフロードが必要で、VRAMを完全利用するには48GB以上または複数GPU構成が推奨されます。

🙏 クレジット

  • 元のFLUX.1-Fill-devモデルを開発したBlack Forest Labsに特別な感謝を。

  • GGUFの開拓者であるcity96に大いに感謝!🙌

👨‍💻 開発者情報

このガイドはAbdallah Al-Swaitiによって作成されました:

  1. Hugging Face

  2. GitHub

  3. LinkedIn

その他のツールやアップデートについては、私のComfyUI-OllamaGeminiをご覧ください。

✨ HiDreamであなたの創造的ビジョンを高めましょう ✨

No alternative text description for this image

このモデルで生成された画像

画像が見つかりません。