HIDREAM
详情
下载文件
模型描述
🔥 HiDream:多格式高级AI图像生成
📌 概述
HiDream 目前提供多个 AI 模型版本和格式(如 .safetensors 和 .gguf),每种格式均针对速度、质量、VRAM 使用率和软件兼容性等不同需求优化。了解这些差异有助于您根据硬件条件选择最佳版本,并找到正确的下载链接。
🔑 本指南涵盖
核心模型:主要变体(完整版、开发版、快速版)及其获取位置
必要组件:实现完整功能所需的文本编码器和 VAE 模型
量化版本:GGUF 模型版本及其来源
硬件要求:这些模型的一般 GPU VRAM 需求
⚡ 核心 HiDream 图像模型
1. HiDream 完整版
重点:最高画质与细节
设置:步数:50,采样器:uni_pc,调度器:simple,CFG:5.0(需负向提示)
2. HiDream 开发版
重点:速度与实验性
设置:步数:28,采样器:lcm,调度器:normal,CFG:1.0(无需负向提示)
3. HiDream 快速版
重点:最大速度
设置:步数:16,采样器:lcm,调度器:normal,CFG:1.0(无需负向提示)
下载位置(FP16/FP8 扩散模型分片):Hugging Face 仓库
注意:下载所需模型的所有部分(如 hidream_i1_full_fp16.safetensors),并放入 ComfyUI/models/diffusion_models/ 文件夹中。
🧠 文本编码器与 VAE 模型
这些组件对于理解您的提示并完成图像生成至关重要。它们需与主图像模型一同加载,会占用额外的 VRAM。
必需的 HiDream 文本编码器
clip_g_hidream.safetensors(1.39 GB)
clip_l_hidream.safetensors(248 MB)
llama_3.1_8b_instruct_fp8_scaled.safetensors(9.08 GB)
t5xxl_fp8_e4m3fn_scaled.safetensors(5.16 GB)
下载位置(分片文本编码器):Hugging Face 仓库
注意:下载所需编码器(clip_g、clip_l、t5xxl、llama3.1)的所有部分,并放入 ComfyUI/models/text_encoders/ 文件夹中。
VAE
📁 推荐文件夹结构
为最佳组织 HiDream 模型与组件,请遵循以下推荐结构:
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 diffusion_models/
│ │ └── 📄 hidream_i1_[variant].safetensors(或 .gguf)
│ ├── 📂 text_encoders/
│ │ ├── 📄 clip_g_hidream.safetensors
│ │ ├── 📄 clip_l_hidream.safetensors
│ │ ├── 📄 llama_3.1_8b_instruct_fp8_scaled.safetensors
│ │ └── 📄 t5xxl_fp8_e4m3fn_scaled.safetensors
│ ├── 📂 vae/
│ │ └── 📄 ae.safetensors
📊 GGUF 模型版本(量化版 HiDream)
可用的 HiDream-I1 GGUF 量化版本及下载链接
HiDream 完整版 GGUF
HiDream 快速版 GGUF
HiDream 开发版 GGUF
注意:K-量化(_K_M、_K_S)在相似比特级别下通常比旧标准量化(_0、_1)提供更高质量。
💻 GPU VRAM 需求与模型适用性
VRAM 至关重要,您需要足够的空间容纳模型、必要的辅助组件(编码器、VAE)、软件开销以及生成过程。
按 GPU VRAM 推荐的 GGUF 适用性(以 HiDream 完整版 GGUF 体积为参考)
1. 8GB VRAM
- 最适合 Q2_K(6.56 GB),或在部分卸载情况下尝试 Q3_K_S(8.21 GB)/ Q3_K_M(8.77 GB)
2. 12GB VRAM(如 RTX 3060 12GB)
可流畅运行 Q3 级别模型,完全驻留在 VRAM 中。
可运行 Q4 级别(最高 Q4_K_M @ 11.5 GB),但较大的 Q4 模型可能需要部分层卸载到 CPU/RAM。
Q5 级别(最高 13.5 GB)可行,但需显著卸载。
建议:从 Q4_K_M 或 Q4_K_S 开始;若因卸载导致速度过慢,可尝试 Q3_K_M。
3. 16GB VRAM
可能完全在 VRAM 中运行 Q5 级别(最高 13.5 GB)。
可运行 Q6_K(14.7 GB),可能仅需极少量卸载。
4. 24GB VRAM(或更高)
可流畅运行 Q6_K(14.7 GB)及更高量化级别如 Q8_0。
完整 FP16 模型(34.2 GB)即使在 24GB 显卡上也需大量卸载,更适合 48GB+ 显卡或多 GPU 系统以实现完全 VRAM 利用。
🙏 致谢
特别感谢 Black Forest Labs 开发了原始的 FLUX.1-Fill-dev 模型。
衷心感谢 city96 在 GGUF 领域的开创性贡献!🙌
👨💻 开发者信息
本指南由 Abdallah Al-Swaiti 创建:
如需更多工具与更新,请访问我的 ComfyUI-OllamaGemini
✨ 用 HiDream 升级您的创作愿景 ✨





