HIDREAM

详情

下载文件

模型描述

🔥 HiDream:多格式高级AI图像生成

📌 概述

HiDream 目前提供多个 AI 模型版本和格式(如 .safetensors 和 .gguf),每种格式均针对速度、质量、VRAM 使用率和软件兼容性等不同需求优化。了解这些差异有助于您根据硬件条件选择最佳版本,并找到正确的下载链接。

🔑 本指南涵盖

  1. 核心模型:主要变体(完整版、开发版、快速版)及其获取位置

  2. 必要组件:实现完整功能所需的文本编码器和 VAE 模型

  3. 量化版本:GGUF 模型版本及其来源

  4. 硬件要求:这些模型的一般 GPU VRAM 需求

⚡ 核心 HiDream 图像模型

  • 1. HiDream 完整版

    • 重点:最高画质与细节

    • 设置:步数:50,采样器:uni_pc,调度器:simple,CFG:5.0(需负向提示)

  • 2. HiDream 开发版

    • 重点:速度与实验性

    • 设置:步数:28,采样器:lcm,调度器:normal,CFG:1.0(无需负向提示)

  • 3. HiDream 快速版

    • 重点:最大速度

    • 设置:步数:16,采样器:lcm,调度器:normal,CFG:1.0(无需负向提示)

下载位置(FP16/FP8 扩散模型分片)Hugging Face 仓库

注意:下载所需模型的所有部分(如 hidream_i1_full_fp16.safetensors),并放入 ComfyUI/models/diffusion_models/ 文件夹中。

🧠 文本编码器与 VAE 模型

这些组件对于理解您的提示并完成图像生成至关重要。它们需与主图像模型一同加载,会占用额外的 VRAM。

必需的 HiDream 文本编码器

  1. clip_g_hidream.safetensors(1.39 GB)

  2. clip_l_hidream.safetensors(248 MB)

  3. llama_3.1_8b_instruct_fp8_scaled.safetensors(9.08 GB)

  4. t5xxl_fp8_e4m3fn_scaled.safetensors(5.16 GB)

下载位置(分片文本编码器)Hugging Face 仓库

注意:下载所需编码器(clip_g、clip_l、t5xxl、llama3.1)的所有部分,并放入 ComfyUI/models/text_encoders/ 文件夹中。

VAE

📁 推荐文件夹结构

为最佳组织 HiDream 模型与组件,请遵循以下推荐结构:

📂 ComfyUI/
├── 📂 models/
│   ├── 📂 diffusion_models/
│   │   └── 📄 hidream_i1_[variant].safetensors(或 .gguf)
│   ├── 📂 text_encoders/
│   │   ├── 📄 clip_g_hidream.safetensors
│   │   ├── 📄 clip_l_hidream.safetensors
│   │   ├── 📄 llama_3.1_8b_instruct_fp8_scaled.safetensors
│   │   └── 📄 t5xxl_fp8_e4m3fn_scaled.safetensors
│   ├── 📂 vae/
│   │   └── 📄 ae.safetensors

📊 GGUF 模型版本(量化版 HiDream)

可用的 HiDream-I1 GGUF 量化版本及下载链接

  1. HiDream 完整版 GGUF

  2. HiDream 快速版 GGUF

  3. HiDream 开发版 GGUF

注意:K-量化(_K_M、_K_S)在相似比特级别下通常比旧标准量化(_0、_1)提供更高质量。

💻 GPU VRAM 需求与模型适用性

VRAM 至关重要,您需要足够的空间容纳模型、必要的辅助组件(编码器、VAE)、软件开销以及生成过程。

按 GPU VRAM 推荐的 GGUF 适用性(以 HiDream 完整版 GGUF 体积为参考)

1. 8GB VRAM

  • 最适合 Q2_K(6.56 GB),或在部分卸载情况下尝试 Q3_K_S(8.21 GB)/ Q3_K_M(8.77 GB)

2. 12GB VRAM(如 RTX 3060 12GB)

  • 可流畅运行 Q3 级别模型,完全驻留在 VRAM 中。

  • 可运行 Q4 级别(最高 Q4_K_M @ 11.5 GB),但较大的 Q4 模型可能需要部分层卸载到 CPU/RAM。

  • Q5 级别(最高 13.5 GB)可行,但需显著卸载。

  • 建议:从 Q4_K_M 或 Q4_K_S 开始;若因卸载导致速度过慢,可尝试 Q3_K_M。

3. 16GB VRAM

  • 可能完全在 VRAM 中运行 Q5 级别(最高 13.5 GB)。

  • 可运行 Q6_K(14.7 GB),可能仅需极少量卸载。

4. 24GB VRAM(或更高)

  • 可流畅运行 Q6_K(14.7 GB)及更高量化级别如 Q8_0。

  • 完整 FP16 模型(34.2 GB)即使在 24GB 显卡上也需大量卸载,更适合 48GB+ 显卡或多 GPU 系统以实现完全 VRAM 利用。

🙏 致谢

  • 特别感谢 Black Forest Labs 开发了原始的 FLUX.1-Fill-dev 模型。

  • 衷心感谢 city96 在 GGUF 领域的开创性贡献!🙌

👨‍💻 开发者信息

本指南由 Abdallah Al-Swaiti 创建:

  1. Hugging Face

  2. GitHub

  3. LinkedIn

如需更多工具与更新,请访问我的 ComfyUI-OllamaGemini

✨ 用 HiDream 升级您的创作愿景 ✨

No alternative text description for this image

此模型生成的图像

未找到图像。