HIDREAM
세부 정보
파일 다운로드
모델 설명
🔥 HiDream: 여러 형식의 고급 AI 이미지 생성
📌 개요
HiDream은 현재 여러 AI 모델 버전 및 형식(.safetensors 및 .gguf 등)으로 제공되며, 각 버전은 속도, 품질, VRAM 사용량 및 소프트웨어 호환성 측면에서 다양한 요구 사항에 적합합니다. 이러한 사항을 이해하면 하드웨어에 가장 적합한 옵션을 선택하고 올바른 다운로드 링크를 찾는 데 도움이 됩니다.
🔑 이 가이드는 다음을 다룹니다
핵심 모델: 주요 변형(Full, Dev, Fast) 및 해당 모델 찾는 방법
필수 구성 요소: 완전한 기능을 위해 필요한 텍스트 인코더 및 VAE 모델
양자화된 버전: GGUF 모델 버전 및 출처
하드웨어 요구 사항: 이러한 모델에 필요한 일반적인 GPU VRAM 요구 사항
⚡ 핵심 HiDream 이미지 모델
1. HiDream Full
초점: 최고 품질 및 디테일
설정: 스텝: 50, 샘플러: uni_pc, 스케줄러: simple, CFG: 5.0 (네거티브 프롬프트 필요)
2. HiDream Dev
초점: 속도 및 실험
설정: 스텝: 28, 샘플러: lcm, 스케줄러: normal, CFG: 1.0 (네거티브 프롬프트 불필요)
3. HiDream Fast
초점: 최대 속도
설정: 스텝: 16, 샘플러: lcm, 스케줄러: normal, CFG: 1.0 (네거티브 프롬프트 불필요)
다운로드 위치(분할 FP16/FP8 디퓨전 모델): Hugging Face 저장소
참고: 원하는 모델의 모든 파일(예: hidream_i1_full_fp16.safetensors)을 다운로드하여 ComfyUI/models/diffusion_models/ 폴더에 배치하세요.
🧠 텍스트 인코더 및 VAE 모델
이 구성 요소는 프롬프트를 해석하고 이미지를 최종화하는 데 필수적입니다. 주요 이미지 모델과 함께 로드되어 추가 VRAM을 소모해야 합니다.
필수 HiDream 텍스트 인코더
clip_g_hidream.safetensors (1.39 GB)
clip_l_hidream.safetensors (248 MB)
llama_3.1_8b_instruct_fp8_scaled.safetensors (9.08 GB)
t5xxl_fp8_e4m3fn_scaled.safetensors (5.16 GB)
다운로드 위치(분할 텍스트 인코더): Hugging Face 저장소
참고: 필요한 인코더(clip_g, clip_l, t5xxl, llama3.1)의 모든 파일을 다운로드하여 ComfyUI/models/text_encoders/ 폴더에 배치하세요.
VAE
📁 권장 폴더 구조
HiDream 모델 및 구성 요소를 최적화하여 정리하려면 다음 권장 구조를 따르세요:
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 diffusion_models/
│ │ └── 📄 hidream_i1_[variant].safetensors (또는 .gguf)
│ ├── 📂 text_encoders/
│ │ ├── 📄 clip_g_hidream.safetensors
│ │ ├── 📄 clip_l_hidream.safetensors
│ │ ├── 📄 llama_3.1_8b_instruct_fp8_scaled.safetensors
│ │ └── 📄 t5xxl_fp8_e4m3fn_scaled.safetensors
│ ├── 📂 vae/
│ │ └── 📄 ae.safetensors
📊 GGUF 모델 버전(양자화된 HiDream)
사용 가능한 HiDream-I1 GGUF 양자화 및 다운로드 링크
HiDream Full GGUF
HiDream Fast GGUF
HiDream Dev GGUF
참고: K-quantized(_K_M, _K_S)는 유사한 비트 수준에서 이전 표준 양자화(_0, _1)보다 일반적으로 더 높은 품질을 제공합니다.
💻 GPU VRAM 요구 사항 및 모델 적합성
VRAM은 매우 중요합니다. 모델, 필수 보조 구성 요소(인코더, VAE), 소프트웨어 오버헤드 및 생성 프로세스를 모두 수용할 충분한 공간이 필요합니다.
GPU VRAM별 일반적인 GGUF 적합성 (HiDream Full GGUF 크기 기준)
1. 8GB VRAM
- Q2_K(6.56 GB)에 가장 적합하며, 일부 오프로딩을 통해 Q3_K_S(8.21 GB) 또는 Q3_K_M(8.77 GB)도 가능합니다.
2. 12GB VRAM (예: RTX 3060 12GB)
Q3 레벨은 VRAM 내에서 완전히 안정적으로 실행 가능합니다.
Q4 레벨(최대 Q4_K_M @ 11.5 GB)은 실행 가능하지만, 대형 Q4 모델은 일부 레이어를 CPU/RAM으로 오프로딩해야 할 수 있습니다.
Q5 레벨(최대 13.5 GB)은 가능하지만 더 많은 오프로딩이 필요합니다.
권장사항: Q4_K_M 또는 Q4_K_S로 시작하고, 오프로딩으로 인해 속도가 느려지면 Q3_K_M을 시도하세요.
3. 16GB VRAM
Q5 레벨(최대 13.5 GB)을 VRAM 내에서 완전히 실행 가능합니다.
Q6_K(14.7 GB)도 실행 가능하며, 최소한의 오프로딩이 필요할 수 있습니다.
4. 24GB VRAM (또는 그 이상)
Q6_K(14.7 GB)를 안정적으로 실행 가능하며, Q8_0 같은 더 높은 양자화도 가능합니다.
전체 FP16(34.2 GB)은 24GB에서도 상당한 오프로딩이 필요하며, VRAM을 완전히 활용하려면 48GB 이상 카드나 멀티-GPU 구성이 더 적합합니다.
🙏 크레딧
원본 FLUX.1-Fill-dev 모델을 개발한 Black Forest Labs에 특별한 감사를 드립니다.
GGUF 여정을 선도한 city96에게 큰 감사를 드립니다! 🙌
👨💻 개발자 정보
이 가이드는 Abdallah Al-Swaiti가 작성했습니다:
추가 도구 및 업데이트는 제 ComfyUI-OllamaGemini를 확인하세요.
✨ HiDream으로 당신의 창의적 비전을 한 단계 높이세요 ✨





