HiDream Full GGUF-Q5_K_M UNCENSORED🔞

详情

下载文件

模型描述

这是HiDream完整模型最优化(在质量/速度|VRAM方面)的量化版本,搭载了完全“切除”=无审查的文本编码器(Meta Llama 3.1)

此文件集合包含两个关键组件,使HiDream**远超常规无审查**:

  • 巧妙技巧:使用 converted-flan-t5-xxl-Q5_K_M.gguf 替代 t5-v1_1-xxl-encoder-Q5_K_M.gguf,以获得更优的文本到向量转换/编码效果;

  • 核心秘密组件:meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf —— 替代 Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf → 有关LLM“切除”/无审查过程的详情,请参阅:https://huggingface.co/blog/mlabonne/abliteration(可从他在HuggingFace上的仓库获取其他无审查LLM模型...)

因此,只需:

  1. 解压归档文件!

  2. 将 hidream-i1-full-Q5_K_M.gguf 文件放入 ComfyUI\models\unet 文件夹;

  3. 将 converted-flan-t5-xxl-Q5_K_M.gguf、meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf、clip_g_hidream.safetensors、clip_l_hidream.safetensors 放入 ComfyUI\models\text_encoders 文件夹;

  4. 将 HiDream.vae.safetensors 放入 ComfyUI\models\vae 文件夹;

  5. 使用我提供的“无审查”HiDream-Full Workflow.json 作为起始工作流,测试其效果;

  6. 如遇VRAM不足问题,使用我优化的VRAM启动脚本:run_nvidia_gpu_fp8vae.bat 启动ComfyUI(直接放入ComfyUI文件夹即可);

如此操作,您即可在仅12GB VRAM的设备上获得高质量的HiDream-Full图像生成效果(已测试!)

更新1:您还可以在文本编码器部分使用其他无审查的Meta Llama 3.1版本,例如此图像:https://civitai.com/images/71818416 使用的是 DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF
更新2:尝试此CLIP-G模型 → /model/1564749?modelVersionId=1773479

此模型生成的图像

未找到图像。