HiDream Full GGUF-Q5_K_M UNCENSORED🔞
详情
下载文件
关于此版本
模型描述
这是HiDream完整模型最优化(在质量/速度|VRAM方面)的量化版本,搭载了完全“切除”=无审查的文本编码器(Meta Llama 3.1)
此文件集合包含两个关键组件,使HiDream**远超常规且无审查**:
巧妙技巧:使用 converted-flan-t5-xxl-Q5_K_M.gguf 替代 t5-v1_1-xxl-encoder-Q5_K_M.gguf,以获得更优的文本到向量转换/编码效果;
核心秘密组件:meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf —— 替代 Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf → 有关LLM“切除”/无审查过程的详情,请参阅:https://huggingface.co/blog/mlabonne/abliteration(可从他在HuggingFace上的仓库获取其他无审查LLM模型...)
因此,只需:
解压归档文件!
将 hidream-i1-full-Q5_K_M.gguf 文件放入 ComfyUI\models\unet 文件夹;
将 converted-flan-t5-xxl-Q5_K_M.gguf、meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf、clip_g_hidream.safetensors、clip_l_hidream.safetensors 放入 ComfyUI\models\text_encoders 文件夹;
将 HiDream.vae.safetensors 放入 ComfyUI\models\vae 文件夹;
使用我提供的“无审查”HiDream-Full Workflow.json 作为起始工作流,测试其效果;
如遇VRAM不足问题,使用我优化的VRAM启动脚本:run_nvidia_gpu_fp8vae.bat 启动ComfyUI(直接放入ComfyUI文件夹即可);
如此操作,您即可在仅12GB VRAM的设备上获得高质量的HiDream-Full图像生成效果(已测试!)
更新1:您还可以在文本编码器部分使用其他无审查的Meta Llama 3.1版本,例如此图像:https://civitai.com/images/71818416 使用的是 DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF
更新2:尝试此CLIP-G模型 → /model/1564749?modelVersionId=1773479




















