Z-Image Turbo - Quantized for low VRAM
详情
下载文件
关于此版本
模型描述
Z-Image Turbo 是 Z-Image 的精简版本,Z-Image 是由阿里巴巴通义实验室团队基于 Lumina 架构开发的 6B 图像模型。来源:https://huggingface.co/Tongyi-MAI/Z-Image-Turbo
我已上传从 bf16 到 fp8 的量化版本,这意味着权重的精度(进而其大小)被减半,从而在保持大部分质量的同时显著提升性能。推理时间应与常规“未精简”的 SDXL 相似,但提示遵循度和分辨率/细节更优,非常适合配置较弱的电脑。
特性
轻量级:Turbo 版本仅在低步数(5-15)下训练,fp8 量化版本大小约为 6 GB,即使在低端 GPU 上也可轻松运行。
无审查:许多其他模型(
Flux )所屏蔽的概念,此模型可直接生成。 良好的提示遵循度:与 Flux.1 Dev 相当,得益于其强大的文本编码器 Qwen 3 4B。
文本渲染:与 Flux.1 Dev 相当,有人认为甚至更好,尽管其体积仅为对方的一半(但可能仍不及 Qwen Image 的效果)。
风格灵活:可生成写实图像,以及动漫、绘画、像素艺术、低多边形、漫画、插画、波普艺术等。
高分辨率:原生可生成高达 2MP 分辨率(在放大前!)。
依赖项
将 Qwen 3 4B 下载到你的
text_encoders目录:https://huggingface.co/Comfy-Org/z_image_turbo/blob/main/split_files/text_encoders/qwen_3_4b.safetensors将 Flux VAE 下载到你的
vae目录:https://huggingface.co/Comfy-Org/z_image_turbo/blob/main/split_files/vae/ae.safetensors
使用说明
工作流和元数据请参见展示图。
步数:5 - 15。
CFG:1.0。此设置将忽略负面提示,因此无需使用。
采样器/调度器:取决于艺术风格。目前我的发现如下:
写实风格:
基础图像的最佳组合:
euler+beta、simple或bong_tangent(来自 RES4LYF)——即使在低步数(5)下也能快速且效果良好。多步采样器(如:
res_2s、res_2m、dpmpp_2m_sde等)效果极佳,但部分采样器在相同步数下可能慢 40%。它们可能需要类似sgm_uniform的调度器。几乎所有采样器均可正常工作:
sa_solver、seeds_2、er_sde、gradient_estimation。建议避免(至少在基础图像中)以下采样器/调度器,因其效果不佳或性能较差:
dpm_adaptive采样器karras调度器
某些采样器和调度器会增加过多纹理,可通过增加 shift 值调整(例如在 ComfyUI 的
ModelSamplingAuraFlow节点中设为 7)。
插画风格(如动漫):
res_2m或rk_beta可产生更锐利、色彩更鲜明的结果。
其他风格:
- 我仍在测试中。为稳妥起见,目前建议使用
euler+simple。
- 我仍在测试中。为稳妥起见,目前建议使用
分辨率:原生最高可达 2MP。不确定时,可使用与 SDXL、Flux.1、Qwen Image 等相同的尺寸(甚至低至 512px,如 SD 1.5 时也能工作)。示例:
896x1152
1024x1024
1216x832
1440x1440
1024x1536
放大 和/或 细节增强器 推荐用于修复眼睛、牙齿、头发等小细节。请参考主封面图中嵌入的工作流。
与其他模型不同,Z-Image 在使用类似
KSampler (Advanced)(在 ComfyUI 中)或任何允许设置起始步数的节点时效果最佳。使用
euler+simple时请将 shift 设为 7(某些采样器/调度器可能自带 shift,但无效),这可避免纹理和噪点过度夸张。
提示词:官方建议使用自然语言的长而详细的提示词,但我测试了逗号分隔关键词/标签、JSON 等格式,均表现良好。为获得更准确结果,建议使用英语或中文。
常见问题
该模型是否无审查?
- 是的,可能只是未针对你想要的具体概念进行充分训练。请自行尝试。
为什么放大后出现过多纹理?
- 请参阅上述关于放大的说明。
我的电脑能运行吗?
如果你能运行 SDXL,大概率也能运行 Z-Image Turbo fp8。如果不能,可能是时候升级内存或显存了。
我的所有图像均在一台配备 32GB 内存、RTX3080 移动版 8GB 显存的笔记本电脑上生成。
我在 ComfyUI 中遇到错误,如何解决?
- 请确保你的 ComfyUI 已更新至最新版本。否则,欢迎在评论中附上错误信息,社区将协助你解决。
许可证是否宽松?
- 采用 Apache 2.0 许可证,非常宽松。









