Z-ImageTurbo ❌ VISIONARY bf16/fp16/fp8
详情
下载文件
模型描述
发布 – 版本 0.2(不确定你的显卡该用哪个模型?请参见下方经验法则。)
更新内容?
由于本模型旨在发展为半写实风格,我进一步朝这个方向推进,并增加了更多细节。我还特意切换到新的展示采样器,因为此版本中不同的随机种子效果更好。部分示例图片也已更新。
(非常欢迎反馈!)
节点提示:
由于这是检查点/LoRA 合并模型(我仅使用自己训练的 LoRA),若你额外使用高训练轮次(epoch)的 LoRA,可能会出现问题。建议从 0.3 左右的 LoRA 强度开始,再逐步增加。
高级技巧:
在 ModelSamplingAuraFlow 节点中,可将数值调整在 3.00 至 3.10 之间。若生成图像出现奇怪的手部或重复视觉错误,此调整可能有所帮助。
• bf16 扩散模型(fp8/fp16 即将推出,如急需请私信我 ^^)
• 不包含 CLIP 和 VAE(如需帮助请询问)
• 推荐设置:CFG 1,8 步(最多 15 步)
• 采样器:Euler A,调度器:Simple 或 Beta(强烈推荐 Beta)
• 示例图像未进行超分辨率放大,也未使用高分辨率修复(Hi-Res Fix)
原始 ComfyUI 模型:链接(此处可找到 CLIP 和 VAE)
首次发布 – 版本 0.1
这是我的首个 Z-ImageTurbo(即检查点与 LoRA 合并)发布版,因此仍属早期版本(V0.1)。
• bf16/fp8/fp16 扩散模型
• 不包含 CLIP 和 VAE(如需帮助请询问)
• 推荐设置:CFG 1,8 步(最多 15 步)
• 采样器:Euler A,调度器:Simple 或 Beta(强烈推荐 Beta)
• 示例图像未进行超分辨率放大,也未使用高分辨率修复(Hi-Res Fix)
原始 ComfyUI 模型:链接(此处可找到 CLIP 和 VAE)
我仍在持续学习与改进,未来将推出更多更新。非常欢迎反馈!
经验法则
NVIDIA Turing(RTX 20 系列)
→ ❌ 无真正的 bf16 支持,fp16 是实用选择
→ 画质:通常尚可,但比新格式稍脆弱NVIDIA Ampere(RTX 30 系列)
→ ✅ bf16 表现良好(若出问题?尝试更新 PyTorch/CUDA 或改用 fp16)
→ 画质:通常非常接近 fp32,几乎无明显损失NVIDIA Ada Lovelace(RTX 40 系列)
→ ✅ bf16 稳定,fp8 可通过软件部分支持
→ 画质:bf16 ≈ fp32;fp8 可能因负载不同出现明显画质下降NVIDIA Blackwell(RTX 50 系列,例如 5090)
→ ✅ bf16 非常稳定,fp8 支持更好但非魔法
→ 画质:fp8 可用,但多数情况下仍存在一定画质损失……不严重,但真实存在fp32:仍待 Z-Image 发布
注意:你几乎可在任何显卡上加载 fp8,以在加载时节省显存,但若硬件不支持原生 fp8,计算时会自动转为 fp16 或 fp32。由于原始数据已量化为 fp8,这种转换可能引入画质损失,且无真正的 fp8 计算加速,仅带来内存和数据传输的收益。




















