GGUF_K: HyperFlux 16-Steps K_M Quants

详情

下载文件

模型描述

警告:尽管这些 K 量化模型在 ComfyUI 中完美运行,但我尚未能让它们在 Forge UI 中正常工作。如情况有变,请告知我。原始的非 K 量化模型可在 此链接 找到,这些模型已验证可在 Forge UI 中正常运行。

[注意:解压下载文件以获取 GGUF 格式。Civitai 原生不支持 GGUF,因此采用此变通方法]

这些是适用于 HyperFlux 16 步的 K(_M) 量化模型。K 量化模型比非 K 量化模型更具精度和性能。HyperFlux 是将 Flux.D 与字节跳动的 16 步 HyperSD LoRA 融合后转换为 GGUF 格式的模型。因此,您将获得一个超节省内存且运行快速的 DEV 模型(对 CFG 敏感),仅需 16 步即可生成完全去噪的图像,同时仅消耗约 6.2 GB 显存(Q4_K_M 量化版本)。此外,其质量与原版需要约 30 步的 DEV 模型非常接近。

您可使用此 自定义节点 在 ComfyUI 中运行该模型。但我尚未能让这些模型在 Forge UI 中工作。有关下载 VAE、clip_l 和 t5xxl 模型的信息,请参见 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050

优势

  • 质量与原版 DEV 模型相似,但仅需约 16 步即可完成。

  • 总体上,质量与表现力优于 8 步的 HyperFlux。

  • 使用相同种子时,输出图像与原版 DEV 模型非常相似,因此可用于快速预览,最终生成再使用 DEV 模型。

  • 有时因偶然性,甚至可能获得比 DEV 模型更好的结果。

  • 缺点:需要 16 步。

我该下载哪个模型?

[当前情况:使用更新版 Comfy UI(GGUF 节点),我可以在 11GB 显存的 1080ti 上运行 Q6_K。]

请选择符合您显存容量的模型。若模型能完全加载至 GPU,其推理开销非常小。模型大小排序为:Q2 < Q3 < Q4 < Q5 < Q6。除非您实在无法将模型装入内存,否则不建议使用 Q2 和 Q3。

所有与 Flux.1 Dev 相关的许可条款均适用。

附注: 感谢字节跳动提供 HyperSD Flux 8 步 LoRA,可在 https://huggingface.co/ByteDance/Hyper-SD/tree/main 获取。

此模型生成的图像

未找到图像。