GGUF_K: HyperFlux 16-Steps K_M Quants
详情
下载文件
模型描述
警告:尽管这些 K 量化模型在 ComfyUI 中完美运行,但我尚未能让它们在 Forge UI 中正常工作。如情况有变,请告知我。原始的非 K 量化模型可在 此链接 找到,这些模型已验证可在 Forge UI 中正常运行。
[注意:解压下载文件以获取 GGUF 格式。Civitai 原生不支持 GGUF,因此采用此变通方法]
这些是适用于 HyperFlux 16 步的 K(_M) 量化模型。K 量化模型比非 K 量化模型更具精度和性能。HyperFlux 是将 Flux.D 与字节跳动的 16 步 HyperSD LoRA 融合后转换为 GGUF 格式的模型。因此,您将获得一个超节省内存且运行快速的 DEV 模型(对 CFG 敏感),仅需 16 步即可生成完全去噪的图像,同时仅消耗约 6.2 GB 显存(Q4_K_M 量化版本)。此外,其质量与原版需要约 30 步的 DEV 模型非常接近。
您可使用此 自定义节点 在 ComfyUI 中运行该模型。但我尚未能让这些模型在 Forge UI 中工作。有关下载 VAE、clip_l 和 t5xxl 模型的信息,请参见 https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050。
优势
质量与原版 DEV 模型相似,但仅需约 16 步即可完成。
总体上,质量与表现力优于 8 步的 HyperFlux。
使用相同种子时,输出图像与原版 DEV 模型非常相似,因此可用于快速预览,最终生成再使用 DEV 模型。
有时因偶然性,甚至可能获得比 DEV 模型更好的结果。
缺点:需要 16 步。
我该下载哪个模型?
[当前情况:使用更新版 Comfy UI(GGUF 节点),我可以在 11GB 显存的 1080ti 上运行 Q6_K。]
请选择符合您显存容量的模型。若模型能完全加载至 GPU,其推理开销非常小。模型大小排序为:Q2 < Q3 < Q4 < Q5 < Q6。除非您实在无法将模型装入内存,否则不建议使用 Q2 和 Q3。
所有与 Flux.1 Dev 相关的许可条款均适用。
附注: 感谢字节跳动提供 HyperSD Flux 8 步 LoRA,可在 https://huggingface.co/ByteDance/Hyper-SD/tree/main 获取。
