GGUF: HyperFlux 8-Steps (Flux.1 Dev + ByteDance HyperSD LoRA)

详情

下载文件

模型描述

[注意:解压下载文件以获取 GGUF。Civitai 原生不支持,因此采用此变通方法]

将 Flux.D 与字节跳动的 8 步 HyperSD LoRA 合并,并转换为 GGUF 格式。结果得到一个超内存高效且快速的 DEV 模型(对 CFG 敏感),仅需 8 步即可生成完全去噪的图像,同时仅消耗约 6.2 GB 显存(Q4_0 量化版本)。

可在 ComfyUI 中使用此 自定义节点 或 Forge UI 运行。有关 Forge UI 对 GGUF 的支持详情,以及如何下载 VAE、clip_l 和 t5xxl 模型,请参阅:https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050

FastFlux 及其他 Dev-Schnell 合并模型相比的优势

  • 质量显著提升:与 FastFlux 等 Schnell 模型相比,8 步生成的图像质量与表现力更优。

  • CFG/引导敏感性:由于这是 DEV 模型,与混合模型不同,您可获得完整的(蒸馏后)CFG 敏感性——即可控制提示敏感度与创造性、柔和度与饱和度之间的平衡。

  • 完全兼容 Dev LoRA,兼容性优于 Schnell 模型。

  • 唯一缺点:为获得最佳质量需使用 8 步。但即便使用 Schnell 模型,您大概也会尝试至少 8 步以获得最佳效果。

我该下载哪个模型?

[当前情况:使用更新后的 Forge UI 和 Comfy UI(GGUF 节点),我能在 11GB 显存的 1080Ti 上运行 Q8_0。]

请选择适合您显存容量的版本。若模型能完全加载到 GPU 中,额外的推理开销极小。大小顺序为:Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0。

  • Q4_0 和 Q4_1:适合 8GB 显存
  • Q5_0 和 Q5_1:适合 11GB 显存
  • Q8_0:若您有更多显存!

注意:使用 CPU 卸载功能,即使模型超出您的显存容量,也能运行。

所有与 Flux.1 Dev 相关的许可条款均适用。

PS:感谢字节跳动提供 HyperSD Flux 8 步 LoRA,可在此获取:https://huggingface.co/ByteDance/Hyper-SD/tree/main

此模型生成的图像

未找到图像。