GGUF: FastFlux (Flux.1-Schnell Merged with Flux.1-Dev)

详情

下载文件

模型描述

[注意:解压下载文件以获取 GGUF。Civitai 原生不支持,因此采用此变通方法]

Flux1.D 已合并至 Flux1.S。仅需 4 步即可生成高质量图像(优于 Schnell),步骤越多质量越高,且仅消耗极低的显存。 Q_4_0 在我的 11GB 1080ti 上可在 45 秒内生成 1024x1024 图像,显存占用约 6.5GB。

可在 ComfyUI 中通过此自定义节点 或 Forge UI 使用。有关 Forge UI 对 GGUF 的支持详情,以及 VAE、clip_l 和 t5xxl 模型的下载地址,请参阅:https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050

我该下载哪个模型?

[当前情况:使用更新后的 Forge UI 和 Comfy UI(GGUF 节点),我可以在我的 11GB 1080ti 上运行 Q8_0。]

选择适合你显存的版本。若模型能完全加载到 GPU,额外的推理开销极小。尺寸顺序为:Q4_0 < Q4_1 < Q5_0 < Q5_1 < Q8_0。

  • Q4_0 和 Q4_1 可在 8GB 显存中运行
  • Q5_0 和 Q5_1 可在 11GB 显存中运行
  • Q8_0:若你有更多显存!

注意:启用 CPU 卸载后,即使模型超出你的显存容量,也可运行。

LoRA 使用技巧

该模型与 LoRA 表现良好(已在 ComfyUI 中测试)。但你可能需要略微增加步数(8–10 步)。

更新日志

V2: 我最初(v1)基于 fp8 检查点创建。由于双重量化,积累了更多误差,导致 v1 无法生成清晰图像。v2 版本我手动合并了 bf16 Dev 和 Schnell 的检查点,再生成 GGUF。此版本能生成更多细节,结果更锐利。

所有与 Flux.1 Dev 和 Flux.1 Schnell 相关的许可条款均适用。

PS: 感谢 jicecomfy.org 提供的合并方法。我使用了经过轻微修改的 https://github.com/city96/ComfyUI-GGUF/blob/main/tools/convert.py 来创建此模型。

此模型生成的图像

未找到图像。