Flux.1-Heavy-17B(GGUF)

详情

下载文件

模型描述

Flux.1-Heavy-17B GGUF 量化版本

🚀 主要资源优化

Training

原始需求:

  • 40GB 显存

  • 80GB 系统内存

现可通过以下配置运行:

  • 最低仅需 8GB 显存

  • 32GB 系统内存

描述

这些是针对原始 Flux.1-Heavy-17B 模型(由 city96 开发)的内存优化 GGUF 量化版本,使其能够在显存要求更低的设备上运行。原始模型是将 12B 参数的 Flux.1-dev 模型进行自融合而成的 17B 参数模型,是首批能够生成连贯图像的开源 17B 图像模型之一。

可用版本

Q6_K 版本

  • 显存需求:16GB

  • 质量与性能的最佳平衡

  • 推荐用于配备 RTX 3080/3090 或类似显卡的用户

Q5_K_M 版本

  • 显存需求:12GB

  • 质量良好,内存占用更低

  • 适合 RTX 3060 Ti/3070/2080 Ti 用户

Q3_K_L 版本

  • 显存需求:8GB

  • 最节省内存的版本

  • 可在中端显卡(如 RTX 3060/2060 Super)上运行

主要特性

  • 保留了原始 Flux.1-Heavy-17B 模型的核心能力

  • 针对不同显存配置进行了优化

  • 在无需高端显卡的情况下实现更广泛的硬件兼容性

  • 在指定显存水平下运行流畅

  • 与原始模型相比,资源需求大幅降低

安装步骤

  1. 下载您选择的量化版本

  2. 将 GGUF 文件放入您的模型目录

  3. 更新配置文件,指向新的模型文件

致谢

  • 原始模型:city96(Flux.1-Heavy-17B)

  • 基础架构:Flux.1-dev(12B 参数模型)

注意事项

  • 性能可能因您的具体硬件配置而异

  • 请根据可用显存和质量需求选择合适的量化等级

  • 较低的量化等级可能在图像质量上略有下降,与原始模型相比

此模型生成的图像

未找到图像。