Flux.1-Heavy-17B(GGUF)
详情
下载文件
模型描述
Flux.1-Heavy-17B GGUF 量化版本
🚀 主要资源优化

原始需求:
40GB 显存
80GB 系统内存
现可通过以下配置运行:
最低仅需 8GB 显存
32GB 系统内存
描述
这些是针对原始 Flux.1-Heavy-17B 模型(由 city96 开发)的内存优化 GGUF 量化版本,使其能够在显存要求更低的设备上运行。原始模型是将 12B 参数的 Flux.1-dev 模型进行自融合而成的 17B 参数模型,是首批能够生成连贯图像的开源 17B 图像模型之一。
可用版本
Q6_K 版本
显存需求:16GB
质量与性能的最佳平衡
推荐用于配备 RTX 3080/3090 或类似显卡的用户
Q5_K_M 版本
显存需求:12GB
质量良好,内存占用更低
适合 RTX 3060 Ti/3070/2080 Ti 用户
Q3_K_L 版本
显存需求:8GB
最节省内存的版本
可在中端显卡(如 RTX 3060/2060 Super)上运行
主要特性
保留了原始 Flux.1-Heavy-17B 模型的核心能力
针对不同显存配置进行了优化
在无需高端显卡的情况下实现更广泛的硬件兼容性
在指定显存水平下运行流畅
与原始模型相比,资源需求大幅降低
安装步骤
下载您选择的量化版本
将 GGUF 文件放入您的模型目录
更新配置文件,指向新的模型文件
致谢
原始模型:city96(Flux.1-Heavy-17B)
基础架构:Flux.1-dev(12B 参数模型)
注意事项
性能可能因您的具体硬件配置而异
请根据可用显存和质量需求选择合适的量化等级
较低的量化等级可能在图像质量上略有下降,与原始模型相比





