GGUF (Flux) workflow v2.0
详情
下载文件
关于此版本
模型描述
--- v2.0 拥有 3 个 LoRA 插槽、保存带元数据的图像、可选的上采样,且比快速分享更完善 ---
针对评论区询问的朋友,这是该模型(使用 Q8):
/model/647237?modelVersionId=724149
也可使用 F16,画质优于 Q8,但对电脑要求更高:
/model/662958/flux1-dev-gguf-f16
GGUF 模型直接下载地址:
https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main
😂 提供的提示是对谷歌搜索中“Lada”含义的恶搞 😂
如果 Q8 已接近你的显存极限,也可以使用 Q6_K,它体积更小,画质几乎相同!










