GGUF (Flux) workflow v2.0

详情

下载文件

模型描述

--- v2.0 拥有 3 个 LoRA 插槽、保存带元数据的图像、可选的上采样,且比快速分享更完善 ---

针对评论区询问的朋友,这是该模型(使用 Q8):
/model/647237?modelVersionId=724149

也可使用 F16,画质优于 Q8,但对电脑要求更高:
/model/662958/flux1-dev-gguf-f16

GGUF 模型直接下载地址:
https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main

😂 提供的提示是对谷歌搜索中“Lada”含义的恶搞 😂

如果 Q8 已接近你的显存极限,也可以使用 Q6_K,它体积更小,画质几乎相同!

此模型生成的图像

未找到图像。