(flux1 bnb nf4) SimpleworkFlow

详情

下载文件

模型描述

由于使用了原生的 bnb.matmul_4bit,NF4 比 FP8 快得多且内存效率更高,避免了类型转换并利用了低比特 CUDA 技术。NF4 通过将权重存储在多个不同精度的张量中,实现了更好的数值精度和动态范围,而 FP8 则采用单张量方法。

所有(NF4)模型列表(暂不支持 LoRA):

https://huggingface.co/silveroxides/flux1-nf4-weights/tree/main

你只需:

前往 ComfyUI/custom_nodes/

然后(对于完整检查点):

https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4

  • git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4

或仅用于 UNet:

  • git clone https://github.com/DenkingOfficial/ComfyUI_UNet_bitsandbytes_NF4.git

然后在 ComfyUI 中运行此工作流:

"更高级" 工作流 "只需禁用检查点并启用 NF4 检查点加载器"

对于 Flux 分辨率:

在自定义节点中,或取消它

https://github.com/al-swaiti/ComfyUI-OllamaGemini

此模型生成的图像

未找到图像。