(flux1 bnb nf4) SimpleworkFlow
详情
下载文件
模型描述
由于使用了原生的 bnb.matmul_4bit,NF4 比 FP8 快得多且内存效率更高,避免了类型转换并利用了低比特 CUDA 技术。NF4 通过将权重存储在多个不同精度的张量中,实现了更好的数值精度和动态范围,而 FP8 则采用单张量方法。
所有(NF4)模型列表(暂不支持 LoRA):
https://huggingface.co/silveroxides/flux1-nf4-weights/tree/main
你只需:
前往 ComfyUI/custom_nodes/
然后(对于完整检查点):
https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
或仅用于 UNet:
git clone https://github.com/DenkingOfficial/ComfyUI_UNet_bitsandbytes_NF4.git
然后在 ComfyUI 中运行此工作流:
"更高级" 工作流 "只需禁用检查点并启用 NF4 检查点加载器"
对于 Flux 分辨率:
在自定义节点中,或取消它


