GGUF_K: HyperFlux 8-Steps K_M Quants
详情
下载文件
模型描述
警告:尽管这些K量化版本在ComfyUI中完美运行,但我尚未能使其在Forge UI中正常工作。如情况有变,请告知我。原始的非K量化版本可在此处找到 HERE ,这些版本已验证可在Forge UI中正常运行。
[注意:请解压下载文件以获取GGUF格式。CivitAI原生不支持此格式,因此采用此变通方法]
这些是适用于HyperFlux 8步的K(_M)量化版本。K量化版本比非K量化版本具有更高的精度和性能。HyperFlux是将Flux.D与字节跳动的8步HyperSD LoRA合并后转换为GGUF格式的成果。因此,您将获得一个超内存高效且快速的DEV模型(对CFG敏感),仅用8步即可生成完全去噪的图像,同时仅消耗约6.2GB显存(以Q4_0量化为例)。
您可以在ComfyUI中使用此自定义节点运行该模型。但我尚未能使其在Forge UI中工作。有关下载VAE、clip_l和t5xxl模型的信息,请参阅:https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1050
与FastFlux及其他Dev-Schnell合并模型相比的优势
质量显著更好:与FastFlux等Schnell模型相比,8步下可获得更优的质量和表现力。
CFG/引导敏感性:由于这是DEV模型,与混合模型不同,您可获得完整的(蒸馏后的)CFG敏感性——即您可以控制提示敏感度与创造力、柔和度与饱和度之间的平衡。
完全兼容Dev LoRAs,兼容性优于Schnell模型。
唯一缺点:为获得最佳质量,需使用8步推理。但即便如此,使用Schnell模型时,您大概也会尝试至少8步以获得最佳效果。
我应该下载哪个模型?
[当前情况:使用更新后的ComfyUI(GGUF节点),我可以在11GB显存的1080ti上运行Q6_K版本。]
请选择符合您显存容量的版本。若模型能完全载入GPU,其额外推理开销极小。尺寸排序为:Q2 < Q3 < Q4 < Q5 < Q6。除非您确实无法将模型装入内存,否则不建议使用Q2和Q3。
所有与Flux.1 Dev相关的许可条款均适用。
PS:感谢字节跳动提供HyperSD Flux 8步LoRA,可在以下地址获取:https://huggingface.co/ByteDance/Hyper-SD/tree/main
