Super Simple GGUF (Quantized) Flux LoRA Workflow
详情
下载文件
模型描述
如果您的显存不足以运行Flux,您需要使用量化版本。这是一个非常简单的流程,包含LoRA加载和放大。请注意,量化版本所需的强度值略高于普通版本。
此工作流基于ComfyUI中的GGUF模型加载器:
https://github.com/city96/ComfyUI-GGUF。
更新:
添加了升级版的“Simple”版本。它需要安装两个自定义节点,与原版的不同之处在于:
添加了对多LoRA的支持,使用rgthree的LoRA堆叠器。这是我目前发现最适合低端显卡的方案。
添加了Civit-AI友好的文件保存器,并附带所需的支持节点。
对所有内容进行了更清晰的分组整理。
它仍然非常易于使用,并且现在是一个更复杂工作流的理想起点,因为即使您执行更复杂的操作,生成信息仍会被保存到Civit。

