Super Simple GGUF (Quantized) Flux LoRA Workflow

详情

模型描述

如果您的显存不足以运行Flux,您需要使用量化版本。这是一个非常简单的流程,包含LoRA加载和放大。请注意,量化版本所需的强度值略高于普通版本。

此工作流基于ComfyUI中的GGUF模型加载器:
https://github.com/city96/ComfyUI-GGUF

更新:

添加了升级版的“Simple”版本。它需要安装两个自定义节点,与原版的不同之处在于:

  1. 添加了对多LoRA的支持,使用rgthree的LoRA堆叠器。这是我目前发现最适合低端显卡的方案。

  2. 添加了Civit-AI友好的文件保存器,并附带所需的支持节点。

  3. 对所有内容进行了更清晰的分组整理。

它仍然非常易于使用,并且现在是一个更复杂工作流的理想起点,因为即使您执行更复杂的操作,生成信息仍会被保存到Civit。

此模型生成的图像

未找到图像。