Flux1 kontext (nunchaku+Multi_input+Lora、gguf) 70% time savings,Improved accuracy
详情
下载文件
模型描述
Nunchaku Multi_input+Lora
现在包含两个独立的工作流:
------Kontext_gguf&safetensors__Multi_input&Lora.json
------Kontext_nunchaku_Multi_input&Lora.json
是否有人安装了 mit-han-lab/ComfyUI-nunchaku 但无法正常运行?来看这里!
这次我花了大量时间来搭建这个工作流。如果你曾使用官方节点,但不知道如何使用多图片输入、如何自定义生成分辨率、或如何切换到 nunchaku-textencoder 模型……那么这个精简版工作流正是为你准备的!
使用 nunchaku 的 int4 模型进行图像生成的时间,现在比我以前快了近四倍,而画质损失极小。老实说,我都不想再用 gguf 了。
Nunchaku Checkpoint:
https://huggingface.co/mit-han-lab/nunchaku-flux.1-kontext-dev/tree/main
aqw-int4-flux.1-t5xxl(可选):
https://huggingface.co/mit-han-lab/nunchaku-t5/tree/main
Nunchaku ComfyUI 节点:
https://github.com/mit-han-lab/ComfyUI-nunchaku
ComfyUI-nunchaku 安装指南(Windows):
- 在
ComfyUI_windows_portable目录的地址栏中输入cmd并按回车,然后输入以下命令以检查你的 torch 和 Python 版本:
"python_embeded\python.exe""python_embeded\python.exe -m pip list"
例如,我的系统显示 Python 3.12 和 torch 2.5.1+cu124。
你可以通过 ComfyUI-Manager 安装 nunchaku 节点(ComfyUI-nunchaku v0.3.3),也可以手动操作:在
ComfyUI_windows_portable\ComfyUI\custom_nodes目录的地址栏中输入cmd,然后运行git clone https://github.com/mit-han-lab/ComfyUI-nunchaku.git。从
https://github.com/mit-han-lab/nunchaku/releases下载与你系统版本匹配的 nunchaku whl 文件。我已在第 1 步确认了版本信息,因此我会下载nunchaku-0.3.1+torch2.5-cp312-cp312-win_amd64.whl。下载后,将该 whl 文件放入ComfyUI_windows_portable目录,然后使用"python_embeded\python.exe -m pip install nunchaku-0.3.1+torch2.5-cp312-cp312-win_amd64.whl"进行安装。安装完成后,别忘了将 ComfyUI 更新至最新版本并重启。同时,请将下载的 nunchaku 模型放入
diffusion_models文件夹。对于 NVIDIA 40 系列及以下显卡,请选择int4;对于 50 系列显卡,可选择FP4。我的测试发现,基于 Python 3.11 的 ComfyUI 无法正常运行,但我尚不能完全确定这一点。
gguf+Lora
是否遇到这些问题:“工作流太复杂了?”、“硬件要求太高?”、“模型从哪下载?”、“输出结果完全忽略我的输入图像?”
这个工作流实际上就是为新手设计的。你真的只需要这一个工作流文件就够了。老实说,我几乎没做什么改动——只是取了官方的 ComfyUI 工作流,稍作调整,增加了对 gguf 和 Lora 的支持。
使用方法:
1. 将工作流或示例图像拖入 ComfyUI,并安装任何缺失的节点。
2. 下载模型,放入 diffusion_models 文件夹,然后更新并重启 ComfyUI。
Checkpoint:
https://huggingface.co/bullerwins/FLUX.1-Kontext-dev-GGUF/tree/main
指南:
https://docs.bfl.ai/guides/prompting_guide_kontext_i2i
https://docs.comfy.org/tutorials/flux/flux-1-kontext-dev
https://comfyui-wiki.com/en/tutorial/advanced/image/flux/flux-1-kontext
目前 Flux1 Kontext 能做到的功能非常多,我甚至无法一一列举,但主要如下:
1. 更改图像风格 / 风格迁移。
2. 在图像中添加或移除物体。
3. 让角色执行不同动作(如转身)或改变表情,同时保持外貌一致。
4. 合并多个角色与场景。
5. 虚拟试衣功能。(我的测试中尚未成功。虽然能运行,但结果我不太满意。~好消息是它是开源且免费的)
如果你在卖衣服,不妨用这个功能做模特试穿:如果你不指定特定模特,只需提供衣服图片,让 Kontext 自动为你生成模特图像——这样反而能得到更好的效果!




















