LLM prompt helper (with FLUX.1 Kontext support)

详情

模型描述

从 2.0 版本开始,工作流支持 txt2img、img2img 和 Inpaint 功能,并使用内置的 LLM 节点

https://github.com/AlexYez/comfyui-timesaver

代替外部的 Ollama 程序。TS_Qwen3_Node 节点可描述图像、翻译提示词并增强提示词。

如果您的操作系统是 Windows,且无法安装 Qwen3_Node 依赖项(未安装编译器),请尝试从

https://github.com/boneylizard/llama-cpp-python-cu128-gemma3/releases

下载 .whl 文件,然后关闭 ComfyUI,打开 python_embeded 文件夹,在地址栏输入 cmd,并执行以下命令:

.\python.exe -I -m pip install "下载的.whl文件路径"

安装完成后,您可以正常运行 ComfyUI 并按常规方式安装缺失的自定义节点。

编辑:如果 .whl 安装失败,请检查您的 Python 版本,确保 .whl 文件是为该版本构建的。如果仍失败,请尝试将 .whl 文件作为压缩包打开,并将所有文件夹直接解压到 python_embeded\Lib\site-packages 文件夹中。

=== 旧版本 ===============================

此工作流将由 Ollama 管理的 LLM 文本模型与 Flux 图像生成能力相结合。它接受图像或文本作为输入,根据指令改进或更改提示词。

注意:要刷新 LLM 模型列表,您需要按 F5 键重新加载浏览器窗口。

自 1.8 版起,“生成图像”组中有一个蓝色开关,用于启用或禁用上下文支持。

自 1.3 版起,您需要手动切换模块的开关,并在模块之间复制提示词文本。

信息:

首先,您需要从

https://ollama.com/

下载并安装 Ollama。

在当前工作流中,我们使用两个 LLM 模型:

Img2Img 使用 llava 进行图像标记,使用 Mistral 进行处理。

综合版 1.3 使用 llavaphi4

Txt2Img 1.2 仅使用 phi4

Txt2Img 1.1 仅使用 Mistral

在运行 Comfy 之前,您需要下载模型:

打开 Ollama 文件夹中的命令提示符(包含 ollama.exe),输入:

ollama pull llava:7b(如果您有 8-12GB 显存)

ollama pull llava:13b(适用于 16GB 以上显存)

等待模型下载完成后,针对 Img2Img 和 Txt2Img v.1.1,输入:

ollama pull mistral-small

针对 Txt2Img v.1.2 和综合版 1.3,输入:

ollama pull phi4

下载完成后,启动 ollama app.exe,等待系统托盘图标出现,然后启动 ComfyUI 并安装缺失的自定义节点。

若未设置,请在 Ollama Vision 节点中选择 llava,在 Translate 和 Ollama Generate Advance 节点中选择 mistral

如果您计划用其他语言给出 IMG2IMG 指令,请启用并使用 Translate 节点。

TXT2IMG 可接受任何语言的提示词。

====================

对于 Redux IP Tools 版本,您需要下载两个模型:

Clip Vision -> models\clip_vision

Style model -> models\style_models

此模型生成的图像

未找到图像。