LLM prompt helper (with FLUX.1 Kontext support)
详情
下载文件
模型描述
从 2.0 版本开始,工作流支持 txt2img、img2img 和 Inpaint 功能,并使用内置的 LLM 节点
https://github.com/AlexYez/comfyui-timesaver
代替外部的 Ollama 程序。TS_Qwen3_Node 节点可描述图像、翻译提示词并增强提示词。
如果您的操作系统是 Windows,且无法安装 Qwen3_Node 依赖项(未安装编译器),请尝试从
https://github.com/boneylizard/llama-cpp-python-cu128-gemma3/releases
下载 .whl 文件,然后关闭 ComfyUI,打开 python_embeded 文件夹,在地址栏输入 cmd,并执行以下命令:
.\python.exe -I -m pip install "下载的.whl文件路径"
安装完成后,您可以正常运行 ComfyUI 并按常规方式安装缺失的自定义节点。
编辑:如果 .whl 安装失败,请检查您的 Python 版本,确保 .whl 文件是为该版本构建的。如果仍失败,请尝试将 .whl 文件作为压缩包打开,并将所有文件夹直接解压到 python_embeded\Lib\site-packages 文件夹中。
=== 旧版本 ===============================
此工作流将由 Ollama 管理的 LLM 文本模型与 Flux 图像生成能力相结合。它接受图像或文本作为输入,根据指令改进或更改提示词。
注意:要刷新 LLM 模型列表,您需要按 F5 键重新加载浏览器窗口。
自 1.8 版起,“生成图像”组中有一个蓝色开关,用于启用或禁用上下文支持。
自 1.3 版起,您需要手动切换模块的开关,并在模块之间复制提示词文本。
信息:
首先,您需要从
下载并安装 Ollama。
在当前工作流中,我们使用两个 LLM 模型:
Img2Img 使用 llava 进行图像标记,使用 Mistral 进行处理。
综合版 1.3 使用 llava 和 phi4
Txt2Img 1.2 仅使用 phi4
Txt2Img 1.1 仅使用 Mistral
在运行 Comfy 之前,您需要下载模型:
打开 Ollama 文件夹中的命令提示符(包含 ollama.exe),输入:
ollama pull llava:7b(如果您有 8-12GB 显存)
或
ollama pull llava:13b(适用于 16GB 以上显存)
等待模型下载完成后,针对 Img2Img 和 Txt2Img v.1.1,输入:
ollama pull mistral-small
针对 Txt2Img v.1.2 和综合版 1.3,输入:
ollama pull phi4
下载完成后,启动 ollama app.exe,等待系统托盘图标出现,然后启动 ComfyUI 并安装缺失的自定义节点。
若未设置,请在 Ollama Vision 节点中选择 llava,在 Translate 和 Ollama Generate Advance 节点中选择 mistral。
如果您计划用其他语言给出 IMG2IMG 指令,请启用并使用 Translate 节点。
TXT2IMG 可接受任何语言的提示词。
====================
对于 Redux IP Tools 版本,您需要下载两个模型:
Clip Vision -> models\clip_vision
Style model -> models\style_models


