LLM prompt helper (with FLUX.1 Kontext support)
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
버전 2.0부터 워크플로우는 txt2img, img2img, Inpaint 기능을 지원하며 내장된 LLM 노드를 사용합니다.
https://github.com/AlexYez/comfyui-timesaver
외부 Ollama 프로그램 대신 TS_Qwen3_Node 노드는 이미지를 설명하고 프롬프트를 번역하며 프롬프트를 향상시킬 수 있습니다.
귀하의 운영 체제가 Windows이고 Qwen3_Node 종속성을 설치할 수 없는 경우(컴파일러가 설치되지 않은 경우), 다음 링크에서 .whl 파일을 다운로드해 보세요:
https://github.com/boneylizard/llama-cpp-python-cu128-gemma3/releases
그 후 ComfyUI를 종료하고 python_embeded 폴더를 열고 주소 표시줄에 cmd를 입력한 후 다음 명령을 실행하세요.
.\python.exe -I -m pip install "다운로드한 .whl 파일 경로"
설치 후 ComfyUI를 실행하고 일반적인 방법으로 누락된 커스텀 노드를 설치할 수 있습니다.
편집: .whl 설치가 실패하면 Python 버전을 확인하고 .whl 파일이 해당 버전용으로 빌드되었는지 확인하세요. 여전히 실패한다면 .whl 파일을 아카이브로 열고 아카이브 내 모든 폴더를 python_embeded\Lib\site-packages 폴더로 직접 추출해 보세요.
=== 이전 버전 ===============================
이 워크플로우는 Ollama로 관리되는 LLM 텍스트 모델과 Flux 이미지 생성 기능을 결합합니다. 이미지 또는 텍스트를 입력으로 받아 지시에 따라 프롬프트를 개선하거나 변경합니다.
참고: LLM 모델 목록을 새로 고치려면 F5 키를 눌러 브라우저 창을 다시 로드해야 합니다.
1.8부터 생성 이미지 그룹에 맥락 지원을 활성화/비활성화하는 파란 스위치가 추가되었습니다.
1.3부터 블록을 수동으로 켜고 끄며 블록 간에 프롬프트 텍스트를 복사해야 합니다.
정보:
우선 Ollama를 다음 링크에서 다운로드하고 설치해야 합니다:
현재 워크플로우에서는 2개의 LLM 모델을 사용합니다:
Img2Img는 이미지 태그링에 llava, 조작에 Mistral을 사용합니다.
Combined 1.3는 llava와 phi4를 사용합니다.
Txt2Img 1.2는 단지 phi4만 사용합니다.
Txt2Img 1.1은 단지 Mistral만 사용합니다.
Comfy를 실행하기 전에 모델을 다운로드해야 합니다:
Ollama 폴더(ollama.exe가 있는 곳)에서 명령 프롬프트를 열고 다음을 입력하세요:
ollama pull llava:7b (VRAM이 8-12GB인 경우)
또는
ollama pull llava:13b (VRAM이 16GB 이상인 경우)
모델 다운로드가 완료되면, Img2Img 및 Txt2Img v.1.1의 경우 다음을 입력하세요:
ollama pull mistral-small
Txt2Img v.1.2 및 Combined 1.3의 경우 다음을 입력하세요:
ollama pull phi4
다운로드가 완료되면 ollama app.exe를 시작하고 트레이 아이콘을 기다린 후 Comfy를 시작하고 누락된 커스텀 노드를 설치하세요.
설정되지 않은 경우, Ollama Vision 노드에서 llava를, Translate 및 Ollama Generate Advance 노드에서 mistral을 선택하세요.
이미지 생성 시 다른 언어로 지시를 주려면 Translate 노드를 활성화하고 사용하세요.
TXT2IMG는 어떤 언어의 프롬프트도 받을 수 있습니다.
====================
Redux IP Tools 버전을 사용하려면 다음 두 모델을 다운로드해야 합니다:
Clip Vision -> models\clip_vision
Style 모델 -> models\style_models



