LLM prompt helper (with FLUX.1 Kontext support)

세부 정보

모델 설명

버전 2.0부터 워크플로우는 txt2img, img2img, Inpaint 기능을 지원하며 내장된 LLM 노드를 사용합니다.

https://github.com/AlexYez/comfyui-timesaver

외부 Ollama 프로그램 대신 TS_Qwen3_Node 노드는 이미지를 설명하고 프롬프트를 번역하며 프롬프트를 향상시킬 수 있습니다.

귀하의 운영 체제가 Windows이고 Qwen3_Node 종속성을 설치할 수 없는 경우(컴파일러가 설치되지 않은 경우), 다음 링크에서 .whl 파일을 다운로드해 보세요:

https://github.com/boneylizard/llama-cpp-python-cu128-gemma3/releases

그 후 ComfyUI를 종료하고 python_embeded 폴더를 열고 주소 표시줄에 cmd를 입력한 후 다음 명령을 실행하세요.

.\python.exe -I -m pip install "다운로드한 .whl 파일 경로"

설치 후 ComfyUI를 실행하고 일반적인 방법으로 누락된 커스텀 노드를 설치할 수 있습니다.

편집: .whl 설치가 실패하면 Python 버전을 확인하고 .whl 파일이 해당 버전용으로 빌드되었는지 확인하세요. 여전히 실패한다면 .whl 파일을 아카이브로 열고 아카이브 내 모든 폴더를 python_embeded\Lib\site-packages 폴더로 직접 추출해 보세요.

=== 이전 버전 ===============================

이 워크플로우는 Ollama로 관리되는 LLM 텍스트 모델과 Flux 이미지 생성 기능을 결합합니다. 이미지 또는 텍스트를 입력으로 받아 지시에 따라 프롬프트를 개선하거나 변경합니다.

참고: LLM 모델 목록을 새로 고치려면 F5 키를 눌러 브라우저 창을 다시 로드해야 합니다.

1.8부터 생성 이미지 그룹에 맥락 지원을 활성화/비활성화하는 파란 스위치가 추가되었습니다.

1.3부터 블록을 수동으로 켜고 끄며 블록 간에 프롬프트 텍스트를 복사해야 합니다.

정보:

우선 Ollama를 다음 링크에서 다운로드하고 설치해야 합니다:

https://ollama.com/

현재 워크플로우에서는 2개의 LLM 모델을 사용합니다:

Img2Img는 이미지 태그링에 llava, 조작에 Mistral을 사용합니다.

Combined 1.3는 llavaphi4를 사용합니다.

Txt2Img 1.2는 단지 phi4만 사용합니다.

Txt2Img 1.1은 단지 Mistral만 사용합니다.

Comfy를 실행하기 전에 모델을 다운로드해야 합니다:

Ollama 폴더(ollama.exe가 있는 곳)에서 명령 프롬프트를 열고 다음을 입력하세요:

ollama pull llava:7b (VRAM이 8-12GB인 경우)

또는

ollama pull llava:13b (VRAM이 16GB 이상인 경우)

모델 다운로드가 완료되면, Img2Img 및 Txt2Img v.1.1의 경우 다음을 입력하세요:

ollama pull mistral-small

Txt2Img v.1.2 및 Combined 1.3의 경우 다음을 입력하세요:

ollama pull phi4

다운로드가 완료되면 ollama app.exe를 시작하고 트레이 아이콘을 기다린 후 Comfy를 시작하고 누락된 커스텀 노드를 설치하세요.

설정되지 않은 경우, Ollama Vision 노드에서 llava를, Translate 및 Ollama Generate Advance 노드에서 mistral을 선택하세요.

이미지 생성 시 다른 언어로 지시를 주려면 Translate 노드를 활성화하고 사용하세요.

TXT2IMG는 어떤 언어의 프롬프트도 받을 수 있습니다.

====================

Redux IP Tools 버전을 사용하려면 다음 두 모델을 다운로드해야 합니다:

Clip Vision -> models\clip_vision

Style 모델 -> models\style_models

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.