LLM prompt helper (with FLUX.1 Kontext support)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
バージョン2.0から、このワークフローはtxt2img、img2img、Inpaint機能をサポートし、組み込みのLLMノードを使用します。
https://github.com/AlexYez/comfyui-timesaver
外部のOllamaプログラムの代わりに、TS_Qwen3_Nodeノードは画像の説明、プロンプトの翻訳、プロンプトの強化が可能です。
お使いのOSがWindowsで、Qwen3_Nodeの依存関係をインストールできない場合(コンパイラがインストールされていない)、次のリンクから.whlファイルをダウンロードしてください。
https://github.com/boneylizard/llama-cpp-python-cu128-gemma3/releases
その後、ComfyUIを閉じてpython_embededフォルダを開き、アドレスバーにcmdと入力して次のコマンドを実行してください。
.\python.exe -I -m pip install "ダウンロードした.whlファイルへのパス"
インストールが完了したら、ComfyUIを通常通り起動し、不足しているカスタムノードをインストールしてください。
編集:.whlインストールが失敗した場合、Pythonのバージョンを確認し、その.whlファイルが同じバージョン用にビルドされていることを確認してください。それでも失敗する場合は、.whlファイルをアーカイブとして開き、アーカイブ内のすべてのフォルダをpython_embeded\Lib\site-packagesフォルダに直接抽出してください。
===旧バージョン===============================
このワークフローは、Ollamaで管理されるLLMテキストモデルとFluxの画像生成機能を組み合わせたものです。画像またはテキストを入力として受け取り、指示に従ってプロンプトを改善または変更します。
注意:LLMモデルのリストを更新するには、F5キーを押してブラウザウィンドウを再読み込みしてください。
バージョン1.8からは、画像生成グループにコンテキストサポートを有効/無効にする青いスイッチが追加されました。
バージョン1.3からは、ブロックのオン/オフを手動で切り替え、ブロック間でプロンプトテキストを手動でコピーする必要があります。
情報:
まず、次のリンクからOllamaをダウンロードしてインストールしてください。
現在のワークフローでは2つのLLMモデルを使用しています:
img2Imgは画像タグ付けにllava、操作にMistralを使用します。
Combined 1.3はllavaとphi4を使用します。
Txt2Img 1.2はphi4のみを使用します。
Txt2Img 1.1はMistralのみを使用します。
Comfyを起動する前に、以下のモデルをダウンロードしてください:
Ollamaフォルダ(ollama.exeが含まれている)でコマンドプロンプトを開き、次のように入力してください:
ollama pull llava:7b(VRAMが8-12GBの場合は)
または
ollama pull llava:13b(VRAMが16GB以上の場合は)
モデルのダウンロードが終わったら、img2imgとTxt2Img v.1.1では:
ollama pull mistral-small
Txt2Img v.1.2とCombined 1.3では:
ollama pull phi4
ダウンロードが完了したら、ollama app.exeを起動し、トレイアイコンが表示されるのを待ってから、Comfyを起動し、不足しているカスタムノードをインストールしてください。
設定されていない場合、Ollama Visionノードでllava、TranslateおよびOllama Generate Advanceノードでmistralを選択してください。
img2imgの指示を他の言語で行う予定の場合は、Translateノードを有効にして使用してください。
TXT2IMGはどの言語のプロンプトも受け付けます。
====================
Redux IP Toolsバージョンをご使用の場合は、以下の2つのモデルをダウンロードしてください:
Clip Vision → models\clip_vision
Style model → models\style_models



