ComfyUI Local LLM Qwen Prompt Refiner (Offline LLM Node)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
ComfyUI用のローカルQwen LLMローダーおよび思考プロンプトリファイナー
safetensorsを使用して、Qwen3-4B-Thinking-2507などの任意のQwenモデルをオフラインで完全に読み込みます。ステーブルディフュージョンのプロンプトを完全に制御して洗練させるのに最適:カスタマイズ可能な指示、可視な思考チェーン出力、一貫した結果のための固定シード、および使用後VRAMを解放するためのオプションの完全メモリアンロード機能を備えています。
APIは不要、レート制限は不要、重い生成ワークフローと同時に実行してもOOMの問題は発生しません。
モデルファイルをmodels/qwen/model-main-folder-goes-here/repo-files-goes-hereに置き、ComfyUIを再起動すれば、ローカルでより良いプロンプトの作成を始められます。
カスタムノードのリポジトリはこちら

