ComfyUI Local LLM Qwen Prompt Refiner (Offline LLM Node)

詳細

ファイルをダウンロード

モデル説明

ComfyUI用のローカルQwen LLMローダーおよび思考プロンプトリファイナー

safetensorsを使用して、Qwen3-4B-Thinking-2507などの任意のQwenモデルをオフラインで完全に読み込みます。ステーブルディフュージョンのプロンプトを完全に制御して洗練させるのに最適:カスタマイズ可能な指示、可視な思考チェーン出力、一貫した結果のための固定シード、および使用後VRAMを解放するためのオプションの完全メモリアンロード機能を備えています。

APIは不要、レート制限は不要、重い生成ワークフローと同時に実行してもOOMの問題は発生しません。

モデルファイルをmodels/qwen/model-main-folder-goes-here/repo-files-goes-hereに置き、ComfyUIを再起動すれば、ローカルでより良いプロンプトの作成を始められます。

カスタムノードのリポジトリはこちら

このモデルで生成された画像

画像が見つかりません。