[ComfyUI Workflow] All-in-one Text-to-Image Workflow (ControlNet, IP-Adapter, ADetailer, ELLA,...)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
このワークフローとは?
これは、私がSD1.5で学び、使用してきた内容を基盤として、自分自身のあらゆる使用ケースをカバーするように拡張した、個人用のComfyUIワークフローです。4GB VRAM + 16GB RAMのシステムでも、すべての機能を有効にしたまま実行でき、十分な結果を得られます(少し待つ覚悟があれば)。
このワークフローには、あまりにも多くの機能が含まれているため、実際にご自身で確認されることをお勧めします。以下は、このワークフローでサポートされている機能のほんの一部です:
v-prediction対応 + RescaleCFG(デフォルトで無効)
調節可能なCLIP Skip
ELLA + ollamaによるプロンプトアップスケーリング(SD1.5専用機能)
スケーラブルなControlNetグループ(デフォルトで無効)
スケーラブルなIP-Adapterグループ(デフォルトで無効)
ダイナミック・サーモリング(デフォルトで無効)
2パスのtxt2img
Perlinノイズによる潜在変数ブレンド
CLIPSeg + Lamaクリーナーによるウォーターマーク除去
スケーラブルなADetailerグループ
通知と音声
バッチ画像のプレビュー選択機能
完全なCivitaiメタデータ対応
プロンプトとLoRAのスケジューリング
マルチチェックポイント設定(現在テスト中)
ワイルドカード(およびワイルドカードファイル)対応
...
このワークフローは主にSD1.5用に構築されていますが、prompt-reader-node でサポートされているSDXLモデルやすべてのワンセットチェックポイントモデルも簡単に使用できます。このような場合、ELLAは完全に無用となるため、有効にしないでください。
このワークフローの使い方?
ステップ0:ComfyUI と ComfyUI-Manager を入手
ステップ1:ワークフローファイルをダウンロード
ステップ2:ComfyUIにインポート
ステップ3:不足しているすべてのノードをダウンロード
ステップ4:不足しているモデルをすべて取得(詳細は以下)
ステップ5:生成を楽しんでください!
モデルの要件
基本
チェックポイントファイル(SD1.5、SDXLなど)
VAEファイル(組み込みVAEの場合は任意)
4x-AnimeSharp アップスケールモデル(または他の任意の4xアップスケールモデル)
2x-AniScale2 アップスケールモデル(または最終アップスケールステップ用の他の組み合わせ)
ControlNet
すべてのモデルはComfyUI-ManagerのModel Managerから入手できます。PonyXLまたはIllustriousXLを使用する場合は、独自の対応策を採用してください。
Depth ControlNet(Depth-Anythingプリプロセッサ使用)
Lineart ControlNet(AnyLine Lineartプリプロセッサ使用)
OpenPose ControlNet(DWPoseプリプロセッサ使用)
追加するその他のControlNetモデルに応じて
その他の機能
IP-Adapter:IP-Adapterモデルと関連するCLIP-G(CLIP Vision)モデル。これらはすべてModel Managerから入手可能
ELLA:https://github.com/TencentQQGYLab/ComfyUI-ELLA?tab=readme-ov-file#orange_book-models を参照
ADetailer/FaceDetailer:ほとんどのモデルはModel Managerから入手可能ですが、Anzhcの顔YOLOモデルはhttps://huggingface.co/Anzhc/Anzhcs_YOLOs から取得してください。ダウンロードしたファイルを ultralytics/segm フォルダーに配置
Ollama:https://ollama.com/download を参照し、指示に従ってインストールしてください。システムにollamaをインストール後、https://ollama.com/huihui_ai/llama3.2-abliterate:3b を取得
















