Straight to the Point
詳細
ファイルをダウンロード
モデル説明
オープンソース分野で最もシンプルなすべてを一つにまとめたComfyUI画像ワークフロー!
Luckytime 作成
この11in1 ComfyUIワークフローは、テキストから画像生成、画像から画像生成、背景削除、合成、トリミング、アウトペインティング、インペインティング、顔スワップ、自動詳細化、アップスケーリング、究極のSDアップスケール、VRAM管理、メモリースロット、無限ループを含んでいます。チェックポイントまたは単一/二重のCLIPモデルを使用します。
ビデオデモ: https://youtube.com/watch?v=bBtjz0jy_gQ
GitHubリポジトリ: https://github.com/Tekaiguy/STTP-Workflow
依存関係
すべてを一つにまとめているため、多くの依存関係がありますが、可能な限りネイティブノードを使用し、残りは人気で信頼できるカスタムノードのみを使用しました。
🔗 https://github.com/comfyanonymous/ComfyUI ➡️ ComfyUI
🔗 https://github.com/Fannovel16/comfyui_controlnet_aux ➡️ ControlNetプリプロセッサ
🔗 https://github.com/ltdrdata/ComfyUI-Impact-Pack ➡️ Impact Pack
🔗 https://github.com/ltdrdata/ComfyUI-Impact-Subpack ➡️ Impact Subpack
🔗 https://github.com/lquesada/ComfyUI-Inpaint-CropAndStitch ➡️ Inpaint Crop & Stitch
🔗 https://github.com/john-mnz/ComfyUI-Inspyrenet-Rembg ➡️ Inspyrenet Rembg
🔗 https://github.com/cubiq/ComfyUI_IPAdapter_plus ➡️ IPAdapter Plus
🔗 https://github.com/Gourieff/ComfyUI-ReActor ➡️ ReActor
🔗 https://github.com/rgthree/rgthree-comfy ➡️ rgthree
🔗 https://github.com/ssitu/ComfyUI_UltimateSDUpscale ➡️ Ultimate SD Upscale
概要
フロー
ワークフローは6つの独立した切り替え可能なグループのパイプラインです。画像生成から始まり、背景を精緻化し、詳細をインペ인ティングし、特徴を自動補正し、最終的にアップスケールします。最初のアクティブなグループの出力は自動的に左から右へ次のグループに送信され、6つのグループの任意の組み合わせを使用できます。
VRAM管理
すべてのグループを同時に実行すると、VRAMが枯渇し、「デバイス上の割り当てエラー」が発生する可能性が高くなります。したがって、前のグループの処理が完了した後に順次グループをオンにし、各グループのシードを固定して各ステップでの生成を維持できます。これにより、使用するときのみモデルを読み込むことでVRAMの負荷を平準化します。
グループ切り替えはグローバルであり、どこからでもグループをオフにできます。
メモリースロット
メモリーグループ1、2、または3を有効にしてワークフローを実行すると、最後の出力が対応するメモリースロットに送信されます。メモリーグループは各キューごとに出力を継続的に送信するため、スロット内の画像を上書きしないよう注意してください。
ループ
ループは、ループグループと他の任意のグループを有効にすることで実現されます。ループグループは他のすべての入力をオーバーライドし、その画像を次のアクティブなグループに送信します。
ブックマーク
0~6のキーは便利なカメラビューのショートカットです。ブックマークノードを最大化して希望のズームレベルを設定することで、ディスプレイに合わせて調整できます。
グループ
ループ
このグループでは、最大3つの保存された画像を保存して再利用できます。プレビューノードが画像を表示するには、このグループを有効にしてワークフローを実行する必要があります(これは必須のステップです)。画像を再利用するには、使用したい画像の番号を選択し、再度ワークフローを実行してください。ループグループは、他のすべての入力をオーバーライドして、その画像を次のアクティブなグループに送信します。ループグループ内の画像は、ComfyUIセッションの間保存され、その後削除されます。
生成
このグループでは、ベージュの潜在空間(テキスト→画像)または事前定義された潜在空間(画像→画像)から新しい画像を作成できます。読み込んだ画像が小さい場合、ステップ2の前にモデルでアップスケールすることで、潜在空間を鮮明に保つことができます(画像を線形にアップスケールするのではなく)。
0️⃣ 画像を読み込む
1️⃣ モデル設定を選択
2️⃣ 潜在空間サイズとCLIPスキップを選択
3️⃣ テキストプロンプトを入力
4️⃣ LoRAを読み込む
5️⃣ KSampler設定を選択
6️⃣ シードを選択
7️⃣ 画像を比較/保存
ControlNet(Stable Diffusion専用)
このサブグループでは、「生成」グループでモデルをControlNetで制御できます。プリプロセッサは読み込んだ画像から情報を抽出し、補助画像を作成して条件付けに使用します。独自の補助画像をアップロードしたい場合は、プリプロセッサをオフにしてください。
1️⃣ 画像を読み込む
2️⃣ プリプロセッサとControlNet設定を選択
3️⃣ 補助画像をプレビュー/保存
IPAdapter(Stable Diffusion専用)
このサブグループでは、「生成」グループのモデルをIPAdapterで変更できます。最大6枚の画像をオンにすることでバッチを作成し、LoRAのように出力を調整できます。少なくとも1枚の画像をオンにする必要があり、バッチの最初の画像が他の画像のターゲット解像度を設定します。
1️⃣ IPAdapter設定を選択して画像を読み込む
2️⃣-6️⃣ 追加の画像を読み込む
背景
このグループでは、背景を置き換えたり周囲を調整したりできます。「置換」を選択すると、背景を削除して別の背景と合成できます。合成する場合、独自の背景をアップロードするか、完全に新しい背景を生成できます。「再構成」を選択すると、画像をトリミングまたはアウトペインティングできます。注意:アウトペインティングの際は、コンテキストとして画像全体のみを使用できます。アウトペインティングにはインペインティングモデルをお勧めします。
0️⃣ 画像を読み込む
1️⃣ モデル設定を選択
2️⃣ 潜在空間サイズとCLIPスキップを選択
3️⃣ 削除閾値またはトリミング設定を選択
4️⃣ 合成またはアウトペインティング設定を選択
5️⃣ テキストプロンプトを入力
6️⃣ LoRAを読み込む
7️⃣ KSampler設定を選択
8️⃣ シードを選択
9️⃣ 画像を比較/保存
インペインティング
このグループではインペインティングを実行できます。画像全体をコンテキストとして使用するか、一部のみを使用することもでき、GPUへの負荷を軽減できます。ワークフローを実行して画像をマスクノードに読み込み、その後マスクを描画する必要があります。マスクノードはマスクが検出されない場合、ワークフローをブロックします。コンテキストマスクは、希望するコンテキスト領域の境界を定義します。プロンプトは、マスク領域だけでなく、コンテキスト領域内にあるものを記述してください。最良の結果を得るには、インペインティングチェックポイントをお勧めします。
0️⃣ 画像を読み込む
1️⃣ モデル設定を選択
2️⃣ 潜在空間サイズとCLIPスキップを選択
3️⃣ テキストプロンプトを入力
4️⃣ インペインティング/コンテキストマスクを描画
5️⃣ LoRAを読み込む
6️⃣ クロッピング設定を選択
7️⃣ KSampler設定を選択
8️⃣ シードを選択
9️⃣ 画像を比較/保存
自動修正
このグループでは、さまざまな検出・セグメンテーション・スワップモデルを使って詳細な処理を自動化できます。顔スワップには顔修復機能が含まれているため、修復のみを適用したい場合は無効にできます。最大2枚の顔画像を読み込み、左から右に結合できます。自動詳細化は、自動マスクを使用したインペインティングと同様です。類似性を保つには、低ノイズ(0.2–0.3)を使用できます。注意:スワップ時に黒い画像が出力される場合は、テキストエディタで "ComfyUI/custom_nodes/comfyui-reactor/scripts/reactor_sfw.py" を開き、「True」を「False」に変更してください。
0️⃣ 画像を読み込む
1️⃣ モデル設定を選択
2️⃣ 潜在空間サイズとCLIPスキップを選択
3️⃣ 顔スワップ設定を指定するかテキストプロンプトを入力
4️⃣ 顔画像またはLoRAを読み込む
5️⃣ 自動詳細化設定を選択
6️⃣ シードを選択
7️⃣ 画像を比較/保存
アップスケール
このグループでは、モデルまたは究極のSDアップスケール(タイル化アップスケール)でアップスケールできます。オプションノードで両方の機能にアップスケールモデルを選択します。究極のSDアップスケールは、画像を一部重複した均一なタイルに分割し、それぞれを独立してアップスケールしてから再結合します。ノイズ削減が0.3より高い場合、接合部分が目立つ可能性があります。アップスケール後、ファイルサイズを減らすためにダウンスケールでき、品質保証のために保存を無効にでき、オプションノードでファイルプレフィックスを入力できます。
0️⃣ 画像を読み込む
1️⃣ モデル設定を選択
2️⃣ 潜在空間サイズとCLIPスキップを選択
3️⃣ テキストプロンプトを入力
4️⃣ LoRAを読み込む
5️⃣ 究極のSDアップスケール設定を選択
6️⃣ シードを選択
7️⃣ 画像を比較/保存
8️⃣ ダウンスケール設定を選択
その他の機能
専用ワークフロー
メインワークフローと同じグループを、個別の.jsonファイルに分割したものです。
分解ワークフロー
専用ワークフローと同様ですが、すべてのノードが最大化され、広げられ、再配置されています。
テンプレートワークフロー
メインワークフローで使用される独自の機能を示す基本的なワークフローです。
ループ
出力画像を開始部にループさせ、希望する回数だけ再利用できます。受信側で既存の画像を選択して始め、ミューターをオン/オフして送信を有効/無効にします。Impact Packが必要です。
一時停止
2つのKSamplerを使用し、最初のモデルを一時停止してアンロードした後に続行できます。最初のグループからの潜在空間は自動的に次のグループに送信され、第二グループがオフの場合、ワークフローはそのステップで一時停止されます。最初のグループがオフの場合、第二グループは空の潜在空間から入力を取得します。rgthreeが必要です。
スイッチ
2つの出力間を切り替えます。「Switch (Any)」ノードはブール値によって制御され、「Power Puter」によって「1」または「2」に変換されます。デコードされた画像または読み込まれた画像のいずれかを出力します。Impact Packとrgthreeが必要です。
チェンジログ
バージョン1
生成グループを追加
再描画グループを追加
フェイススワップグループを追加
アップスケールグループを追加
バージョン2
ControlNetグループを追加
生成およびリドローグループにControlNetのトグルを追加
生成とリドローグループのCLIPスキップを分離
フェイスインデックスを変更できるプリミティブを追加
ノードを再配置し、再番号付け
主要なReActorリポジトリに切り替え
バージョン3
生成とリドローグループのテキストプロンプトを分離
生成とリドローグループのControlNetを分離
IPAdapterグループを追加
バックグラウンドグループを追加
インペイントグループを追加
ループ機能を追加
フェイスグループにフェイスディテイラーを追加
アップスケールグループにUltimate SD Upscaleを追加
空間を節約するため、特定のノードをグループ化
ノードを整理し、明確さのために絵文字を導入
リソースへのリンクを追加し、ヘルプノードを刷新
専用ワークフローを追加
分解ワークフローを追加
テンプレートワークフローを追加
動画デモを追加
バージョン4
Efficiency Nodesの依存を削除
Custom Scriptsの依存を削除
シングル/デュアル-CLIPモデル対応を追加
グループノードをサブグラフに置き換え
オプションを統合し、ブール値に変換
ControlNet、IPAdapter、リドローグループを生成グループと統合
IPAdapterを「エリア条件付け」から「インスタント LoRA」に再設計
バックグラウンドグループにクロップ機能を追加
アウトペインティングを修正し、継ぎ目を解消
フェイススワップに1つ追加の顔を追加
ループグループを追加
送信グループを追加
ループスロットを2つ追加
絵文字を刷新し、ノードを再番号付け
ヘルプノードを刷新
専用ワークフローを更新
テンプレートワークフローを更新
分解ワークフローを更新
動画デモを更新























