Daily versatility-easy get incredible ComfyUI workflow

詳細

ファイルをダウンロード

モデル説明

V2.1

V2バージョンの変形版で、V2ワークフローのスーパー・プロンプト語句と画像逆推論モデルのみを置き換えています。

現在、ComfyUIに同梱されたollamaノードを通じて、言語大モデル(LLM)を使ってプロンプト語句を生成・洗練することが可能になりました。最新のllama3.1の使用を推奨します。これは非常に強力で、ChatGPT-4oに近い性能を持ち、プロンプトの拡張記述が非常に優れています。

画像逆推論機能には、従来のFlorence2モデルよりも優れたllavaモデルを採用しました。より具体的な記述とより多くの細部を実現しています。

ollamaはComfyUIとは独立して動作するため、https://ollama.com/ からollamaをダウンロードする必要があります。インストールは非常に簡単です。インストール後、キーボードでWin+Rを入力して実行を開き、CMDと入力してコマンドプロンプトウィンドウを開きます。その後、ollama run llama3.1と入力すると、モデルが自動的にダウンロードされます。上記のサイトで他のモデルのダウンロードも試すことができます。モデルはデフォルトでCドライブにダウンロードされますが、パスを変更する必要があります。環境変数のシステム変数にOLLAMA_MODELSを追加し、ご自身でパスを設定してください。llavaモデルについても同様です。


V2バージョンの変形版で、V2ワークフローのスーパー・プロンプト語句と画像逆推論モデルのみを置き換えています。

現在、ComfyUIに同梱されたollamaノードを通じて、言語大モデル(LLM)を使ってプロンプト語句を生成・洗練することが可能になりました。最新のllama3.1の使用を推奨します。これは非常に強力で、ChatGPT-4oに近い性能を持ち、プロンプトの拡張記述が非常に優れています。

画像逆推論機能には、従来のFlorence2モデルよりも優れたllavaモデルを採用しました。より具体的な記述とより多くの細部を実現しています。

ollamaはComfyUIとは独立して動作するため、https://ollama.com/ からollamaをダウンロードする必要があります。インストールは非常に簡単です。インストール後、キーボードでWin+Rを入力して実行を開き、CMDと入力してコマンドプロンプトウィンドウを開きます。その後、ollama run llama3.1と入力すると、モデルが自動的にダウンロードされます。上記のサイトで他のモデルのダウンロードも試すことができます。モデルはデフォルトでCドライブにダウンロードされますが、パスを変更する必要があります。環境変数のシステム変数にOLLAMA_MODELSを追加し、ご自身でパスを設定してください。llavaモデルについても同様です。

中国ユーザー向け:ワークフローに関連する一部のモデル(LLMモデルを除く)については、modelsフォルダをComfyUIフォルダ内のmodelsフォルダ上書きしてください。他の一部のモデルはワークフロー実行時に自動ダウンロードされるため、モデルを手動で配置しても効果がありません。

リンク:https://pan.baidu.com/s/1qNTKAYIHmyfMf1RsqffitQ?pwd=n4lr

抽出コード:n4lr


V2

前のワークフローを[easy use]ノードを用いて再構築し、日常的な汎用性においてより簡潔かつ移植性を高めました。このワークフローは、基礎的なテキスト画像生成(プロンプト語句の知的補完、中国語・英語両対応)、画像逆推論、ControlNet、IPAdapter、詳細修復、高精細修復、背景置換などの一般的な機能を引き続き含んでいます。さらに、ポートレートマスター・プロンプト、IPAdapter強化、instantID、PAG注意誘導などのノード機能を追加し、プロンプトの使用方法とレベル調整を豊かにしました。instantIDとControlNet、IPAdapterの組み合わせにより、多様な遊び方が可能になります。また、高精細修復にはkolors仕上げオプションが追加されました。私自身はその効果が通常の高精細修復と大きく変わらないと考えていますが、お試しください。

このワークフローの全体的な思想は「怠慢設計」であり、日常的な描画ニーズのあらゆる側面をカバーしつつ、特定の機能のために複数のワークフローを頻繁に切り替える必要がありません。一定のハードウェア構成を持ち、sd-webuiに不満のある「怠け者プレイヤー」に適しています。

これは超縫合怪物です。ほとんどの作業は万能なネットユーザーの貢献によるもので、私は単にそれらを組み合わせただけです。[easy use]ノードグループが多用されており、これは高度に統合されたノード群です。その作者は中国出身(Bilibili:@ Luananah AI)です。彼のGitHubホームページもご確認ください:https://github.com/yolain/ComfyUI-Easy-Use

彼はさらにワークフロー共有ページも提供しています: https://github.com/yolain/ComfyUI-Yolain-Workflows ここから私は大いに受益しました。彼が最近[easy use]ノードグループをComfyUIの新バージョンに適合させるため書き直していると聞き、非常に楽しみにしています。

ワークフローの各機能は、注釈付きのノードグループとして構築されています。空白部分で右クリックし、[easy use]を選択して、必要に応じてノードグループを有効または無効化できます。使用前に、必ず各管理グループで詳細な機能説明を確認してください。一部のノードは実行時にモデルを自動ダウンロードしますが、他の一部は手動でダウンロード・配置する必要があります。

ワークフローの全体的な動作ロジックは、依然として「文生図」プロセスと「背景置換」プロセスに分けられています。「文生図」プロセスから「背景置換」プロセスに切り替えるには、高精細修復管理グループから[Change background_basis]ノードを取得し、または[Change background_repair]を取得して、事前詳細修復ノードの[画像]に接続してください。通常の「文生図」プロセスを使用する場合は、背景置換に関連するノードグループを無効にしてください。

各リンクで生成された画像には、取得ノードが設定されています。「文生図」ノードグループで生成された最初の画像は[base image]、[詳細修復]後の画像は[base image2]、[高精細修復]後の画像は[HD image]、[kolors拡大]で修正された画像は[HD image2]、[背景置換]後の画像は[Change background_basis]、[背景置換:修復]後の画像は[Change background_repair]です。実際のノードグループの状態とワークフローの動作ロジックに従って、[取得]ノードで適切な画像オプションを選択してください。

ワークフローを使用する際は、一度に多くのノードグループを有効にしないでください。ビデオメモリが過剰に使用される可能性があります。ご自身のハードウェアレベルに応じて操作してください。もし一度にこれらのすべての機能を完了する必要がある場合は、接力方式を採用してください。まず前の数ステップを完了し、その後、後続の操作に影響しない一部のノードグループを状況に応じて無効化し、画像をコピーして後続のリンクに貼り付けてタスクを継続してください。

中国ユーザー向け:ワークフローに関連する一部のモデル(LLMモデルを除く)については、modelsフォルダをComfyUIフォルダ内のmodelsフォルダ上書きしてください。他の一部のモデルはワークフロー実行時に自動ダウンロードされるため、モデルを手動で配置しても効果がありません。

リンク:https://pan.baidu.com/s/1qNTKAYIHmyfMf1RsqffitQ?pwd=n4lr

抽出コード:n4lr


V1

これは、ご自身の使用のために構築したマルチファンクションな日常ワークフローです。プロンプトの知的補完生成(中国語・英語対応)、画像逆推論、ControlNet、IPAdapter、顔修復、手修復、高精細修復、SUPIR拡大などの一般的な機能を含んでいます。

これは実際には超縫合怪物であり、その大部分の作業は万能なネットユーザーによるもので、私は単にそれらをまとめたにすぎません。

全体的な思想は「怠慢設計」です。プロンプトをシンプルに入力するだけで優れた結果が得られ、同時に他の画像から「インスピレーション」を得たいユーザーにも十分な自由度を残しています。性能をフルに活用すれば、驚異的な超高精細画像を実現できます。

すべての機能は注釈付きのノードグループとして構築されています。空白部分で右クリックし、【管理グループ(easy use)】を選択すると、必要なノードグループを有効または無効化できます。

通常の画像生成プロセスに加え、このワークフローには背景置換プロセスも併設されています。背景を変更する必要がある場合は、高精細拡大ノードグループに移動し、【get note】をBASE_IMAGEからBASE_IMAGE2に切り替えてください。また、画像カラーノードの【get note】も同様に切り替えます。

まず通常のプロセスで満足のいく画像を生成し、その後シード値を固定して背景変換プロセスを開始してください。

このモデルで生成された画像

画像が見つかりません。