PH's Archviz x AI ComfyUI Workflow (SDXL + FLUX)

詳細

ファイルをダウンロード

モデル説明

v0.37 実際のバージョン、ComfyUI 0.3.68 およびフロントエンド v1.28.8 でテスト済み - 既に非推奨となったノードを削除、ライブ更新の品質向上

/編集 251105

このワークフローは2つの主要な機能を持っています:1) レンダリングの品質を向上させ、2) あらゆるレンダリングソフトウェア(1536x1024など)の低解像度出力から高解像度の建築画像(12288x8192でテスト済み)を生成し、その過程で「段階的生成」の手法を用いて細部を維持します。最初の段階では SDXL、次に Flux を用いて最初の出力の細部を強化、最後に再度 Flux を用いて2段階目の出力をアップスケーリングします。画像に3D人物が含まれている場合、自動で検出・強化されます。マスクを描画することで、Flux を用いて追加の人物を画像に追加することも可能です。

さらに詳しい情報は以下をご覧ください:

および以下:

元のRedditスレッド


履歴:

v0.30 - 最近のComfyUI更新とmtb-nodes(node+)の問題により、以前のバージョンが動作しなくなりました

/編集 250326

v0.27 を推奨 - このモデルのv0.23は、Mixlabs Nodesがインストールされている、または以前にインストールされていた場合、すぐに動作しなくなりました(SDXLAspectRatioSelector/art-ventureおよびいくつかのプリプロセッサが動作しなくなります)

/編集 241102


このプロジェクトに興味のある方は、a) 3dsMax、Blender、SketchUpなどの3D環境で必要な出力を素早く作成できるか、またはすでにその方法を知っていること、b) ここで見られる手法のいくつかを自らのワークフローに取り入れたり、必要に応じてすべてをカスタマイズできるだろうと想定しています。

望ましい結果を得るためのコントロールは、主に第1段階でのControlNetと、ベース画像のマスクによる詳細転送(マスクはプロンプトで定義:例「家、外観など」—転送・維持したい細部が存在する場所)によって得られます。たとえば、MaskEditorで人物を配置したエリアがある場合、その人物に他のマスクの詳細が混ざらないように、処理中にマスクが自動的に調整されます。基本的に、私は複数のモデルを連続して使用し、各段階で詳細を追加したり、不要な段階をスキップしたりしています。このワークフローは単純なプロセスとは限らず、たとえば、次の段階に渡す前に、プレビュー選択ツールで第1段階の出力を選別しています。

使用するモデルによって、レンダリング出力(「ポリゴンごとの一意の色付きメッシュ」やアウトライン/ワイヤーフレームメッシュなど)から写実的な画像を想像できます。これは、1つまたは2つ(あるいは追加したいだけ)のControlNetを用いて実現されます。SDXL ControlNetプリプロセッサや、直接使用するControlNetが理解できる形式であれば、何でも使用可能です。詳細転送の量や基本的な機能の多くは、スライダーとスイッチで制御できます(UI/UXデザイナーではありませんのでご了承ください)。プロンプトは全体的な出力を定義します。私は生成中の調整を容易にするために、プロンプトを分離しておき、最後に結合するスタイルを好みます。生成前に、3D出力/ベース画像を編集する必要がある場合があります。たとえば、私はファサードの縦方向のタイルラインを、Photoshopでノーマルパスレンダリング要素に直接描画しました。

また、1つのボタンでimg2imgワークフローに基本設定を変更でき、ベース画像にある程度写実的なレンダリングがすでに含まれている場合でも機能を維持します。第1段階でノイズ除去レベルを低く設定し、第2・第3段階でFluxが詳細を追加するようにするのも良いでしょう。その他の追加機能(例:「人物生成」の有効化、MaskEditorのブラシでFlux生成した人物をシーンに配置)は、例で見られるように、プロトタイプ段階の機能として位置づけています。

このワークフローは

  • イメージの高品質化やアップスケーリングなどの有料サービスの代替になり得ます

  • 私がテクニカルアーティストとして日々の作業を支援するために自ら開発した「ツール」であり、予備検討から最終画像に至るまで、私の最善の意図、最新の知見、およびAIに関する限られた知識に基づいています。私は依然として3D環境と追加のレンダリングソフトウェアを使用しており、たとえば画像の最終調整は依然として手動で行っています :)

したがって、このワークフローは残念ながら

  • これまで誰も見たことのない完璧なComfyUIワークフローではありません—誰かはそう予想していたかもしれません

  • いつ生成しても賞受賞級の画像が得られる究極の魔法のような技術ではありません—まだそうではありませんが、もし手に入ったらすぐにご報告します。そのときには無料で配布しないかもしれません。

このワークフローの出力結果は、必ず以下の要素に依存します

  • ベース画像の入力—このワークフローの目的に照らした、お気に入りの3D環境でのベース画像作成スキル。私は建築関連の画像以外ではこのツールをテストしていません

  • 望ましい結果をプロンプトで正確に記述する能力(プロンプティングの能力)

  • ハードウェア(基本的にflux.devが動作する環境であれば、このワークフローも動作します。最適化は今後行われる可能性があります。RTX 4090でテスト済み。より高性能なモデルを使用し、解像度を下げることで、低スペック機でも動作させることができます)

  • このようなツールをあなたのニーズに合わせて使用・編集・適用するための創造性

  • ComfyUIとControlNetの動作原理、およびあなたのシナリオに適した正確な設定を理解しているか


ボーナスコンテンツ:

現在、「mixlabs screen share」が表示バグのため使用できないため、このワークフローもリリースに含まれています。右側の「実験的」セクションにあります(少しスクロールすると表示されます)。Load imageノードをmixlabs screen shareに置き換え、ComfyUIでautoqueueを有効にすると、動画で示したように使用できます。その他の部分はすべて無効化しても構いません。

「Fluxによるマスクによるインペイント」の実験的機能を使用するには、「マスクエリア」(黄色の誤記)の対応するノードにマスクを接続し、ベースCFGでこのプロセスを有効にして、望ましい内容のプロンプトを入力してください。この機能は本格的な実験段階であり、常に期待通りの結果が得られるとは限りません。

使用モデル:

  • flux.dev gguf Q8_0.gguf

  • realVisXL_4.0.safetensors

  • realVisXL40_Turbo.safetensors

CLIP:

  • t5-v1_1-xxl-encoder-Q8_0.gguf

  • clip_l.safetensors

IP-Adapter:

  • CLIP.ViT-H-14-laion2B-s32B-b79K.safetensors

  • ip-adapter-plus_sdxl_vit-h.safetensors

ControlNet:

  • diffusers_xl_depth_full.safetensors

  • diffusers_xl_canny_full.safetensors

  • thibaud_xl_openpose.safetensors(オプション:今後のリリースでopenpose-editorを使用してポーズ付き人物を再実装予定)

SAM2/Florence2:

  • sam2_hiera_base_plus.safetensors

  • Florence2-base

アップスケール:

  • 4x-UltraSharp.pth

試してみるおすすめモデル:CrystalClearXL、RealVisXL、ProtoVision XL

使用したカスタムノード(はい、リソースが重いです。今後編集・追加される可能性があります。エラーを避けるため、1つずつインストールし、その都度ComfyUIを再起動することを推奨):

GitHub - ltdrdata/ComfyUI-Manager

GitHub - ltdrdata/ComfyUI-Impact-Pack

GitHub - Fannovel16/comfyui_controlnet_aux

GitHub - jags111/efficiency-nodes-comfyui

GitHub - WASasquatch/was-node-suite-comfyui

GitHub - EllangoK/ComfyUI-post-processing-nodes

GitHub - BadCafeCode/masquerade-nodes-comfyui

GitHub - city96/ComfyUI-GGUF

GitHub - pythongosssss/ComfyUI-Custom-Scripts

GitHub - ssitu/ComfyUI_UltimateSDUpscale

GitHub - Suzie1/ComfyUI_Comfyroll_CustomNodes

GitHub - cubiq/ComfyUI_IPAdapter_plus

GitHub - sipherxyz/comfyui-art-venture

GitHub - evanspearman/ComfyMath: ComfyUI用の数学ノード

GitHub - jamesWalker55/comfyui-various

GitHub - Kosinkadink/ComfyUI-Advanced-ControlNet

GitHub - theUpsider/ComfyUI-Logic

GitHub - rgthree/rgthree-comfy

GitHub - cubiq/ComfyUI_essentials

GitHub - chrisgoringe/cg-image-filter

GitHub - kijai/ComfyUI-KJNodes

GitHub - kijai/ComfyUI-DepthAnythingV2

GitHub - kijai/ComfyUI-Florence2

GitHub - kijai/ComfyUI-segment-anything-2

GitHub - shadowcz007/comfyui-mixlab-nodes

GitHub - palant/image-resize-comfyui

GitHub - yolain/ComfyUI-Easy-Use

上記のすべてのノードは優れた作品であり、強く推奨します。私の作業を直接支援したい場合は、以下のURLから寄付をお願いします:https://ko-fi.com/paulhansen

このモデルで生成された画像

画像が見つかりません。