PH's Archviz x AI ComfyUI Workflow (SDXL + FLUX)
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
v0.30 推奨 – 最新バージョンは最近のComfyUIの更新とmtb-nodes(node+)の問題により破損しました。
/編集 250326
v0.27 推奨 – このモデルのv0.23は、Mixlabs Nodesがインストールされている、または以前にインストールされていた場合、すぐに動作しなくなりました(SDXLAspectRatioSelector/art-ventureおよび一部のプリプロセッサが動作しなくなります)。
/編集 241102
このワークフローは主に2つの機能を持ち、1)レンダリングの質を向上させ、2)あらゆるレンダリングソフトウェア(1536x1024など)の低解像度出力から高解像度の建築画像(12288x8192までテスト済み)を生成し、その過程で詳細を保持することを目的としています。この「段階的生成」プロセスは、最初の段階でSDXL、2番目の段階でFluxを使って最初の出力を詳細化、3番目の段階で再びFluxを使って2番目の出力をアップスケールするという3段階で構成されます。画像に3Dの人間が含まれている場合、自動で検出され、それらも強化されます。マスクを描画することで、Fluxを用いて画像に追加の人間を生成することも可能です。
詳細はこちら:
およびこちら:
このプロジェクトに興味のある方々は、a) 3ds Max、Blender、SketchUpなどの3D環境を使って必要な出力を作成する方法を既に知っているか、すぐに習得できる、b) ここにあるものを自分のワークフローに取り入れ、あるいは必要に応じてすべてをカスタマイズできる、と仮定しています。
希望する出力を制御する主な方法は、第一段階でのControlNetと、ベース画像のマスク付き詳細転送(マスクはプロンプトで定義:「家、外壁など」— あなたが転送・保持したい詳細が存在する領域)です。たとえば、MaskEditorで人を配置した領域がある場合、その人の上にマスクから詳細が混ぜ合わないように、プロセス中にマスクが自動的に編集されます。基本的に、私は複数のモデルを順に使用して、各ステップで詳細を追加したり、不要なステップをスキップしたりしています。このワークフローは必ずしも単純なプロセスではなく、たとえば、次のステップに渡す前に、プレビュー選択ツールで第一段階の出力を厳選しています。
使用するモデルによっては、「パーポリゴンごとに一意のカラーのメッシュ」やアウトライン/ワイヤーフレームメッシュなど、写実的な画像をレンダリングから想像します。これは1つまたは2つ(または追加したいだけ)のControlNetを介して実現されます。SDXL ControlNetプリプロセッサやControlNet自体が理解できる任意の入力が使用可能です。詳細転送の量や基本的な機能の多くはスライダーとスイッチで制御できます(私はUI/UXデザイナーではありません)。プロンプトは全体的な出力を定義します。私は生成中に素早く調整できるよう、プロンプトを分離して管理する方が好みですが、最終的にはすべて連結されます。生成前に3D出力/ベース画像を編集する必要がある場合があります。たとえば、私はファサードの垂直タイルラインをPhotoshopでノーマルパスレンダリング要素に直接描画しました。
さらに、1つのボタンでimg2imgワークフローに基本設定を変更でき、ベース画像入力に何らかの写実的なレンダリングがすでに存在する場合でもその機能を維持します。第一段階でそのノイズを低めに設定し、第二・第三段階でFluxに詳細を追加させることも可能です。多くの追加機能(たとえば「人物生成」の有効化や、MaskEditorのブラシでFlux生成の人物をシーンに配置する機能)は、例示からもわかるように、プロトタイプとして扱っています。
このワークフローは:
イメージの強化やアップスケールなどの有料サービスの代替となる可能性があります。
技術アーティストとしての私の日常業務を支援するために、私が自ら開発した「ツール」です。前段階のプレビジュアライゼーションから最終画像まで、私の最善の意図、最新の知見、そしてAIに関する限られた知識に基づいています。私は依然として3D環境と追加のレンダリングソフトウェアを使用しており、たとえば画像の後処理はまだ多くの場合手動で行っています :)
したがって、このワークフローは残念ながら:
人類がこれまで見たことのない完璧なComfyUIワークフローではありません — 一部の方はすでにそう思ったでしょう。
生成を始めるたびに受賞級の画像が得られる究極の魔法のテクノロジーではありません — まだそうではありませんが、もし実現したらすぐにご報告します。そのときはおそらく無料で配布しないかもしれません。
このワークフローの出力は、いずれの場合も以下の要素に依存します:
ベース画像の入力 — このワークフローの目的に正確に合致する、あなたの好きな3D環境におけるベース画像作成のスキル。私は建築関連の画像以外ではこのツールをテストしていません。
あなたが望むものをプロンプトとして記述する能力。
あなたのハードウェア(基本的にflux.devが動作する環境であればこのワークフローも動きます。最適化は今後追加される可能性があります。RTX 4090でテスト済み。より高性能なモデルを使用し、解像度を下げて低性能ハードウェアでも動作させることが可能です)。
このようなツールをあなたのニーズに合わせて使用・編集・適用するための創造性。
ComfyUIとControlNetの動作原理、およびあなたのシナリオに最適な具体的な設定の理解。
ボーナスコンテンツ:
現在、表示バグのため「Mixlabs Screen Share」が使用できないため、このワークフローもリリースに含めています。右側の「実験的」セクションで見つけることができます(表示されるまで少しスワイプする必要があるかもしれません)。動画に示されているように、Load imageノードをMixlabs Screen Shareに置き換え、ComfyUIでAutoqueueをオンにすることで使用できます。その際、他のすべてをバイパスすることを推奨します。
実験的な「Fluxマスクによるインペイント」機能を使用するには、「マスク領域」(黄色のタイプミス)の対応するノードにマスクを接続し、ベースCFGでこのプロセスを有効にして、望む内容のプロンプトを入力してください。この機能は本格的な実験段階であり、常に期待した結果を得られるとは限りません。
使用モデル:
flux.dev gguf Q8_0.gguf
realVisXL_4.0.safetensors
realVisXL40_Turbo.safetensors
CLIP
t5-v1_1-xxl-encoder-Q8_0.gguf
clip_l.safetensors
IP-Adapter
CLIP.ViT-H-14-laion2B-s32B-b79K.safetensors
ip-adapter-plus_sdxl_vit-h.safetensors
ControlNet
diffusers_xl_depth_full.safetensors
diffusers_xl_canny_full.safetensors
thibaud_xl_openpose.safetensors(オプション。将来のリリースではopenpose-editorでポーズされた人物に対応予定)
SAM2/Florence2
sam2_hiera_base_plus.safetensors
Florence2-base
アップスケール
- 4x-UltraSharp.pth
試して推奨するモデル:CrystalClearXL、RealVisXL、ProtoVision XL
使用しているカスタムノード(はい、リソースが重いです。今後編集・追加される可能性があります。エラーを避けるため、一つずつインストールし、その都度ComfyUIを再起動することを推奨):
GitHub - ltdrdata/ComfyUI-Manager
GitHub - ltdrdata/ComfyUI-Impact-Pack
GitHub - Fannovel16/comfyui_controlnet_aux
GitHub - jags111/efficiency-nodes-comfyui
GitHub - WASasquatch/was-node-suite-comfyui
GitHub - EllangoK/ComfyUI-post-processing-nodes
GitHub - BadCafeCode/masquerade-nodes-comfyui
GitHub - city96/ComfyUI-GGUF
GitHub - pythongosssss/ComfyUI-Custom-Scripts
GitHub - ssitu/ComfyUI_UltimateSDUpscale
GitHub - Suzie1/ComfyUI_Comfyroll_CustomNodes
GitHub - cubiq/ComfyUI_IPAdapter_plus
GitHub - sipherxyz/comfyui-art-venture
GitHub - evanspearman/ComfyMath: ComfyUI用数学ノード
GitHub - jamesWalker55/comfyui-various
GitHub - Kosinkadink/ComfyUI-Advanced-ControlNet
GitHub - theUpsider/ComfyUI-Logic
GitHub - rgthree/rgthree-comfy
GitHub - cubiq/ComfyUI_essentials
GitHub - chrisgoringe/cg-image-filter
GitHub - kijai/ComfyUI-KJNodes
GitHub - kijai/ComfyUI-DepthAnythingV2
GitHub - kijai/ComfyUI-Florence2
GitHub - kijai/ComfyUI-segment-anything-2
GitHub - shadowcz007/comfyui-mixlab-nodes
GitHub - palant/image-resize-comfyui
GitHub - yolain/ComfyUI-Easy-Use
上記のすべてのノードは優れた作品であり、強く推奨します。私の作業を支援したい場合は、まず開発者を支援してください — 彼らこそが本当のMVPです。私の作業を直接支援したい場合のみ(必須ではありません。特に利点・不利点はありません)、https://ko-fi.com/paulhansen で寄付をお願いします。

