Multi-GPU in ComfyUI (local, remote and cloud GPUs)

詳細

ファイルをダウンロード

モデル説明

ComfyUI 分散拡張機能

数ヶ月間悩まされていた問題を解決するために、この拡張機能を開発してきました。複数のGPUを所有しているにもかかわらず、ComfyUIでは一度に1つしか使用できず、かつ使いやすい方法がなかったのです。


主な機能:

  • ローカルワーカー:同じマシン内の複数のGPUを使用

  • リモートワーカー:ネットワーク上の他のコンピュータのGPUリソースを活用

  • クラウドワーカー:RunpodなどのクラウドサービスでホストされたGPUを安全なトンネル経由で利用

  • 並列処理:複数のバリエーションを同時に生成

  • 分散アップスケーリング:大規模なアップスケールタスクを複数のGPUに分割


クラウドワーカーをご利用ですか?

このリンクでRunpodに登録し、特別ボーナスを獲得してください:https://get.runpod.io/0bw29uf3ug0p


実際のパフォーマンス:

  • 4つのGPUを使用したUltimate SD Upscaler:23秒 → 7秒

あらゆるワークフローを簡単に変換:

  1. Distributed Seedノードを追加 → サンプラーに接続

  2. Distributed Collectorノードを追加 → VAEデコードの後

  3. パネルでワーカーを有効化

  4. すべてのGPUがついに協力して動作する様子をご覧ください!

アップスケーリング:

  • Ultimate SD UpscalerノードをUltimate SD Upscaler Distributedノードに置き換えるだけでOKです。

私は2台のマシン(合計7つのGPU)でこれを使用していますが、非常に安定しています。


GitHubhttps://github.com/robertvoy/ComfyUI-Distributed


📚 リソース:

🔗 WAN 2.2 ワークフロー

🔗 GitHub

📺 "RunPodにクラウドワーカーをデプロイする"チュートリアル

📺 最新のアップデート動画


セットアップに関する質問や、より詳しい技術情報をお知らせします!

このモデルで生成された画像

画像が見つかりません。