Multi-GPU in ComfyUI (local, remote and cloud GPUs)
詳細
ファイルをダウンロード
モデル説明
ComfyUI 分散拡張機能
数ヶ月間悩まされていた問題を解決するために、この拡張機能を開発してきました。複数のGPUを所有しているにもかかわらず、ComfyUIでは一度に1つしか使用できず、かつ使いやすい方法がなかったのです。
主な機能:
ローカルワーカー:同じマシン内の複数のGPUを使用
リモートワーカー:ネットワーク上の他のコンピュータのGPUリソースを活用
クラウドワーカー:RunpodなどのクラウドサービスでホストされたGPUを安全なトンネル経由で利用
並列処理:複数のバリエーションを同時に生成
分散アップスケーリング:大規模なアップスケールタスクを複数のGPUに分割
クラウドワーカーをご利用ですか?
このリンクでRunpodに登録し、特別ボーナスを獲得してください:https://get.runpod.io/0bw29uf3ug0p
実際のパフォーマンス:
- 4つのGPUを使用したUltimate SD Upscaler:23秒 → 7秒
あらゆるワークフローを簡単に変換:
Distributed Seedノードを追加 → サンプラーに接続
Distributed Collectorノードを追加 → VAEデコードの後
パネルでワーカーを有効化
すべてのGPUがついに協力して動作する様子をご覧ください!
アップスケーリング:
- Ultimate SD UpscalerノードをUltimate SD Upscaler Distributedノードに置き換えるだけでOKです。
私は2台のマシン(合計7つのGPU)でこれを使用していますが、非常に安定しています。
GitHub:https://github.com/robertvoy/ComfyUI-Distributed
📚 リソース:
🔗 GitHub
📺 "RunPodにクラウドワーカーをデプロイする"チュートリアル
セットアップに関する質問や、より詳しい技術情報をお知らせします!
