Multi-GPU in ComfyUI (local, remote and cloud GPUs)

세부 정보

파일 다운로드

모델 설명

ComfyUI 분산 확장 기능

수개월 동안 저를 괴롭혀온 문제를 해결하기 위해 이 확장 기능을 개발했습니다. 바로 ComfyUI에서 여러 GPU를 보유하고 있음에도 불구하고 한 번에 하나만 사용할 수 있었고, 사용자 친화적이지 않았던 점입니다.


기능 개요:

  • 로컬 워커: 동일한 머신 내 여러 GPU 활용

  • 원격 워커: 네트워크 내 다른 컴퓨터의 GPU 자원 활용

  • 클라우드 워커: Runpod과 같은 클라우드 서비스에서 호스팅된 GPU를 안전한 터널을 통해 접근

  • 병렬 처리: 여러 변형을 동시에 생성

  • 분산 업스케일링: 큰 업스케일 작업을 여러 GPU에 분산 처리


클라우드 워커를 사용하시나요?

이 링크를 통해 Runpod에 가입하면 특별 보너스를 누릴 수 있습니다: https://get.runpod.io/0bw29uf3ug0p


실제 성능:

  • 4개의 GPU를 사용한 Ultimate SD Upscaler: 이전 23초 → 이후 7초

어떤 워크플로우라도 간단히 변환 가능:

  1. 분산 시드 노드 추가 → 샘플러에 연결

  2. 분산 수집기 노드 추가 → VAE 디코딩 후

  3. 패널에서 워커 활성화

  4. 이제 모든 GPU가 함께 작동하는 모습을 확인하세요!

업스케일링

  • Ultimate SD Upscaler 노드를 Ultimate SD Upscaler Distributed 노드로 교체하기만 하면 됩니다.

저는 이 기능을 2대의 머신(총 7개 GPU)에서 사용해 왔으며, 매우 안정적으로 작동하고 있습니다.


GitHub: https://github.com/robertvoy/ComfyUI-Distributed


📚 리소스:

🔗 WAN 2.2 워크플로우

🔗 GitHub

📺 "RunPod에 클라우드 워커 배포하기" 튜토리얼 보기

📺 최신 업데이트 영상 보기


설치에 대한 질문이나 더 많은 기술적 세부 정보를 원하시면 언제든지 문의해 주세요!

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.