Multi-GPU in ComfyUI (local, remote and cloud GPUs)
세부 정보
파일 다운로드
모델 설명
ComfyUI 분산 확장 기능
수개월 동안 저를 괴롭혀온 문제를 해결하기 위해 이 확장 기능을 개발했습니다. 바로 ComfyUI에서 여러 GPU를 보유하고 있음에도 불구하고 한 번에 하나만 사용할 수 있었고, 사용자 친화적이지 않았던 점입니다.
기능 개요:
로컬 워커: 동일한 머신 내 여러 GPU 활용
원격 워커: 네트워크 내 다른 컴퓨터의 GPU 자원 활용
클라우드 워커: Runpod과 같은 클라우드 서비스에서 호스팅된 GPU를 안전한 터널을 통해 접근
병렬 처리: 여러 변형을 동시에 생성
분산 업스케일링: 큰 업스케일 작업을 여러 GPU에 분산 처리
클라우드 워커를 사용하시나요?
이 링크를 통해 Runpod에 가입하면 특별 보너스를 누릴 수 있습니다: https://get.runpod.io/0bw29uf3ug0p
실제 성능:
- 4개의 GPU를 사용한 Ultimate SD Upscaler: 이전 23초 → 이후 7초
어떤 워크플로우라도 간단히 변환 가능:
분산 시드 노드 추가 → 샘플러에 연결
분산 수집기 노드 추가 → VAE 디코딩 후
패널에서 워커 활성화
이제 모든 GPU가 함께 작동하는 모습을 확인하세요!
업스케일링
- Ultimate SD Upscaler 노드를 Ultimate SD Upscaler Distributed 노드로 교체하기만 하면 됩니다.
저는 이 기능을 2대의 머신(총 7개 GPU)에서 사용해 왔으며, 매우 안정적으로 작동하고 있습니다.
GitHub: https://github.com/robertvoy/ComfyUI-Distributed
📚 리소스:
🔗 GitHub
📺 "RunPod에 클라우드 워커 배포하기" 튜토리얼 보기
설치에 대한 질문이나 더 많은 기술적 세부 정보를 원하시면 언제든지 문의해 주세요!
