my samus instaNGP workflow

세부 정보

파일 다운로드

모델 설명

어떤 이유에서인지 이 컨텍스트 이미지를 업로드하는 데 어려움을 겪고 있어서 더 이상 시도하지 않기로 했습니다. 이미지가 삭제되거나 시청자에게 보이지 않지만, 그 이유를 알려주지도 않아서 수정할 수 없기 때문입니다. 그러니 더 이상 시도하지 않겠습니다.

혹시 이 작업을 하실 분이 계시다면, 댓글에 gif를 업로드해 주세요. 제가 새롭게 시도해 본 방식이고, 사람들이 이걸 어떻게 활용할지 보고 싶습니다.

여기서 혼동이 있는 것 같아 정리해 드리겠습니다. 신체에 페인팅된 버전의 이미지는 생성된 것이 아니라, 원래 instaNGP에서 transform.json을 생성할 때 사용했던 기초 포토그라메트리 이미지입니다.

또한,

NVIDIA의 instaNGP(또는 NeRF로도 알려져 있음)는 신경망 기반 포토그라메트리 소프트웨어로, 50160장의 이미지에서 30분1시간 내에 보통 300~500장 이상의 이미지가 필요했던 만족스러운 결과를 즉각적으로 생성합니다. 저는 단지 ControlNet을 사용해 포토그라메트리 이미지를 편집한 것입니다.

다운로드 파일에는 두 데이터셋(양말 바디페인팅 버전과 사누스 누드 버전)의 instaNGP 폴더와 각각의 transforms.json 파일이 포함되어 있습니다. 두 transform.json 파일은 완전히 동일합니다.

  • instaNGP를 사용해 바디페인팅 이미지를 처리했습니다.

  • 바디페인팅 폴더의 transforms.json 파일을 새로운 폴더로 복사했습니다.

  • ControlNet M2M(MP4 동영상만 지원) 스크립트를 사용하여 OpenPose, Normal, Depth ControlNet을 적용하고, 이미지2이미지 대신 텍스트2이미지 생성 방식을 사용했습니다.

  • 생성된 이미지를 새 폴더의 images 폴더에 넣었습니다.

저는 기존에 계산된 데이터셋의 transforms.json 파일을 새 데이터셋(크기가 동일함)에 적용하고 있습니다. transforms.json 파일에는 제공된 데이터셋의 계산된 카메라 위치와 추출된 특징이 포함되어 있습니다. 새 데이터셋의 이미지가 원래 데이터셋과 같은 크기를 가지면, 동일한 transforms.json 파일을 사용하여 새 이미지로도 동일한 모델을 구축할 수 있습니다.

어떤 이상한 이미지들이 있었지만, instaNGP가 일치하지 않는 픽셀을 무시하고 일치하는 부분만 활용하므로, 저는 그 이미지들을 그대로 보존하기로 했습니다.

ControlNet 사용 설명서

  1. 기초 포토그라메트리 이미지를 MP4 동영상으로 변환하세요.

  2. 프롬프트 설정

  1. 비디오의 너비와 높이와 동일하게 설정하세요.

  1. 컨트롤 모델 - 0을 OpenPose로 지정하세요(이미지는 비워두세요).

  1. 컨트롤 모델 - 1을 normal_map으로 지정하세요(이미지는 비워두세요).

  1. 컨트롤 모델 - 2를 depth로 지정하세요(이미지는 비워두세요).

  1. 스크립트 섹션에서 ControlNet M2M 스크립트를 선택하세요(ControlNet이 있을 경우 기본으로 포함됩니다). 그리고 MP4 동영상을 ControlNet-0에 넣으세요.

  1. 동일한 MP4 동영상을 ControlNet-1에 넣으세요.

  1. 동일한 MP4 동영상을 ControlNet-2에 넣으세요.

  1. 생성을 클릭하면 비디오 프레임 처리가 시작됩니다. 경고 시작 후에는 매우 어렵게 중단할 수 있으므로, 반드시 준비되었는지 확인하세요.

  1. 모든 프레임이 생성된 후, "Advanced Renamer"라는 프로그램을 사용해 생성된 이미지의 이름을 원래 포토그라메트리 이미지와 일치하도록 바꾸세요.

  2. 메인 설명의 주요 점에서 언급된 새 폴더의 images 폴더 안의 이미지를 복사하세요.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.