my samus instaNGP workflow
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
어떤 이유에서인지 이 컨텍스트 이미지를 업로드하는 데 어려움을 겪고 있어서 더 이상 시도하지 않기로 했습니다. 이미지가 삭제되거나 시청자에게 보이지 않지만, 그 이유를 알려주지도 않아서 수정할 수 없기 때문입니다. 그러니 더 이상 시도하지 않겠습니다.
혹시 이 작업을 하실 분이 계시다면, 댓글에 gif를 업로드해 주세요. 제가 새롭게 시도해 본 방식이고, 사람들이 이걸 어떻게 활용할지 보고 싶습니다.
여기서 혼동이 있는 것 같아 정리해 드리겠습니다. 신체에 페인팅된 버전의 이미지는 생성된 것이 아니라, 원래 instaNGP에서 transform.json을 생성할 때 사용했던 기초 포토그라메트리 이미지입니다.
또한,
NVIDIA의 instaNGP(또는 NeRF로도 알려져 있음)는 신경망 기반 포토그라메트리 소프트웨어로, 50160장의 이미지에서 30분1시간 내에 보통 300~500장 이상의 이미지가 필요했던 만족스러운 결과를 즉각적으로 생성합니다. 저는 단지 ControlNet을 사용해 포토그라메트리 이미지를 편집한 것입니다.
다운로드 파일에는 두 데이터셋(양말 바디페인팅 버전과 사누스 누드 버전)의 instaNGP 폴더와 각각의 transforms.json 파일이 포함되어 있습니다. 두 transform.json 파일은 완전히 동일합니다.
instaNGP를 사용해 바디페인팅 이미지를 처리했습니다.
바디페인팅 폴더의 transforms.json 파일을 새로운 폴더로 복사했습니다.
ControlNet M2M(MP4 동영상만 지원) 스크립트를 사용하여 OpenPose, Normal, Depth ControlNet을 적용하고, 이미지2이미지 대신 텍스트2이미지 생성 방식을 사용했습니다.
생성된 이미지를 새 폴더의 images 폴더에 넣었습니다.
저는 기존에 계산된 데이터셋의 transforms.json 파일을 새 데이터셋(크기가 동일함)에 적용하고 있습니다. transforms.json 파일에는 제공된 데이터셋의 계산된 카메라 위치와 추출된 특징이 포함되어 있습니다. 새 데이터셋의 이미지가 원래 데이터셋과 같은 크기를 가지면, 동일한 transforms.json 파일을 사용하여 새 이미지로도 동일한 모델을 구축할 수 있습니다.
어떤 이상한 이미지들이 있었지만, instaNGP가 일치하지 않는 픽셀을 무시하고 일치하는 부분만 활용하므로, 저는 그 이미지들을 그대로 보존하기로 했습니다.
ControlNet 사용 설명서
기초 포토그라메트리 이미지를 MP4 동영상으로 변환하세요.
프롬프트 설정
- 비디오의 너비와 높이와 동일하게 설정하세요.
- 컨트롤 모델 - 0을 OpenPose로 지정하세요(이미지는 비워두세요).
- 컨트롤 모델 - 1을 normal_map으로 지정하세요(이미지는 비워두세요).
- 컨트롤 모델 - 2를 depth로 지정하세요(이미지는 비워두세요).
- 스크립트 섹션에서 ControlNet M2M 스크립트를 선택하세요(ControlNet이 있을 경우 기본으로 포함됩니다). 그리고 MP4 동영상을 ControlNet-0에 넣으세요.
- 동일한 MP4 동영상을 ControlNet-1에 넣으세요.
- 동일한 MP4 동영상을 ControlNet-2에 넣으세요.
- 생성을 클릭하면 비디오 프레임 처리가 시작됩니다. 경고 시작 후에는 매우 어렵게 중단할 수 있으므로, 반드시 준비되었는지 확인하세요.
모든 프레임이 생성된 후, "Advanced Renamer"라는 프로그램을 사용해 생성된 이미지의 이름을 원래 포토그라메트리 이미지와 일치하도록 바꾸세요.
메인 설명의 주요 점에서 언급된 새 폴더의 images 폴더 안의 이미지를 복사하세요.

