JBOOGX & MACHINE LEARNER ANIMATEDIFF WORKFLOW - Vid2Vid + ControlNet + Latent Upscale + Upscale ControlNet Pass + Multi Image IPAdapter + ReActor Face Swap
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
JBOOGX & MACHINE LEARNER ANIMATEDIFF 워크플로우에 오신 것을 환영합니다!
워크플로우의 전체 YouTube 튜토리얼:
1/8 업데이트
저해상도 및 업스케일러에 ReActor 얼굴 교체 기능을 추가했습니다. rgthree 노드 팩을 사용하여 바이패스/사용 활성화 토글 스위치를 추가했습니다.
12/7 업데이트
이 버전에 관해
v2는 몇 가지 생활 향상 변경 사항과 업데이트를 포함합니다.
사용하지 않으려는 ControlNet을 쉽게 바이패스할 수 있도록 모든 ControlNet을 개별 그룹으로 분리했습니다.
IPAdapter에서 다음 파일을 다운로드하여 comfyui\clip_vision 디렉토리에 위치시켜 주세요. 이 파일은 'LOAD Clip Vision' 노드용입니다.
https://drive.google.com/file/d/13KXx6u9JpHnWdemhqswRQJhVqThEE-7q/view?usp=sharing
'LOAD IPAdapter Model' 노드용 IPAdapter Plus 1.5 모델은 다음 링크에서 찾을 수 있습니다.
https://github.com/cubiq/ComfyUI_IPAdapter_plus
업스케일링을 하지 않으려면 오른쪽 하단의 모든 업스케일링 그룹을 바이패스하세요.
이상입니다 :)
워크플로우로 만든 작업물은 꼭 저를 태그해 주세요. 제가 소셜 미디어에 공유하겠습니다!
Instagram: @jboogx.creative
---------------------------------------------
면책 조항: 이 워크플로우는 초보자에게 적합하지 않습니다. 초보자라면 아래 링크된 @Inner_Reflections_Ai의 vid2vid 워크플로우부터 시작하세요:
많은 요청에 따라, 제가 스트리밍에서 사용하는 이 워크플로우를 공개적으로 공유하기로 결정했습니다. 이 워크플로우는 다음과 같은 기능을 제공합니다...
-------------------------------------------------
Vid2Vid + Control Nets - 사용하지 않을 경우 해당 노드를 바이패스하고 필요한 모든 CN 및 전처리기를 추가하세요. 포함된 노드는 제가 가장 자주 사용하는 것들입니다.
잠재 공간 업스케일링 - 테스트 중 업스케일링을 하지 않을 경우, 모든 업스케일링 그룹과 잠재 공간 업스케일링 비디오 결합 노드를 반드시 바이패스하세요.
잠재 공간 업스케일링 중 두 번째 ControlNet 패스 - 최선의 방법은 첫 번째 패스에서 사용한 ControlNet과 동일한 강도와 가중치를 적용하는 것입니다.
여러 이미지 IPAdapter 통합 - 이 노드들을 바이패스하지 마세요. 그렇지 않으면 작동하지 않습니다. 하단의 각 IPAdapter 이미지 노드에 이미지를 삽입하세요. IPAdapter를 스타일 또는 이미지 참조로 사용하지 않을 경우, 가중치와 강도를 0으로 낮추면 자동으로 비활성화됩니다.
QR 코드 환상 렌더링 - 이를 수행하려면 흑백 알파 채널을 입력 영상으로 사용하고, 유일한 ControlNet으로 QR Code Monster를 사용하세요.
-------------------------------------------------
이 워크플로우는 **_@Inner_Reflections_AI_**가 Civitai 기사에서 공개한 기본 vid2vid 워크플로우를 기반으로 제작되었습니다. 이 워크플로우를 완성하는 데 다양한 부분에서 도움을 주신 재능 있는 아티스트들(Instagram 핸들)은 다음과 같습니다:
@lightnlense
@pxl.pshr
@machine.delusions
@automatagraphics
@dotsimulate
이 분들의 도움 없이 저는 이 워크플로우를 통해 이렇게 많은 영상 제작의 즐거움을 누릴 수 없었을 것입니다. 저는 기술적으로 가장 능숙한 사람은 아니므로, 커뮤니티에서의 피드백이나 추가 개선 제안을 매우 환영합니다(그래서 지금 이 워크플로우를 공유하는 것입니다).
일부 노드를 다운로드해야 할 수 있으며, 모두 Comfy Manager를 통해 접근 가능할 것입니다(제 생각에는요). 현재 작업 중인 내용에 따라 LoRAs, ControlNets, 업스케일링 등을 필요에 따라 자유롭게 바이패스할 수 있습니다. 노드에 중급에서 고급 수준의 지식이 있다면, 기능을 켜고 끌 때 발생할 수 있는 오류를 더 쉽게 해결할 수 있습니다. 완전한 초보자라면, 제가 ComfyUI를 처음 이해할 수 있었던 유일한 방법이었던 **_@Inner_Reflections_AI_**의 기본 vid2vid 워크플로우부터 시작하는 것을 권장합니다.
ZIP 파일에는 워크플로우 .json 파일과 ComfyUI 작업 공간에 간단히 드래그하여 로드할 수 있는 PNG 파일이 포함되어 있습니다. ComfyUI 매니저를 통해 많은 노드를 다운로드할 준비를 해 주세요.
문제나 질문이 있으면 여유가 생길 때 언제든지 도와드리겠습니다 🙂
이 워크플로우로 멋진 것을 만들었다면, IG에서 저를 태그해 주세요. 저도 여러분의 작품을 공유하고 싶습니다. 또한, 이 워크플로우나 제 Vision Weaver GPT에서 어떤 가치를 얻었다면 팔로우해 주시면 정말 감사하겠습니다 🙂 사용해보고 좋아한다면, 멋진 리뷰와 별점을 남겨주세요!
@jboogx.creative

