Multi Image To Video Workflow for ComfyUI
세부 정보
파일 다운로드
모델 설명
안녕하세요, 크리에이터 여러분!
저는 제 프로젝트를 위해 개발한 워크플로우를 여러분과 공유하고 싶습니다. 이 워크플로우는 새로운 IP Adapter를 사용하여 여러 이미지 간을 부드럽게 애니메이션화하며, GPU와 비디오 길이에 따라 렌더링 시간이 단 3분에서 15분 사이입니다. 이는 Live Portrait에 사용할 비디오를 제작하는 데 완벽합니다.
줌 인/아웃 효과를 얻으려면, 포함된 Photoshop 스크립트를 사용하거나, 이미지 자르기를 도와주는 작은 앱 역할을 하는 Python 스크립트를 사용할 수 있습니다. 이 스크립트는 매우 재미있고 유용하며, Photoshop이 필요 없도록 해줍니다. 두 옵션을 사용하는 방법에 대한 비디오 가이드도 제공됩니다.
사용 전에는 중요한 세부 사항을 위해 YouTube 비디오를 꼭 확인하세요.
다음은 이 워크플로우에서 사용하는 리소스들입니다.
ControlNet 체크포인트: 여기서 다운로드
LoRA 모델 (Google Drive 링크): 여기서 다운로드
Animate Diff LCM 모델: 여기서 다운로드 (Google Drive 링크에도 포함됨)
이 리소스들을 사용하면 유사한 결과를 얻을 수 있습니다. 최고의 사실적 표현을 원하신다면 이 체크포인트를 사용하는 것을 권장하며, 반 사실적 또는 만화 스타일 효과를 원하신다면 이 모델이 매우 훌륭하게 작동합니다.
전체 워크플로우를 안내하고 중요한 노트 및 설정을 공유하는 저의 YouTube 영상을 꼭 시청하세요.
추가 노트:
프롬프트는 결과에 큰 영향을 미칩니다. 비디오 내 일관성을 유지하려면 프롬프트를 원본 이미지와 가까이 맞추거나, "헤드샷 사진, 여자, [머리색], [배경색]"과 같은 간단한 프롬프트를 사용해 보세요. 다양한 효과를 위해 다양한 프롬프트를 실험해 보세요. 서로 다른 이미지 간의 변형을 할 때 "HD"나 "4K"와 같은 용어를 사용하면 일반적으로 최상의 결과를 얻을 수 있습니다.
업데이트:
YouTube 비디오에서는 "Alternate batches"를 사용하고 있지만, 이는 잘못된 정보입니다. IPAdapter에서는 반드시 "Full batch"를 사용해야 합니다. "Alternate"는 이미지를 건너뜁니다.
