WAN 2.2 14B Multi-Phase I2V/T2V Workflow
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
WAN 2.2 14B 다단계 I2V/T2V 워크플로우: 전문 비디오 생성을 쉽게
동일한 최적화된 아키텍처로 이미지에서 비디오 및 텍스트에서 비디오 생성을 모두 지원
하드웨어 한계 극복
더 길고 고화질의 AI 비디오를 만들고 싶었지만 메모리 오류에 자주 부딪히셨나요? 이 워크플로우는 비디오 생성을 네 개의 독립적인 단계로 나누어 릴레이 경주처럼 작동함으로써 이 문제를 해결합니다. 각 단계는 자신의 역할을 수행하고, 자원을 정리한 후 다음 단계에 넘깁니다.
새로운 기능: 이 워크플로우에는 사용자 정의 WANSettingsController 노드가 포함되어 있어, 해상도나 화면비를 변경할 때 수십 개의 노드를 수동으로 업데이트해야 하는 번거로움을 없애고 모든 비디오 설정을 하나의 제어점으로 통합합니다.
이 워크플로우가 특별한 이유
이중 모드: 이미지에서 비디오 및 텍스트에서 비디오
이 워크플로우는 I2V(이미지에서 비디오) 및 T2V(텍스트에서 비디오) 생성을 모두 처리하도록 설계되었습니다:
이미지에서 비디오 모드 – 입력 이미지를 로드하면, 워크플로우가 네 단계의 정제 과정을 통해 움직임을 추가하고 해상도를 확대하며 프레임을 보간합니다. 네 단계는 모두 원활하게 연결되어 이전 단계의 결과를 기반으로 다음 단계를 수행합니다.
텍스트에서 비디오 모드 – CR 이미지 입력 스위치(4방향) 노드를 사용하여 이미지 입력을 비활성화하고, 텍스트 프롬프트만으로 비디오를 생성합니다. 이때 WildcardPromptFromString 노드가 핵심적입니다. T2V의 품질은 프롬프트에 달려 있으며, 와일드카드를 사용하면 대량 배치에서 다양한 고품질 변형을 생성할 수 있습니다.
중요한 T2V 제한 사항: I2V 모드에서는 단계가 비디오를 확장하거나 향상시킬 수 있지만, T2V는 여러 단계와 잘 어울리지 않습니다. 각 단계는 이전 생성을 이어가지 않고 텍스트 프롬프트로부터 새로운 장면을 생성하기 때문에 시각적 연속성이 깨집니다. T2V 생성 시에는 일반적으로 Phase 1만 사용하고, Fast Groups Bypasser를 사용하여 Phase 2-4를 비활성화하는 것이 좋습니다.
동일한 메모리 관리 및 배치 처리 기능이 두 모드 모두에서 동일하게 작동합니다. 야간 배치 처리 중 30개 이상의 T2V 생성을 안정적으로 실행할 수 있습니다.
다단계 아키텍처: 적은 자원으로 더 많은 작업 수행
대부분의 시스템을 충돌시키는 방대한 단일 작업으로 전체 비디오를 생성하려는 대신, 이 워크플로우는 네 개의 별도 비디오 생성 단계로 구성된 지능적인 단계 기반 접근 방식을 사용합니다:
4단계 시스템 – 각 단계는 완전한 WAN 비디오 생성 사이클을 실행합니다. 이를 통해 워크플로우는 다음을 가능하게 합니다:
- 여러 생성 사이클을 연결하여 더 긴 비디오 생성
- 관리 가능한 청크로 처리하여 VRAM 한계 극복
- 배치 처리 중 충돌을 방지하기 위해 단계 간 메모리 정리
동작 방식: 각 WanImageToVideo 노드는 비디오 세그먼트를 생성합니다. 한 단계의 출력은 다음 단계로 입력되어 단일 생성으로는 달성할 수 없는 비디오 길이를 확장할 수 있습니다. 각 단계 사이에서는 RAM 클리너와 모델 언로더가 메모리를 해제하여 다음 생성 사이클을 위한 시스템을 리셋합니다.
실제 생산 활용 사례:
- 1단계 = 빠른 단일 생성, T2V 워크플로우 (~6-8초)
- 2단계 = 표준 생산 최적 지점 (~12초, 라이트닝 모델 사용 시 약 15-20분)
- 3-4단계 = 긴 쇼케이스 비디오 (~20-34초, 생성 시간 연장)
대부분의 일상 생산 작업은 효율성과 속도를 위해 1-2단계를 사용합니다. 라이트닝 기반 모델로 2단계를 사용하면 약 1시간에 3개의 12초 비디오를 생성할 수 있어 야간 배치 실행 시 30~50개 이상의 비디오를 생성할 수 있습니다. 3-4단계 기능은 특별 프로젝트용으로 더 긴 콘텐츠가 필요할 때 사용합니다.
독립성의 힘: 각 단계는 Fast Groups Bypasser 노드를 통해 개별적으로 또는 그룹으로 비활성화할 수 있습니다. 빠른 단일 생성만 필요하다면 Phase 1만 사용하세요. 더 긴 비디오를 원한다면 여러 단계를 활성화하세요. 이 모듈러 설계로 불필요한 처리 시간과 자원을 낭비하지 않고 정확히 필요한 설정만 조정할 수 있습니다.
참고: 이 단계 유연성은 단계가 서로를 이어가는 I2V 워크플로우에서 특히 강력합니다. 반면 T2V 워크플로우에서는 각 단계 재시작이 새로운 장면을 생성하기 때문에 일반적으로 Phase 1만 사용합니다.
메모리 관리: 비밀 무기
이 워크플로우는 전략적 지점에 공격적인 RAM 및 VRAM 정리 기능을 포함합니다:
RAM 클리너 (SoftFullCleanRAMAndVRAM) – 단계 사이에 배치되어 메모리 서서히 누적로 인한 배치 처리 충돌을 방지합니다. 이 노드는 각 단계를 깨끗한 상태로 시작하게 합니다.
모델 언로더 (SoftModelUnloader) – 필요 없어진 모델을 VRAM에서 적극적으로 제거합니다. 야간 대량 배치 실행 시 비디오 메모리 부족을 방지하는 데 필수적입니다.
실행 순서 컨트롤러 (ImpactExecutionOrderController) – 정확한 시점에 정리가 이루어지도록 강제하며, 한 단계를 완전히 마친 후 다음 단계로 넘어가도록 워크플로우를 제어합니다.
트레이드오프: 이러한 정리 노드는 각 생성 사이클에 시간을 추가합니다. 다음 배치 시작 시 모델을 디스크에서 다시 로드해야 하기 때문입니다. 그러나 이는 전략적 선택입니다. 비디오당 몇 초를 더 소비하여 모델을 다시 로드하는 것이, 메모리 부족으로 인해 배치가 15번째 비디오에서 충돌하는 것보다 훨씬 낫습니다. 야간에 30개 이상의 비디오를 생성할 때 신뢰성은 절대적으로 속도보다 우선됩니다.
이러한 요소들이 결합되어 메모리를 가득 채우지 않고도 단일 배치에서 수십 개에서 수백 개의 비디오를 처리할 수 있는 시스템을 만듭니다. 이는 컴퓨터를 지켜보는 것과 아침에 완성된 작업을 마주하는 차이입니다.
LoRA 관리 시스템
LoRA 로더 (LoraManager) – 적용된 LoRA, 강도, 트리거 단어를 추적하는 정교한 LoRA 로딩 시스템입니다. 단순히 LoRA를 로드하는 것을 넘어서 지능적으로 관리합니다.
디버그 메타데이터 (LoraManager) – Civitai 및 기타 플랫폼과 호환되는 모든 LoRA 정보를 메타데이터로 캡처합니다. 비디오를 업로드할 때 다른 사용자가 정확히 어떤 LoRA를 사용했는지 확인할 수 있습니다.
트리거 단어 토글 – 프롬프트를 편집하지 않고도 LoRA 트리거 단어를 쉽게 활성화/비활성화할 수 있어 빠른 A/B 테스트가 가능합니다.
중앙 제어: WAN 설정 컨트롤러 (사용자 정의 노드)
WanSettingsController는 이 워크플로우 전용으로 사용자 정의된 노드입니다. 복잡한 비디오 워크플로우에서 가장 큰 고통의 원인인 수십 개의 연결된 노드에 걸쳐 설정을 변경해야 하는 문제를 해결합니다.
해결하는 문제: 전통적인 워크플로우에서는 비디오 해상도를 조정하려면 캔버스를 뒤져서 너비/높이/프레임 설정이 필요한 모든 노드를 찾아 수동으로 업데이트해야 합니다. 단 하나의 노드라도 놓치면 워크플로우가 깨집니다. 화면비를 변경하고 싶다면 다시 이 과정을 반복해야 합니다.
해결책: 이 사용자 정의 컨트롤러는 당신의 명령 센터입니다. 수십 개의 노드를 찾아다니지 않고, 하나의 드롭다운 메뉴만 조정하면 워크플로우 전체가 자동으로 업데이트됩니다.
주요 기능:
- 24개 사전 검증된 해상도 – 모바일에 최적화된 576×1024 세로 화면에서 영화 수준의 1920×1080 가로 화면까지, 모든 해상도는 WAN 2.2 14B와 호환되도록 테스트 및 확인되었습니다.
- 차원 고정 – 모든 해상도는 WAN의 기술적 요구사항인 16의 배수로 수학적으로 고정되어 있어 잘못된 설정으로 워크플로우가 깨지는 일이 없습니다.
- 화면비 라벨 – 각 해상도는 명확하게 화면비(9:16, 16:9, 1:1 등)를 표시하여 정확히 무엇을 얻는지 알 수 있습니다.
- 최적화된 기본값 – 품질 대 성능의 최적 지점으로 960×1216(10:16) 해상도가 표시됩니다.
- 다섯 개의 출력, 하나의 소스 – 너비, 높이, 길이(프레임 수), 프레임 레이트, 배치 크기가 이 하나의 노드에서 필요한 모든 곳으로 자동 전달됩니다.
실제 영향: 해상도를 5분이 아니라 1초 만에 변경하세요. 워크플로우를 다시 연결하지 않고 다양한 해상도를 테스트하세요. 하나의 드롭다운 선택만으로 세로에서 가로로 확장하세요.
이건 단순한 편의가 아닙니다. 생산 규모에서 테스트와 반복을 실제로 가능하게 만듭니다. 하루에 50개 이상의 비디오를 생성할 때 이 노드는 수 시간의 워크플로우 관리 시간을 절약합니다.
노드 유형 설명 (기본 구성 요소)
사용자 정의 워크플로우 제어
WanSettingsController – 이 워크플로우 전용으로 개발된 사용자 정의 노드입니다. 24개의 사전 검증된 WAN 호환 해상도를 통해 모든 비디오 설정을 하나의 제어점으로 통합합니다. 컨트롤 패널에 흩어져 있는 수십 개의 다이얼을 하나의 주 제어 다이얼로 교체하는 것과 같습니다. 해상도 드롭다운을 변경하면 너비, 높이, 길이, 프레임_레이트, 배치_사이즈 출력이 워크플로우 전체에 자동으로 업데이트됩니다. 이는 여러 노드에 수동으로 설정을 업데이트하는 번거롭고 오류가 발생하기 쉬운 과정을 제거합니다. 이 노드는 세로 방향(576×1024에서 1080×1920), 정사각형 형식(768×768, 1024×1024), 가로 방향(832×480에서 1920×1080)을 모두 포함하며, 모두 WAN 2.2 14B와 호환되며 16픽셀 배수로 고정되어 있습니다. 이 단일 혁신으로 워크플로우 반복을 번거로운 작업에서 단일 클릭으로 전환합니다.
핵심 처리 노드
KSamplerAdvanced (8개 인스턴스) – 확산 모델을 사용하여 이미지 및 비디오 프레임을 실제로 생성하는 주요 노드입니다. 이 노드들은 AI의 창의적 과정을 담당하여 노이즈를 일관된 시각적 이미지로 점진적으로 정제합니다.
WanImageToVideo (4개 인스턴스) – WAN 2.2 14B 모델을 사용하여 이미지를 비디오로 변환하는 전용 노드입니다. 각 인스턴스는 비디오 생성 파이프라인의 한 단계를 담당합니다.
VAEDecode (4개 인스턴스) – AI가 작업하는 압축 형식(잠재 공간 표현)을 실제 픽셀로 변환합니다. 모든 이미지는 시각화되기 전에 VAE를 통과해야 합니다.
비디오 생성 및 내보내기
CreateVideo (5개 인스턴스) – 개별 프레임을 비디오 파일로 결합하고 프레임 레이트, 코덱 및 타이밍을 처리합니다.
SaveVideo (5개 인스턴스) – 적절한 이름과 메타데이터로 완성된 비디오를 드라이브에 저장합니다.
RIFE VFI – 광학 흐름 추정을 사용하여 부드러운 중간 프레임을 생성하는 프레임 보간 엔진으로, 효과적인 프레임 레이트를 두 배(또는 그 이상)로 증가시킵니다.
워크플로우 조직
ReroutePrimitive|pysssss (46개 인스턴스) – 전기 배선의 접속함과 같습니다. 캔버스 전체를 가로지르는 복잡한 케이블 없이 원격 노드를 연결할 수 있게 해줍니다. 복잡한 워크플로우를 가독성 있게 유지하는 데 필수적입니다.
Fast Groups Bypasser (rgthree) – 단계 제어판입니다. 이 하나의 노드로 전체 노드 그룹을 활성화/비활성화할 수 있어 특정 단계를 테스트하거나 불필요한 처리를 건너뛸 수 있습니다.
Power Primitive (rgthree) – 여러 입력에 동시에 값을 전달할 수 있는 더 스마트한 프리미티브 노드로, 혼잡을 줄입니다.
ImpactExecutionOrderController (4개 인스턴스) – 특정 실행 순서를 강제하여 메모리 정리가 무작위로 이루어지지 않고 단계 사이에서 정확히 이루어지도록 합니다.
이미지 처리
ImageScale – 품질을 유지한 채 이미지 크기를 조정하며, 업스케일링 단계에서 사용됩니다.
ImageFromBatch – 배치 처리에서 개별 이미지를 추출하여 미리보기 및 품질 확인에 유용합니다.
ImageBatchMulti (3개 인스턴스) – 여러 이미지를 하나의 배치로 결합하여 효율적인 처리를 가능하게 합니다.
CR 이미지 입력 스위치 (4방향) – 네 개의 다른 입력 이미지를 전환하거나 텍스트에서 비디오 생성을 위해 이미지 입력을 완전히 비활성화할 수 있는 핵심 라우터입니다. 이는 I2V/T2V 모드 선택기입니다. 순수 T2V를 원할 때 이 노드가 이미지 입력을 차단하고 모델이 프롬프트만으로 생성하도록 합니다. 모드 전환을 위해 다시 연결할 필요가 없습니다.
PreviewImage (3개 인스턴스) – 최종 출력을 기다리지 않고 생성 중에 이미지를 표시하여 진행 상황을 모니터링합니다.
텍스트 및 프롬프트 처리
CLIPTextEncode (2개 인스턴스) – 텍스트 설명을 AI가 이해할 수 있는 수학적 형식(임베딩)으로 변환합니다.
Power Prompt - Simple (rgthree) – 더 나은 서식 및 구성 옵션을 제공하는 향상된 프롬프트 노드입니다.
WildcardPromptFromString – T2V 생성에 필수적입니다. 와일드카드(예: {형용사}, {동작}, {조명})를 사용하여 프롬프트를 랜덤화하고 대량 배치에서 다양한 변형을 생성할 수 있게 합니다. 텍스트에서 비디오 모드에서는 프롬프트 품질이 전부입니다. 평범한 프롬프트는 평범한 결과를 낳고, 전략적으로 설계된 와일드카드를 사용한 세심한 프롬프트는 유용하고 매력적인 비디오를 생성합니다. 이 노드는 배치 다양성의 비밀 무기입니다: 30개의 동일한 비디오를 생성하는 대신, 다양한 설명 요소를 랜덤으로 결합하여 30개의 고유한 변형을 생성합니다. T2V 워크플로우에서 품질과 다양성을 유지하는 데 필수적입니다.
JoinStringMulti – 여러 텍스트 문자열을 하나로 결합하여 모듈식 구성 요소로 복잡한 프롬프트를 빌드하는 데 유용합니다.
모델 로딩
UNETLoader (2개 인스턴스) – WAN 2.2 14B 모델 구성 요소를 로드합니다. WAN 14B는 비디오 생성 중 함께 작동하는 두 개의 별도 모델(“high” 모델과 “low” 모델)이 필요합니다. 두 개의 UNET 로더는 WAN 워크플로우에 필요한 두 모델 구성 요소를 로드합니다.
CLIPLoader - AI가 이해할 수 있는 개념으로 단어를 변환하는 텍스트 인코더를 로드합니다.
VAELoader - 잠재 공간과 픽셀 공간 간에 변환하는 VAE(Variational Autoencoder)를 로드합니다.
CLIPSetLastLayer - 텍스트 인코더에서 사용할 레이어 수를 조절하여 AI가 프롬프트를 얼마나 문자 그대로 해석할지를 세밀하게 조정할 수 있습니다.
ModelSamplingSD3 (2개 인스턴스) - Stable Diffusion 3 아키텍처 모델의 샘플링 동작을 구성하여 생성 품질과 특성을 제어합니다.
유틸리티 노드
MathExpression|pysssss (3개 인스턴스) - 워크플로우 내 값에 대한 계산을 수행하여 동적 프레임 수, 해상도 조정 및 매개변수 조정에 유용합니다.
VHS_GetImageCount (3개 인스턴스) - 비디오 시퀀스의 프레임 수를 계산하여 단계 조정 및 일괄 처리에 필수적입니다.
활성 단계 수 - 핵심 제어 노드로, 실제로 사용하는 단계 수(1-4)와 정확히 일치하도록 설정해야 합니다. Phase 1만 사용한다면 1로 설정하고, Phase 1-3을 사용한다면 3으로 설정하세요. 이 노드는 워크플로우 실행을 조정하며, Fast Groups Bypasser 설정과 반드시 일치해야 합니다. 이 값을 제대로 설정하지 않으면 워크플로우 오류가 발생합니다.
MarkdownNote - 워크플로우의 각 섹션이 무엇을 하는지 메모를 작성할 수 있는 문서 노드입니다. 복잡한 설정에 매우 유용합니다.
ShowText|pysssss - 디버깅 및 설정이 올바른지 확인하기 위해 텍스트 값을 표시합니다.
SaveImageWithMetaData - 생성 매개변수를 이미지에 내장하여 언제든지 결과를 재현할 수 있도록 합니다.
메모리 관리 (핵심!)
SoftFullCleanRAMAndVRAM|LP (2개 인스턴스) - 시스템 RAM과 GPU VRAM을 공격적으로 해제하여 일괄 처리 중 메모리 누수를 방지합니다. 네, 이로 인해 각 새 생성 시작 시 모델을 다시 로드하는 데 몇 초가 추가되지만, 신뢰성의 대가입니다. 이러한 클리너 없이 작업하면 30개 이상의 비디오를 밤새 완료하지 못하고 중간에 크래시가 발생합니다.
SoftModelUnloader|LP - 더 이상 필요하지 않은 모델을 VRAM에서 제거하여 다음 단계를 위한 공간을 확보합니다. 모델 재로드 시간은 크래시로 인해 잃게 될 수 있는 수 시간에 비하면 미미합니다.
전체적인 그림: 모두가 어떻게 함께 작동하는가
이 워크플로우를 공장의 생산 라인처럼 생각해보세요:
원료가 들어옵니다 (WanSettingsController에서 입력된 이미지/프롬프트 및 설정)
스테이션 1(Phase 1) - 완전한 비디오 생성 사이클을 실행합니다
정리팀 - 작업 공간을 정리합니다(RAM/VRAM 클리닝)
스테이션 2(Phase 2) - 또 다른 비디오 생성 사이클을 실행합니다(선택 사항—비활성화 가능)
정리팀 - 다시 작업 공간을 정리합니다
스테이션 3(Phase 3) - 또 다른 생성 사이클을 실행합니다(선택 사항—비활성화 가능)
최종 정리
스테이션 4(Phase 4) - 최종 생성 사이클을 실행합니다(선택 사항—비활성화 가능)
품질 검사(미리보기 노드가 결과를 표시)
출하(SaveVideo가 최종 파일을 저장)
각 스테이션은 독립적으로 완전한 WAN 생성 사이클을 실행합니다. 스테이션이 필요 없다면 Fast Groups Bypasser로 끄세요. 여러 제품(일괄 처리)을 실행하는 경우, 정리팀이 생성 사이클 사이에 작업 공간이 혼잡해지지 않도록 합니다.
왜 이것이 중요한가?
초보자에게: 복잡한 작업은 내부에서 자동 처리되는 전문 워크플로우를 제공합니다. 한 가지 설정만 변경해도 신뢰할 수 있는 결과를 얻을 수 있습니다. 빠른 성과를 원한다면 1-2단계부터 시작하세요.
경험자에게: 각 단계를 세밀하게 제어할 수 있으며, 필요 없는 부분을 비활성화하고 크래시 없이 대규모 일괄 처리를 수행할 수 있습니다. 사용 사례에 맞게 최적화하세요—량을 위해 빠른 12초 비디오를 생성하거나, 품질이 중요할 때는 더 긴 쇼케이스 영상을 제작하세요.
모든 사용자에게: 더 긴 비디오, 더 높은 해상도, 더 부드러운 움직임을 제공하며, 메모리 부족 없이 밤새 작업을 실행할 수 있습니다. 라이트닝 모델을 사용하면 2단계로 약 시간당 3개의 12초 비디오를 생성할 수 있어, 밤새 30~50개 이상의 비디오를 일괄 처리할 수 있습니다.
이 워크플로우는 수개월에 걸친 최적화, 테스트 및 문제 해결을 담은 “단순히 작동하는” 시스템입니다. 소셜 미디어 콘텐츠 제작, LoRA 테스트, 또는 AI 비디오 생성의 경계를 확장하든, 이 워크플로우는 효율적이고 신뢰할 수 있는 도구를 제공합니다.
기술적 요구 사항
WAN 2.2 14B 모델 지원이 포함된 ComfyUI
WAN 2.2 14B 모델: “high” 및 “low” 모델 파일 두 개 모두 필요합니다(WAN 14B는 두 모델 시스템입니다)
VRAM: 기본 운영 최소 12GB, 높은 해상도에는 16GB 이상 권장
RAM: 일괄 처리에는 32GB 이상 권장
필요한 커스텀 노드:
ComfyUI-Impact-Pack (실행 컨트롤러용)
ComfyUI-Custom-Scripts (수학 표현식용)
rgthree-comfy (파워 노드 및 바이패서용)
LitePicker/ComfyUI-MemoryManagement (RAM/VRAM 클리너용)
LoraManager 노드
WAN Settings Controller (커스텀 노드 - 이 워크플로우에 포함됨!)
RIFE VFI 노드
Video Helpers Suite
시작하기
WAN Settings Controller(커스텀 노드) 설치
커스텀 WanSettingsController 노드는 wan_settings_controller.py로 제공됩니다. 설치 방법:
wan_settings_controller.py를ComfyUI/custom_nodes/디렉토리에 복사하세요ComfyUI를 재시작하세요
노드가
video/settings카테고리에 나타납니다
완료! 이 노드는 내장된 24개의 검증된 해상도를 포함한 자체 포함형입니다. 기본 ComfyUI 외에는 다른 종속성이 필요 없습니다.
워크플로우 실행
이미지에서 비디오로(I2V):
모든 필요한 커스텀 노드 설치 (위 기술적 요구 사항 참조)
WanSettingsController 커스텀 노드 설치
ComfyUI에서 워크플로우 로드
WanSettingsController 드롭다운에서 원하는 해상도 선택
"활성 단계 수" 노드를 사용 중인 단계 수(1-4)와 일치하게 설정하세요
Phase 1만 사용 중이라면 1로 설정
Phase 1-3을 사용 중이라면 3으로 설정
이 값은 Fast Groups Bypasser로 활성화한 단계와 반드시 일치해야 합니다
CR Image Input Switch를 사용하여 입력 이미지 로드
Fast Groups Bypasser를 사용하여 필요에 따라 단계를 활성화/비활성화
대기열에 추가하고 실행하세요!
텍스트에서 비디오로(T2V):
위 1-4단계를 따르세요
"활성 단계 수" 노드를 1로 설정하세요(T2V는 Phase 1만 사용)
CR Image Input Switch를 사용하여 이미지 입력을 비활성화
Fast Groups Bypasser를 사용하여 Phase 2-4를 비활성화하세요
각 단계는 프롬프트에서 새로운 장면을 생성하여 연속성을 깨뜨립니다
T2V 생성에는 Phase 1만 사용하세요
WildcardPromptFromString 노드를 사용하여 프롬프트 작성
변이를 위해 와일드카드 사용:
{lighting|golden hour|dramatic shadows|soft diffused}모듈식 프롬프트 구성:
{subject} in {location}, {camera angle}, {mood}기억하세요: T2V 품질은 프롬프트 품질에 크게 의존합니다—여기에 시간을 투자하세요
일괄 처리를 대기열에 추가하고 결과를 검토하세요
T2V 프로 팁: Phase 1만 사용하므로, 다단계 I2V보다 훨씬 빠르게 생성됩니다. 이는 빠른 반복과 테스트에 이상적이며, 와일드카드를 최적화한 후 대규모 일괄 처리로 확장할 수 있습니다.
워크플로우는 메모리 관리, 단계 조정, 그리고 지속적인 감독 없이 고품질 비디오를 생성하는 나머지 작업을 처리합니다.
이 워크플로우는 학습과 생산 모두를 위해 설계되었습니다. 단계 간의 상호작용을 연구하고, 다양한 섹션을 비활성화해 보며, 준비가 되면 대규모 일괄 처리로 확장하세요. 모듈식 설계로 하루부터 하나의 구성 요소씩 이해하면서도 완전하고 작동하는 시스템을 갖게 됩니다.
