WAN2.2 5B Ultimate Suite - T2V, I2V & T2I2V Pro

세부 정보

파일 다운로드

모델 설명

CivitAI에서 가장 진보되고 포괄적인 WAN2.2 5B 워크플로우입니다. 이 모든 것을 하나로 통합한 스위트는 로컬 LLM(Ollama)을 활용해 지능적이고 역동적인 프롬프트 강화를 통해 텍스트-비디오, 이미지-비디오, 텍스트-이미지-비디오 생성을 완벽하게 결합합니다. 기본 프롬프트 사용을 그만두고, 지능적인 모션 디자인으로 영화 같은 유동적인 애니메이션을 생성하세요.

워크플로우 설명

이 정교하게 설계된 기능 풍부한 ComfyUI 워크플로우로 WAN2.2 5B 모델의 잠재력을 최대한 발휘하세요. 이는 단순한 파이프라인이 아니라, 귀하의 아이디어와 놀라운 AI 생성 영상 사이의 간극을 지능적으로 연결하는 전문 콘텐츠 제작 스위트입니다.

이 워크플로우가 두드러지는 이유:

* 🤖 AI 기반 지능: 통합된 Ollama LLM이 텍스트나 이미지를 분석하여 WAN2.2의 비디오 기능에 특화된 풍부하고 역동적인 프롬프트를 생성합니다. 정적인 개념을 움직임, 조명, 영화적 생명력으로 가득 찬 설명으로 변환합니다.

* 🎬 멀티모달의 완성: 워크플로우를 변경하지 않고도 세 가지 강력한 생성 모드를 원활하게 전환할 수 있습니다.

* ⚙️ 최적화 및 안정성: 안정성과 효율성을 고려해 설계되었습니다. 자동 GPU 메모리 관리, 프레임 보간, 전문 비디오 출력 시스템이 포함되어 있습니다.

* 🔄 모든 기능 통합 파이프라인: 단순한 아이디어나 이미지에서 최종 부드러운 비디오 파일까지 모든 과정이 연결되고 자동화됩니다.

기능 및 기술적 세부사항

🧩 핵심 구성 요소:

* 모델: wan2.2_ti2v_5B_fp16.safetensors

* VAE: wan2.2_vae.safetensors

* 주요 LoRA: Wan2.2_5B_FastWanFullAttn(스타일 LoRA)

* 업스케일러: 입력 이미지 전처리용 통합

* 프레임 보간: 버터리처럼 부드러운 2배 프레임 생성을 위한 RIFE VFI (24fps 및 48fps 비디오 출력)

🔧 통합 AI 엔진(Ollama):

* 텍스트용(T2V): huihui_ai/gemma3-abliterated:12b-q8_0 – 단순한 텍스트를 분석하여 움직임, 카메라 워크, 분위기를 포함한 상세한 비디오 프롬프트를 생성합니다.

* 비전용(I2V): qwen2.5vl:7b-q8_0 – 제공된 이미지를 분석하여 콘텐츠에 맞는 최적의 애니메이션 프롬프트를 작성합니다.

* T2I용(Flux 그룹): gemma3:latest – 고품질 이미지 생성을 위한 단순한 텍스트 설명을 강화합니다. 이후 애니메이션화 가능합니다.

📊 출력:

* 해상도: 입력 이미지 크기 또는 정의된 잠재 공간 크기에 맞춰 조정됩니다.

* 프레임: 설정 가능한 길이(기본값: 121 프레임)

* 포맷: 적절한 메타데이터가 포함된 MP4(H.264)

* 이중 출력: 표준 24fps 및 보간된 48fps 비디오가 자동으로 저장됩니다.

사용 방법 / 실행 단계

사전 요구 사항:

1. ComfyUI Manager: 누락된 커스텀 노드를 설치하는 데 필수적입니다.

2. Ollama: 시스템에 설치되어 실행 중이어야 합니다. 필요한 LLM 모델(gemma3, qwen2.5vl)을 다운로드해야 합니다.

3. 모든 모델/LoRA: 워크플로우 내 모든 경로가 실제로 보유한 파일을 가리키는지 확인하세요. 가장 흔한 오류는 모델 누락입니다!

4. 커스텀 노드: 워크플로우는 ComfyUI Manager를 통해 누락된 노드 설치를 안내합니다. 주요 노드 세트는 다음과 같습니다:

* comfyui-ollama

* comfyui-videohelpersuite

* comfyui-frame-interpolation

* comfyui-easy-use

* gguf(Flux 로딩용)

사용 지침:

1. 텍스트-비디오(T2V)

1. 녹색 "여기에 간단한 프롬프트 입력" 노드를 찾습니다.

2. 텍스트를 교체하여 간단한 아이디어를 입력하세요(예: "비 오는 숲에서 검을 뽑는 기사").

3. OllamaConnectivityV2 노드가 Ollama 서버를 가리키는지 확인하세요(기본값: http://192.168.0.210:11434).

4. 프롬프트 큐잉. Ollama 노드가 상세한 영화적 프롬프트를 생성하고, 이 프롬프트를 바탕으로 비디오가 생성됩니다.

2. 이미지-비디오(I2V)

1. "이미지 로드" 노드에 시작 이미지를 업로드하세요.

2. 이미지는 Qwen 비전 모델에 의해 자동 분석됩니다.

3. Ollama 노드는 이미지 콘텐츠에 맞는 모션 프롬프트를 생성합니다.

4. 프롬프트 큐잉. 워크플로우는 AI가 생성한 설명에 따라 이미지를 애니메이션화합니다.

3. 텍스트-이미지-비디오(T2I2V)

1. 워크플로우 왼쪽에 있는 Flux/Krea 그룹을 사용하세요.

2. PrimitiveStringMultiline 노드에 생성하고 싶은 이미지에 대한 설명을 입력하세요(예: "정글에서 바나나를 먹고 있는 고릴라").

3. 프롬프트를 실행하세요. 이 그룹은 고품질 이미지를 생성합니다.

4. 이미지 생성 후, 수동으로 주 I2V 파이프라인에 연결하거나, 제공되는 "자동 마지막 프레임 추출" 그룹을 사용해 최근 생성된 이미지를 자동으로 찾아 애니메이션화하세요.

⏯️ 출력: 완성된 비디오는 ComfyUI의 output/video/ 폴더에 저장됩니다. 워크플로우는 첫 번째 프레임의 미리보기도 함께 저장합니다.

팁 및 트릭

* Ollama 서버: 이 워크플로우는 IP 192.168.0.210으로 사전 구성되어 있습니다. 모든 세 개의 OllamaConnectivityV2 노드에서 이 주소를 http://localhost:11434 또는 서버의 IP로 반드시 변경해야 합니다.

* 속도 대 품질: KSampler의 steps를 조정하세요(기본값: 8). 낮으면 빠르고, 높으면 품질이 향상될 수 있습니다.

* 제어: Ollama 노드를 완전히 생략할 수 있습니다. 직접 작성한 전문 프롬프트를 "CLIP Text Encode (Positive Prompt)" 노드에 직접 연결하세요.

* 문제 해결: 오류가 발생하면 ComfyUI 콘솔을 확인하세요. 대부분의 문제는 Ollama 서버 주소가 잘못되었거나 모델 파일이 누락되었을 때 발생합니다.

이 워크플로우는 접근 가능한 AI 영상 생성의 최전선을 보여줍니다. 확산 모델과 LLM을 결합하면 단일 모델로는 도달할 수 없는 훨씬 더 뛰어난 결과를 만들어냅니다.

창작을 즐기고, 놀라운 결과를 공유해 주세요!

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.