LTX IMAGE to VIDEO with STG, CAPTION & CLIP EXTEND workflow

세부 정보

모델 설명

워크플로우: 이미지 -> 자동 캡션(Prompt) -> LTX 이미지에서 비디오로


2025년 7월 20일 업데이트: LTX 0.9.8용 GGUF 모델:

디스틸된 모델, V9.5와 호환: https://huggingface.co/QuantStack/LTXV-13B-0.9.8-distilled-GGUF/tree/main

개발용 모델, V9.0과 호환: https://huggingface.co/QuantStack/LTXV-13B-0.9.8-dev-GGUF/tree/main

(위 링크의 "Model Card"에서 LTX 0.9.8 VAE 및 textencoder 다운로드 정보 확인)


V9.5: LTX 0.9.7 디스틸된 워크플로우 – LTX 0.9.7 디스틸된 GGUF 모델 지원.

Florence를 사용한 워크플로우와 LTX 프롬프트 향상기(LTXPE)를 사용한 워크플로우가 있음.

GGUF 모델 다운로드:

https://huggingface.co/wsbagnsv1/ltxv-13b-0.9.7-distilled-GGUF/tree/main

VAETextencoder는 이전 LTX 0.9.6 모델과 동일함 (아래 V8.0 참조)

LTX 0.9.7 디스틸된 버전은 8단계만 사용하여 매우 빠름.


V9.0: LTX 0.9.7 워크플로우 – LTX 0.9.7 GGUF 모델 지원.

Florence를 사용한 워크플로우와 LTX 프롬프트 향상기(LTXPE)를 사용한 워크플로우가 있음.

GGUF 모델 다운로드:

https://huggingface.co/wsbagnsv1/ltxv-13b-0.9.7-dev-GGUF/tree/main

VAETextencoder는 이전 LTX 0.9.6 모델과 동일함 (아래 V8.0 참조)

LTX 0.9.7은 130억 파라미터 모델로, 이전 버전은 20억 파라미터만 had었기 때문에 VRAM 사용량이 더 많고 처리 시간이 더 길어짐. 매우 빠른 렌더링을 원한다면 아래 V8.0의 0.9.6 모델 또는 V9.5를 사용하세요.


V8.0: LTX 0.9.6 워크플로우 (동일한 워크플로우에 dev 및 distilled GGUF 모델 포함)

Florence2 캡션 버전과 LTX 프롬프트 향상기(LTXPE) 버전이 있음.

GGUF 모델(Dev & Distilled) 다운로드:

https://huggingface.co/calcuis/ltxv0.9.6-gguf/tree/main

VAE: pig_video_enhanced_vae_fp32-f16.gguf

Textencoder: t5xxl_fp32-q4_0.gguf


V7.0: LTX 0.9.5 모델 버전 – GGUF + Wavespeed/Teacache

LTX 0.9.5 GGUF 모델 및 VAE: https://huggingface.co/calcuis/ltxv-gguf/tree/main

(vae_ltxv0.9.5_fp8_e4m3fn.safetensors)

Clip Textencoder: https://huggingface.co/city96/t5-v1_1-xxl-encoder-gguf/tree/main

2개의 워크플로우가 있음: Florence 캡션만 사용하는 기본 버전과 Florence + LTX 프롬프트 향상기 버전. Wavespeed로 설정됨(기본적으로 비활성화, Strg+B로 활성화)

이 워크플로우는 모든 GGUF 모델(0.9 / 0.9.1 / 0.9.5)과 호환됨

프롬프트 향상기용 무심사 LLM: https://huggingface.co/skshmjn/unsloth_llama-3.2-3B-instruct-uncenssored


- 사용 중단됨 (2025년 3월) - V6.0: GGUF/TiledVAE 버전 & 마스크된 모션 블러 버전

GGUF 모델을 사용하여 VRAM 절약 및 실행 속도 향상.

표준 버전GGUF 모델만 사용하고, GGUF+TiledVae+Clear Vram 버전은 VRAM 요구량을 더 줄임. 1024 해상도, 161 프레임, 32 스텝으로 큰 GGUF 모델(Q8)을 테스트한 결과, GGUF 버전은 최대 14GB VRAM을 사용했고, TiledVae+ClearVram 버전은 최대 7GB를 사용함. 더 작은 GGUF 모델은 요구량을 더 줄일 수 있음.

GGUF 모델, VAE 및 Textencoder 다운로드:

(모델 & VAE): https://huggingface.co/calcuis/ltxv-gguf/tree/main

(안티 체크보드 VAE): https://huggingface.co/spacepxl/ltx-video-0.9-vae-finetune/tree/main

(Clip Textencoder): https://huggingface.co/city96/t5-v1_1-xxl-encoder-gguf/tree/main

VRAM이 16GB 이상이라면 GGUF 버전을, 16GB 미만이라면 TiledVae+ClearVram 버전을 사용하세요.

마스크된 모션 블러 버전: LTX는 모션 블러에 취약하므로, 입력 이미지에 마스크를 설정하고 마스크 영역에만 모션 블러를 적용하여 특정 움직임을 유도할 수 있는 추가 그룹을 워크플로우에 포함함. (이론상으로는 좋지만 실제 효과는 제한적임. 일부 경우에 유용함). GGUF 및 GGUF+TiledVAE+ClearVram 버전 모두 포함됨.


V5.0: 새로운 LTX 모델 0.9.1 지원

  • LowVram 버전 추가 (VAE 전에 VRAM을 클리어함)

  • LTX 모델 0.9.1과 LTX 모델 0.9를 비교할 수 있는 워크플로우 추가

(V4는 모델 출시 당시 0.9.1과 호환되지 않아 V5가 만들어졌음. 이후 ComfyUI 및 노드가 업데이트되어 현재 V4와 V5 모두 0.9 및 0.9.1 모델을 사용 가능. 두 버전은 모델 관리를 위한 자체 커스텀 노드가 다름. 그 외에는 동일함. 메모리 문제 또는 긴 처리 시간이 발생하면 아래 팁 참조)


- 사용 중단됨 (2025년 3월) - V4.0: 비디오/클립 확장 기능 도입

이전 클립의 마지막 프레임을 기반으로 클립을 확장할 수 있음. 품질 저하 전까지 약 2~3배 확장 가능. 워크플로우의 설명 참고.

Florence 캡션을 우회하고 자체 프롬프트를 사용할 수 있는 기능 추가.


V3.0: STG(Spatiotemporal Skip Guidance for Enhanced Video Diffusion Sampling) 도입

SIMPLEENHANCED 워크플로우 포함. ENHANCED 버전은 입력 이미지를 업스케일하는 추가 기능으로 일부 경우 유용함. SIMPLE 버전 사용 권장.

  • 높이/너비 노드를 "Dimension" 노드로 대체. 이 노드가 비디오 크기를 제어함 (기본값 = 768. 1024로 증가하면 해상도 향상, 그러나 움직임은 감소하고 VRAM 및 시간 소요 증가). 이전 버전과 달리 이미지가 자르기되지 않음.

  • 새 노드 "LTX Apply Perturbed Attention" 추가 (STG 설정 표현. 값 및 제한 사항은 워크플로우 내 설명 참고)

  • ENHANCED 버전은 입력 이미지를 업스케일할지 여부(true/false)를 선택하는 스위치와, 이미지 주입 전 크기를 정의하는 스케일 값(1 또는 2 사용)이 포함됨. 이는 슈퍼샘플링과 유사한 효과를 낼 수 있음. 대부분의 경우 불필요함.

프로 팁: 움직임을 유도하려면 CRF 값을 약 24로 설정하는 것 외에도, 노란색 "Video Combine" 노드의 프레임 속도를 1에서 4 이상으로 증가시키세요. 결과가 너무 정지 상태일 때 움직임을 더 크게 유도할 수 있음.

노드 "Modify LTX Model"은 세션 내에서 모델을 변경합니다. 다른 워크플로우로 전환할 때는 **ComfyUI에서 "Free model and node cache"**를 클릭하여 충돌을 방지하세요. 이 노드를 우회하면(Strg-B) Text2Video가 가능함.


V2.0: Florence2 자동 캡션을 사용한 이미지에서 비디오로의 ComfyUI 워크플로우 (v2.0)

이 업데이트된 워크플로우는 v1.0의 BLIP을 대체하여 Florence2를 자동 캡션에 통합하고, 비디오 생성에 특화된 프롬프트 조정을 위한 개선된 제어 기능을 포함함.

v2.0의 새 기능

  1. Florence2 노드 통합

  2. 캡션 사용자 정의

    • 새 텍스트 노드를 통해 캡션의 "photo" 또는 "image" 같은 단어를 "video"로 교체하여 프롬프트를 비디오 생성에 더 잘 맞춤화함.

V1.0: 압축을 통한 움직임 강화

LTX 비디오 모델의 "움직임 없음" 아티팩트 완화:

  • 입력 이미지를 FFmpeg를 사용하여 H.264 압축(CRF 20–30)으로 통과시킵니다.

    • 이 단계는 미세한 아티팩트를 도입하여 모델이 입력을 비디오처럼 인식하도록 돕습니다.

    • CRF 값은 노란색 "Video Combine" 노드(왼쪽 하단 GUI)에서 조정 가능합니다.

    • 높은 값(25–30)은 움직임 효과를 증가시키고, 낮은 값(~20)은 시각적 품질을 더 잘 유지합니다.

자동 캡션 강화

  • Pre-TextAfter-Text 텍스트 노드를 통해 캡션에 수동으로 추가할 수 있음.

    • 카메라 움직임과 같은 원하는 효과를 설명하는 데 사용하세요.

조정 가능한 입력 설정

  • 너비/높이 및 스케일: 샘플러를 위한 이미지 해상도 정의 (예: 768×512). 스케일 팩터 2는 고화질 출력을 위한 초샘플링을 가능하게 함. 스케일 값은 1 또는 2 사용. (V3에서 Dimension 노드로 변경됨)

프로 팁

  • 움직임 최적화: 출력이 정지 상태로 느껴지면 CRF 및 프레임 속도 값을 점진적으로 증가시키거나, Pre-/After-Text 노드를 조정하여 움직임 관련 프롬프트를 강조하세요.

  • 캡션 세분화: Florence2의 캡션 세부 수준을 실험하여 정교한 비디오 프롬프트를 생성하세요.

  • 메모리 문제(OOM 또는 극심한 처리 시간) 발생 시 다음을 시도하세요:

    • V5의 LowVram 버전 사용

    • GGUF 버전 사용

    • ComfyUI에서 "free model and node cache" 클릭

    • ComfyUI 시작 인자에 --lowvram --disable-smart-memory 추가

      • ComfyUI 폴더 내 파일 "run_nvidia_gpu.bat"에서 다음 줄 편집: python.exe -s ComfyUI\main.py --lowvram --disable-smart-memory
    • 브라우저의 하드웨어 가속 기능을 끕니다.


감사의 인사를 Lightricks에게 전합니다. 뛰어난 모델 및 노드를 제공해 주셔서 감사합니다:

https://www.lightricks.com/

https://github.com/Lightricks/ComfyUI-LTXVideo

https://github.com/logtd/ComfyUI-LTXTricks

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.