LTX-2 DEV - IMAGE to Video and TEXT to Video with Ollama
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
오디오 포함 LTX-2 DEV 비디오:
이미지에서 비디오로 및 텍스트에서 비디오로 워크플로우. 둘 다 자체 프롬프트 또는 Ollama에서 생성/개선된 프롬프트를 사용할 수 있습니다.
LTX2 Dev 모델용 설정.
품질 향상을 위해 Detailer LoRA 사용 및 OOM 및 시각적 그리드 방지를 위해 LTX 타일 VAE 사용
2단계 렌더링 (모션 + 업스케일). 업스케일 과정은 디스틸리드 및 공간 업스케일 LoRA 사용
비디오 및 오디오 품질 향상을 위해 최신 LTXVNormalizingSampler로 설정
텍스트에서 비디오로는 와일드카드를 사용한 동적 프롬프트 사용 가능
저는 OOM을 방지하기 위해 ComfyUI에 다음 시작 매개변수를 사용합니다 (제 설정: 16GB VRAM/64GB RAM):
--lowvram --cache-none --reserve-vram 6 --preview-method none
Sampler 서브그래프 노드 내에서 모델/LoRA 로더 노드를 찾으세요.
다운로드 파일:
- LTX2 Dev 모델 (dev_Fp8): https://huggingface.co/Lightricks/LTX-2/tree/main
- Detailer LoRA: https://huggingface.co/Lightricks/LTX-2-19b-IC-LoRA-Detailer/tree/main
- 디스틸리드(lora-384) 및 공간 업스케일러 LoRA: https://huggingface.co/Lightricks/LTX-2/tree/main
- VAE: https://huggingface.co/Lightricks/LTX-2/tree/main/vae
- Textencoder (fp8_e4m3fn): https://huggingface.co/GitMylo/LTX-2-comfy_gemma_fp8_e4m3fn/tree/main
- Ollama 모델:
(프롬프트만 읽음, 빠름): https://ollama.com/goonsai/josiefied-qwen2.5-7b-abliterated-v2
비전 포함 대체 모델 (입력 이미지+프롬프트 읽음, 느림): https://ollama.com/huihui_ai/qwen3-vl-abliterated
저장 위치:
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 checkpoints/
│ │ ├── ltx-2-19b-dev-fp8.safetensors
│ ├── 📂 text_encoders/
│ │ └── gemma_3_12B_it_fp8_e4m3fn.safetensors
│ ├── 📂 loras/
│ │ ├── ltx-2-19b-distilled-lora-384.safetensors
│ └── 📂 latent_upscale_models/
│ └── ltx-2-spatial-upscaler-x2-1.0.safetensors
사용된 사용자 정의 노드:
https://github.com/Lightricks/ComfyUI-LTXVideo
https://github.com/rgthree/rgthree-comfy
https://github.com/yolain/ComfyUI-Easy-Use
https://github.com/stavsap/comfyui-ollama
https://github.com/evanspearman/ComfyMath
텍스트에서 비디오로만:
https://github.com/KoinnAI/ComfyUI-DynPromptSimplified
Res2_s 샘플러 (선택 사항, Lightricks에서 권장하지만 느림, 대안 샘플러: euler, euler_ancest):

