LTX-2 DEV - IMAGE to Video and TEXT to Video with Ollama
详情
下载文件
关于此版本
模型描述
LTX-2 DEV 带音频视频:
图像到视频 和 文本到视频 工作流,均可使用自定义提示词或 Ollama 生成/增强的提示词。
针对 LTX2 Dev 模型 的设置。
使用 Detailer LoRA 提升画质,并采用 LTX 分块 VAE 以避免 OOM 和视觉网格。
两阶段渲染(运动+超分辨率)。超分辨率过程使用蒸馏 LoRA 和空间超分 LoRA。
配置使用最新的 LTXVNormalizingSampler 以提升视频和音频质量。
文本到视频支持使用通配符的动态提示词。
我使用以下 ComfyUI 启动参数以避免 OOM(我的配置:16GB 显存 / 64GB 内存):
--lowvram --cache-none --reserve-vram 6 --preview-method none
在 Sampler 子图节点中查找 Model/LoRA 加载节点。
下载文件:
- LTX2 Dev 模型(dev_Fp8):https://huggingface.co/Lightricks/LTX-2/tree/main
- Detailer LoRA:https://huggingface.co/Lightricks/LTX-2-19b-IC-LoRA-Detailer/tree/main
- 蒸馏(lora-384)及 空间超分 LoRA:https://huggingface.co/Lightricks/LTX-2/tree/main
- VAE(已包含在上述 dev_FP8 模型中,但若使用 GGUF 模型则需单独下载):https://huggingface.co/Lightricks/LTX-2/tree/main/vae
- Textencoder(fp8_e4m3fn):https://huggingface.co/GitMylo/LTX-2-comfy_gemma_fp8_e4m3fn/tree/main
- Ollama 模型:
(仅读取提示词,速度快):https://ollama.com/goonsai/josiefied-qwen2.5-7b-abliterated-v2
带视觉能力的替代模型(读取输入图像+提示词,速度较慢):https://ollama.com/huihui_ai/qwen3-vl-abliterated
保存位置:
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 checkpoints/
│ │ ├── ltx-2-19b-dev-fp8.safetensors
│ ├── 📂 text_encoders/
│ │ └── gemma_3_12B_it_fp8_e4m3fn.safetensors
│ ├── 📂 loras/
│ │ ├── ltx-2-19b-distilled-lora-384.safetensors
│ └── 📂 latent_upscale_models/
│ └── ltx-2-spatial-upscaler-x2-1.0.safetensors
使用的自定义节点:
https://github.com/Lightricks/ComfyUI-LTXVideo
https://github.com/rgthree/rgthree-comfy
https://github.com/yolain/ComfyUI-Easy-Use
https://github.com/stavsap/comfyui-ollama
https://github.com/evanspearman/ComfyMath
仅文本到视频:
https://github.com/KoinnAI/ComfyUI-DynPromptSimplified
Res2_s 采样器(可选,Lightricks 推荐,但较慢;替代采样器:euler、euler_ancest):

