LTX-2 DEV - IMAGE to Video and TEXT to Video with Ollama

详情

模型描述

LTX-2 DEV 带音频视频:

图像到视频文本到视频 工作流,均可使用自定义提示词或 Ollama 生成/增强的提示词。

  • 针对 LTX2 Dev 模型 的设置。

  • 使用 Detailer LoRA 提升画质,并采用 LTX 分块 VAE 以避免 OOM 和视觉网格。

  • 两阶段渲染(运动+超分辨率)。超分辨率过程使用蒸馏 LoRA 和空间超分 LoRA。

  • 配置使用最新的 LTXVNormalizingSampler 以提升视频和音频质量。

  • 文本到视频支持使用通配符的动态提示词。

我使用以下 ComfyUI 启动参数以避免 OOM(我的配置:16GB 显存 / 64GB 内存):

--lowvram --cache-none --reserve-vram 6 --preview-method none

在 Sampler 子图节点中查找 Model/LoRA 加载节点。


下载文件:

- LTX2 Dev 模型(dev_Fp8):https://huggingface.co/Lightricks/LTX-2/tree/main

- Detailer LoRA:https://huggingface.co/Lightricks/LTX-2-19b-IC-LoRA-Detailer/tree/main

- 蒸馏(lora-384)及 空间超分 LoRA:https://huggingface.co/Lightricks/LTX-2/tree/main

- VAE(已包含在上述 dev_FP8 模型中,但若使用 GGUF 模型则需单独下载):https://huggingface.co/Lightricks/LTX-2/tree/main/vae

- Textencoder(fp8_e4m3fn):https://huggingface.co/GitMylo/LTX-2-comfy_gemma_fp8_e4m3fn/tree/main

- Ollama 模型:

保存位置:

📂 ComfyUI/

├── 📂 models/

│ ├── 📂 checkpoints/

│ │ ├── ltx-2-19b-dev-fp8.safetensors

│ ├── 📂 text_encoders/

│ │ └── gemma_3_12B_it_fp8_e4m3fn.safetensors

│ ├── 📂 loras/

│ │ ├── ltx-2-19b-distilled-lora-384.safetensors

│ └── 📂 latent_upscale_models/

│ └── ltx-2-spatial-upscaler-x2-1.0.safetensors


使用的自定义节点:

https://github.com/Lightricks/ComfyUI-LTXVideo

https://github.com/rgthree/rgthree-comfy

https://github.com/yolain/ComfyUI-Easy-Use

https://github.com/stavsap/comfyui-ollama

https://github.com/evanspearman/ComfyMath

仅文本到视频:

https://github.com/KoinnAI/ComfyUI-DynPromptSimplified

Res2_s 采样器(可选,Lightricks 推荐,但较慢;替代采样器:euler、euler_ancest):

https://github.com/ClownsharkBatwing/RES4LYF

此模型生成的图像

未找到图像。