LTX-2 DEV - IMAGE to Video and TEXT to Video with Ollama
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
LTX-2 DEV 音声付き動画:
画像から動画 と テキストから動画 のワークフローで、それぞれ独自のプロンプトまたは Ollama で生成・強化されたプロンプトを使用できます。
- LTX2 Dev モデル の設定。
- 高品質化のために Detailer LoRA を使用し、OOM を回避し視覚的グリッドを防ぐために LTX タイル VAE を使用。
- 2パスレンダリング(モーション+アップスケール)。アップスケールプロセスでは、ディスティルされた LoRA と空間的アップスケール LoRA を使用。
- 動画および音声品質を向上させるために、最新の LTXVNormalizingSampler を設定。
- テキストから動画では、ワイルドカードを用いたダイナミックプロンプトを使用可能。
私の環境(16GB VRAM / 64GB RAM)で OOM を回避するための ComfyUI の初期パラメータ:
--lowvram --cache-none --reserve-vram 6 --preview-method none
Sampler サブグラフ内にあるモデル/LoRA ローダーノードをご確認ください。
ファイルのダウンロード:
- LTX2 Dev モデル (dev_Fp8): https://huggingface.co/Lightricks/LTX-2/tree/main
- Detailer LoRA: https://huggingface.co/Lightricks/LTX-2-19b-IC-LoRA-Detailer/tree/main
- ディスティルされた(lora-384)および空間的アップスケーラー LoRA: https://huggingface.co/Lightricks/LTX-2/tree/main
- VAE: https://huggingface.co/Lightricks/LTX-2/tree/main/vae
- Textencoder (fp8_e4m3fn): https://huggingface.co/GitMylo/LTX-2-comfy_gemma_fp8_e4m3fn/tree/main
- Ollama モデル:
(プロンプトのみ読み取り、高速): https://ollama.com/goonsai/josiefied-qwen2.5-7b-abliterated-v2
代替モデル(入力画像+プロンプトを読み取り、遅い): https://ollama.com/huihui_ai/qwen3-vl-abliterated
保存場所:
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 checkpoints/
│ │ ├── ltx-2-19b-dev-fp8.safetensors
│ ├── 📂 text_encoders/
│ │ └── gemma_3_12B_it_fp8_e4m3fn.safetensors
│ ├── 📂 loras/
│ │ ├── ltx-2-19b-distilled-lora-384.safetensors
│ └── 📂 latent_upscale_models/
│ └── ltx-2-spatial-upscaler-x2-1.0.safetensors
使用したカスタムノード:
https://github.com/Lightricks/ComfyUI-LTXVideo
https://github.com/rgthree/rgthree-comfy
https://github.com/yolain/ComfyUI-Easy-Use
https://github.com/stavsap/comfyui-ollama
https://github.com/evanspearman/ComfyMath
テキストから動画のみ:
https://github.com/KoinnAI/ComfyUI-DynPromptSimplified
Res2_s サンプラー(オプション、Lightricks 推奨ですが遅い。代替サンプラー:euler, euler_ancest):

