Rebels LTX-2 Dev (GGUF)

详情

模型描述

注意:CivitAI 上有一个bug,你无法看到总下载量或点赞数。相信我,它正在被下载。评论由于某些原因也没有显示。如果你有任何问题,请在我的YouTube视频下留言。

我的PC配置(供参考):

(RTX 3070 + i7)8GB 显存 + 16GB 系统内存 = 总计24GB。对于如此高的内存需求,运行效果相当不错。

链接

Dev GGUF(选择低于你显存需求的量化等级,整体工作流需求极大)

https://huggingface.co/unsloth/LTX-2-GGUF/tree/main

文本编码器(与Dual CLIP加载器GGUF节点中的第二个编码器一起运行)
https://huggingface.co/GitMylo/LTX-2-comfy_gemma_fp8_e4m3fn/blob/main/gemma_3_12B_it_fp8_e4m3fn.safetensors

嵌入连接器(在Dual CLIP加载器GGUF节点中与Gemma编码器一起运行)

https://huggingface.co/Kijai/LTXV2_comfy/blob/main/text_encoders/ltx-2-19b-embeddings_connector_dev_bf16.safetensors

蒸馏LoRA(用于工作流后期的上采样)

https://huggingface.co/Lightricks/LTX-2/blob/main/ltx-2-19b-distilled-lora-384.safetensors

细节LoRA(提升低分辨率生成的保真度。相信我,它很有帮助。)
https://huggingface.co/Lightricks/LTX-2-19b-IC-LoRA-Detailer/blob/main/ltx-2-19b-ic-lora-detailer.safetensors

VAEs(音频和视频)

音频

https://huggingface.co/Kijai/LTXV2_comfy/blob/main/VAE/LTX2_audio_vae_bf16.safetensors

视频

https://huggingface.co/Kijai/LTXV2_comfy/blob/main/VAE/LTX2_video_vae_bf16.safetensors

潜在上采样器(放入latent_upscale_models文件夹)

https://huggingface.co/Lightricks/LTX-2/blob/main/ltx-2-spatial-upscaler-x2-1.0.safetensors

重要!
你需要以下自定义节点:

- KJ Nodes(可在自定义节点管理器中获取,更新并使用夜间版)

- ComfyUI-GGUF 节点(可在自定义节点管理器中获取,更新并使用夜间版)

- 来自 VantageWithAI 的自定义节点:“Vantage GGUF Unet Loader”
此节点为实验性,但比常规的Unet GGUF节点更高效。(目前GGUF节点缺少一个PR合并,若不手动在命令提示符中更新,该节点将无法运行。我不建议你手动更新,因为极其不便。相信我,使用Vantage节点即可。)

要获取Vantage节点,请在你的自定义节点文件夹中打开命令提示符,复制以下命令并按回车:

git clone https://github.com/vantagewithai/Vantage-Nodes.git

(我已从YouTube教程中移除了“cd comfyui/custom_nodes”部分,因为不需要)

完成后,使用此命令:

cd Vantage-Nodes
pip install -r requirements.txt

这将完整安装节点。重启ComfyUI,然后拖入我的工作流,即可获得完全可用的LTX-2工作流!

我强烈建议用以下参数更新你的BAT文件:
--lowvram --disable-xformers --use-pytorch-cross-attention --reserve-vram 2 --disable-smart-memory

该工作流对资源需求极高。即使使用最低量化等级,我的PC在分辨率高于480p时也运行困难。我建议你用记事本打开BAT文件,将这些参数添加到包含“--windows-standalone”的代码行中,保存为副本,仅用于LTX-2。(可以重命名为便于记忆的名称,如LTX-2.bat。具体操作方法见YouTube视频,如果你不知道怎么做的话!)

教程视频

此模型生成的图像

未找到图像。