Lightning Lora, massive speed up for Wan2.1 / Wan2.2 made by Lightx2v / Kijai

详情

模型描述

2.2

新的 I2V 1022 版本已发布,迄今为止在提示遵循和运动质量方面表现最佳。

https://github.com/VraethrDalkr/ComfyUI-TripleKSampler

T2V 版本已于 09/28 更新。建议仍像以往一样,先用几步高噪声、不带 LoRA 的方式建立运动,例如:

2 步高噪声,无低步数 LoRA,CFG 为 3.5

2 步高噪声,带 LoRA,CFG 为 1

2-4 步低噪声,带 LoRA,CFG 为 1

无论如何,这都是显著的改进。

T2V:

使用其完整的 'dyno' 模型作为你的高噪声模型效果最佳。

“2025 年 9 月 28 日,我们发布了两个模型:Wan2.2-T2V-A14B-4steps-lora-250928 和 Wan2.2-T2V-A14B-4steps-250928-dyno。这两个模型共享相同的低噪声权重。Wan2.2-T2V-A14B-4steps-250928-dyno 在运动渲染和相机响应方面表现更优,物体运动速度与基础模型高度一致。对于需要高度动态视觉效果的项目,我们强烈推荐使用 Wan2.2-T2V-A14B-4steps-250928-dyno。下方为一些参考示例。”

https://huggingface.co/lightx2v/Wan2.2-Lightning/blob/main/Wan2.2-T2V-A14B-4steps-250928-dyno/Wan2.2-T2V-A14B-4steps-250928-dyno-high-lightx2v.safetensors


2.1

7/15 更新:我添加了新的 I2V LoRA,相较于在图像到视频模型上使用旧的文本到视频 LoRA,其运动效果明显更好。示例为 4 步、1 CFG、LCM 采样器、8 shift。我也上传了新的 T2V 版本。

我还发布了由 Kijai 提取的 rank 128 版本,它们体积是原来的两倍,但画质略优。

我建议同时搭配 Pusa V1 LoRA 使用,它似乎能进一步提升运动效果:https://huggingface.co/Kijai/WanVideo_comfy/tree/main/Pusa

我认为现在不再需要双采样器工作流了。只需将其直接插入你的常规工作流,使用 1 CFG 和约 4 步即可。如需更清晰,可再进行一次后处理,但如今它不会再像以前那样损害图像到视频的运动效果。

完整的图像到视频 Lightx2V 模型:https://huggingface.co/lightx2v/Wan2.1-I2V-14B-480P-StepDistill-CfgDistill-Lightx2v/tree/main/distill_models


旧版:
lightx2v 推出了一个 14B 自强制模型,相较于 Causvid / Accvid 有巨大提升。Kijai 将其提取为 LoRA。上述示例在 4090 显卡上约 35 秒生成,使用 4 步、LCM、1 CFG、8 shift,仍在调整参数以寻找最佳配置。


请勿向我发送任何打扰信息,如需支持,请支持 lightx2v 团队或 kijai

此模型生成的图像

未找到图像。