Wan-AI / Wan2.1 Video Model (Safetensors) - GGUF Quants - i2v 14B

详情

模型描述

☄️我建议使用新的 Lightspeed 检查点:/model/1802623

⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️
Wan 2.1 的 GGUF 量化版,用于降低 VRAM 使用。

如果 TeaCache 可用,我建议使用它以获得约 2 倍的速度提升。
信息:目前 TeaCache 可能存在问题,可能导致视频变形。!!!

所有示例均为 640x640 分辨率,启用了 TeaCache 并使用了初始图像。

来源:源文件(gguf):https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/tree/main 来自 city96

以下是部分测试结果:

VRAM 和 RAM 计算:

  • 你的 VRAM 应比模型大小高出 1~2 GB

    例如:16GB(VRAM):模型 12GB - 2GB = 10 → 可正常运行

  • 你应始终为操作系统预留 1-2 GB 内存以确保功能正常

  • 你的 RAM 至少应为 16 GB,推荐 32 GB

  • 使用 Q8 量化时,你需要 40 GB 以上的 RAM

提高图像转视频(I2V)速度与质量的建议:

  • 在最大像素限制内使用较低分辨率

  • 生成完成后,使用你喜欢的工具对整个视频进行上采样

  • 使用 20-30 步,20 步效果良好,30 步耗时显著增加但能保留更多细节

    • 步数增加是线性的,例如增加 10 步会使时间从 10 分钟增至 15 分钟
  • 使用 CGF 4-6(通常 6 效果最佳),若光照异常,有时 4 更合适

  • 用作初始图像的图片应与视频分辨率保持相同宽高比

推荐分辨率:

9:16 / 16:9,480x832 / 832x480 = 480p

3:4 / 4:3,480x640 / 640x480 = 480p


如常,您对输出内容负责!如果您生成违反 服务条款 的内容,一旦被我发现,我将立即举报。

此模型生成的图像

未找到图像。