Wan-AI / Wan2.1 Video Model (Safetensors) - GGUF Quants - i2v 14B
详情
下载文件
关于此版本
模型描述
☄️我建议使用新的 Lightspeed 检查点:/model/1802623
⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️
Wan 2.1 的 GGUF 量化版,用于降低 VRAM 使用。
如果 TeaCache 可用,我建议使用它以获得约 2 倍的速度提升。
信息:目前 TeaCache 可能存在问题,可能导致视频变形。!!!
所有示例均为 640x640 分辨率,启用了 TeaCache 并使用了初始图像。
来源:源文件(gguf):https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/tree/main 来自 city96
以下是部分测试结果:
VRAM 和 RAM 计算:
你的 VRAM 应比模型大小高出 1~2 GB
例如:16GB(VRAM):模型 12GB - 2GB = 10 → 可正常运行
你应始终为操作系统预留 1-2 GB 内存以确保功能正常
你的 RAM 至少应为 16 GB,推荐 32 GB
使用 Q8 量化时,你需要 40 GB 以上的 RAM
提高图像转视频(I2V)速度与质量的建议:
在最大像素限制内使用较低分辨率
生成完成后,使用你喜欢的工具对整个视频进行上采样
使用 20-30 步,20 步效果良好,30 步耗时显著增加但能保留更多细节
- 步数增加是线性的,例如增加 10 步会使时间从 10 分钟增至 15 分钟
使用 CGF 4-6(通常 6 效果最佳),若光照异常,有时 4 更合适
用作初始图像的图片应与视频分辨率保持相同宽高比
推荐分辨率:
9:16 / 16:9,480x832 / 832x480 = 480p
3:4 / 4:3,480x640 / 640x480 = 480p
如常,您对输出内容负责!如果您生成违反 服务条款 的内容,一旦被我发现,我将立即举报。
