https://huggingface.co/city96/Wan2.1-T2V-14B-gguf/tree/main
这是对 Wan-AI/Wan2.1-T2V-14B 的直接 GGUF 转换。
所有量化版本均基于 FP32 基础文件生成,但由于文件超过 50GB 的最大限制,且 ComfyUI-GGUF 目前不支持 gguf-split 加载,因此我仅上传了 FP16 版本。
模型文件可与 ComfyUI-GGUF 自定义节点配合使用。
将模型文件放置于 ComfyUI/models/unet 目录下——更多安装说明请参见 GitHub 的 README 文件。
VAE 可从 Kijai 的这个仓库 下载。
有关量化类型的概览,请参考 此图表。