Optimised Hunyuan/Skyreels/Wan 2.1 GGUF I2V + Upscale (Hunyuan LORA Compatible) (3060 12GBVRAM + 32gbRAM)
详情
下载文件
关于此版本
模型描述
如果你遇到任何问题,欢迎在 Civitai/Discord 上私信我。
Hunyuan 720p I2V
1316.72s 73F 688x800 22步 dpmpp_2m simple
Hunyuan720pI2V Q6_K gguf(根据需要调整)
https://huggingface.co/city96/HunyuanVideo-I2V-gguf/tree/main
llava_llama3_vision
https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/blob/main/split_files/clip_vision/llava_llama3_vision.safetensors
clip_l(重命名为 clip_hunyuan)
https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files/text_encoders
hunyuan_video_vae_bf16
https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files/vae
Python 版本 3.12.7,Cuda 12.6,Torch 2.6.0+cu126
Triton Windows:https://github.com/woct0rdho/triton-windows/releases
下载适合你 Python 版本的 wheel 文件后,请打开命令提示符,导航到文件所在目录,然后运行以下命令:
通过 python_embeded:
python.exe -m pip install triton-3.2.0-(文件名)
python.exe -m pip install sageattention==1.0.6
Wan2.1
562.51s 512x512 uni_pc simple 33F
12步与8步分段按预期工作
81F 1018.89s!
81F 573.99s!
8步分段 161F/10s(16fps)512x512 uni_pc simple 6760.70秒,但可以运行!(已发布包含元数据的 PNG)
我收到了打赏提醒,请将你的创作发布到工作流画廊,或在你的帖子中添加资源,尽情享受吧!
Wan2.1 I2V 更新已发布!
49F
512x512
12步(两阶段:6+6)
Uni_pc
Simple
似乎每添加一个 LoRA,推理时间增加 200-400 秒
33F:700-900 秒
49F:1000-1500 秒
Wan2.1 480p I2V /unet(根据需要调整)
https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/blob/main/wan2.1-i2v-14b-480p-Q6_K.gguf
Clip vision /clip_vision
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/clip_vision/clip_vision_h.safetensors
Text encoder /clip 或 /text_encoders
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors
(可选)超分 /upscale_models
https://huggingface.co/lokCX/4x-Ultrasharp/blob/main/4x-UltraSharp.pth
Skyreels
最终精简版 + 文本加权 Hunyuan LoRA 兼容性更新已发布
831.61 秒(无超分)
932.07 秒(无超分)
已在展示区发布视频
若你调整 UnetLoaderGGUFDisTorchMultiGPU 自定义节点中的 virtual_vram_gb(前提是你的 RAM 足够),可能在 8GB 显存或更低的设备上运行
第一阶段 415.369 秒,第二阶段 315.937 秒,VAE 70.838 秒,总计 837.93 秒。Q6 + 6步LoRA + SmoothLoRA + DollyLoRA
(我默认使用 DPM++2M/Beta + Smooth LoRA(非以人为中心时),平均运行时间:700-900 秒,73F,无超分)
Comfyui_MultiGPU = UnetLoaderGGUFDisTorchMultiGPU(图像潜变量批次为 4,flux-finetune Q8,替换 txt2img 工作流中的 GGUF 加载器)
Comfyui_KJNodes = TorchCompileModelHyVideo,Patch Sage Attention KJ,Patch Model Patcher Order(添加节点 > KJNodes > 实验性)
∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨
https://huggingface.co/spacepxl/skyreels-i2v-smooth-lora
∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧
调整 virtual_vram_gb 以适应你的需求(建议查看 Comfyui 命令行中加载模型到 SamplerCustom 后显示的 distorch 分配值),或使用普通 Unet Loader(GGUF)配合 skyreels-hunyuan-I2V-Q?_
首次加载
提示执行耗时 1662.22 秒 - 587.365 秒(超分)= 1075 秒
640x864
73 帧(稳定/生成时间)
步数:6-12(第一阶段 6 步 + 第二阶段 6 步)
cfg:4.0
采样器:Euler
调度器:Simple
(原始 Kijai 工作流:https://huggingface.co/Kijai/SkyReels-V1-Hunyuan_comfy/blob/main/skyreels_hunyuan_I2V_native_example_01.json)
带超分器的精简版 I2V 工作流,在 3060 12GB 显存 + 32GB 内存上优化
请确保更新 ComfyUI、Torch 和 CUDA
从 update 文件夹运行 update_comfyui.bat
返回你的 python_embeded 文件夹
点击顶部的文件目录栏,输入 cmd 并按回车
在 cmd 中输入:
"python.exe -m pip install --upgrade torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu126"
∨∨ 可能破坏旧工作流 ∨∨
如果仍无法运行,请运行其他更新脚本:update_comfyui_and_python_dependencies.bat
∧∧ 可能破坏旧工作流 ∧∧
工作流资源:
Fast_Hunyuan LoRA(models/lora):https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hyvideo_FastVideo_LoRA-fp8.safetensors
GGUF 模型(根据需要切换模型)(models/unet):
https://huggingface.co/Kijai/SkyReels-V1-Hunyuan_comfy/blob/main/skyreels-hunyuan-I2V-Q6_K.gguf
VAE 模型(models/vae):https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_vae_bf16.safetensors
clip_l 模型(我重命名为 clip_hunyuan)(models/clip):
https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/blob/main/split_files/text_encoders/clip_l.safetensors
llava_llama3 模型(models/clip):
https://huggingface.co/calcuis/hunyuan-gguf/blob/main/llava_llama3_fp8_scaled.safetensors
超分模型(models/upscale_models):
https://huggingface.co/uwg/upscaler/blob/main/ESRGAN/4x-UltraSharp.pth
个人生成时间
首次加载后基础生成时间(两阶段 + VAE 解码):
758.173 秒
704.589 秒
首次加载后使用建议 LoRA:
779.494 秒
首次加载后 169F 测试(无加载测试):
OOM
首次加载后 121F 测试 + 6步LoRA + SmoothLoRA(无加载测试):
第一阶段
525.14s 第一次迭代
729.66s 第二次
736.19s 第三次
645.15s 第四次
665.55s 第五次
764.12s 第六次/平均
第二阶段
81.90s 第一次+第二次迭代
OOM
OOM 后立即重新入队从第二阶段开始:
6.17s 第一次迭代
113.74s 第二次+第三次
222.92s 第四次
327.62s 第五次
282.29s 第六次/平均
VAE 128.309s
97F 测试 I2V + 6stepLoRA(画廊中已发布)(尚未出现 OOM)
1123s
1013s
