24s WAN-Video in 10 Minutes

详情

下载文件

模型描述

我开发了一种工作流程,可在十分钟内生成24秒的视频。核心原理基于Diffusion Force系统,结合Kijai的WanVideoWrapper节点Skyreel V2 DF模型。流程从使用Illustrious/SDXL生成高质量图像开始(为了获得更真实的视觉效果——其表现明显优于Skyreel的TXT2VID输出),该图像作为生成管道的初始帧输入。

通过七个子提示,每个子提示生成97帧,创建约24秒的连续场景。这些子提示可手动编写,也可由LLM自动生成。我目前使用Ollama,但这一部分可轻松定制。

加速通过CausVid LoRA V2(高强度)与CFG步长切换器实现:前3步使用CFG 4,随后7步使用CFG 1。这样既保持了渲染速度,又确保了动作流畅自然。需要注意的是,该系统难以处理突兀的运动过渡——例如,角色从奔跑突然停止是行不通的,它会持续奔跑下去。

最终,将七个片段合并为完整视频,并去除重叠帧以确保连贯性。

这是一个复杂但井然有序的工作流程,借助Anything Everywhere节点和隐藏连接得以有效管理。如有任何问题,欢迎随时提问。

一个小贴士:LLM在提示词编写上并不完美。我进行了大量测试,经过数日实验后,我重新回到手动编写——亲手创作的提示词质量明显更高。

此模型生成的图像

未找到图像。