All In One NSFW Long Video Workflow

详情

模型描述

针对 QWEN/WAN 的一体化工作流

此工作流允许您通过串联视频片段来创建长视频。核心策略是使用 QWEN 生成关键帧,然后使用起始图像与结束图像,或起始视频与结束图像,持续串联视频片段。关键帧确保各视频片段之间的一致性。

模型

此工作流使用两个能够生成 NSFW 内容的模型。

QWEN Rapid AIO:https://huggingface.co/Phr00t/Qwen-Image-Edit-Rapid-AIO/tree/main

不幸的是,这是一个大型模型,我不确定是否有其 GGUF 版本。但该模型至关重要,因为它使我们能够生成关键帧。

WAN 2.2 NSFW:

WAN(高)- /model/2053259?modelVersionId=2477552

WAN(低)- /model/2053259?modelVersionId=2477555

WAN 模型有可用的 GGUF 版本。

节点

此工作流使用了许多自定义节点,但大多数都较为常见。其中不太常见的节点是“Painter Long Video”节点,可在此处获取:

https://github.com/princepainter/ComfyUI-PainterLongVideo

步骤

*注意:每个工作流中都有一个组旁路器,一次只能启用其中一个。

  1. 输入项目名称。所有文件将存储在该项目的子文件夹中,以便集中管理。您可以在各个子流程中编辑文件名。

  2. 生成起始角色(可选)。工作流中已包含 ZIT,但您也可以使用任何方法获取起始角色。

  3. 生成场景。首先在场景生成器中提示 QWEN 调整每个角色。确定所需角色后,再将它们组合到场景生成器中。

  4. 生成关键帧。无需一次性全部生成。由于视频生成通过无限串联片段实现,您可以先开始制作视频,之后再回头生成关键帧。但请确保始终生成一些面部清晰可见的参考图像,以维持一致性。

  5. 生成初始视频。使用起始图像和结束图像,并确保在视频子图选项中选择模式 1。该模式使用输入选择器,模式 1 使用起始图像,模式 2 使用起始视频。

  6. 继续扩展视频。在子图中选择模式 2,并上传您希望扩展的视频。工作流始终输出两个视频:第一个是生成后、放大前的视频;第二个是先将新生成的视频放大,再将其与输入视频拼接而成的视频。在串联时,请始终使用最终放大的视频。

  7. 最后,如需,可使用 RIFE 进行插值。

视频始终会被放大,因此最新视频基本已完成。若您遇到内存问题或速度过慢,可直接移除 WAN 子图中的所有放大器。我更倾向于保留放大,因为本工作流的设计初衷是让您能随时返回并扩展视频。

使用技巧

  • 生成关键帧时,请确保从清晰显示角色面部的图像出发。

  • 我喜欢生成比视频尺寸更大的图像,然后在视频中裁剪所需画面。这样可以避免为 WAN 提示摄像机动作,因为系统会根据关键帧自然实现平移和缩放(前提是起始与结束图像之间有足够的信息供其识别)。我使用 GIMP 进行裁剪,保持宽高比不变。

  • QWEN 在编辑包含两人以上图像时效果较差。通常,先生成两人图像,待满意后再插入更多角色会更简单。

  • 项目名称本质上是您希望存储所有文件的文件夹。每个组也都有文件名输入框,允许您进一步细分存储位置,并非必须全部放在一个文件夹中。

最后一点

之所以存在两个不同的 Qwen 工作流,是因为 Qwen Edit Plus 节点存在一些异常。连接 VAE 会导致严重的缩放问题及其他异常。当您需要将两个场景拼接在一起,且希望生成图像的大部分元素与第一张图像保持一致时,请使用第一个工作流(生成关键帧);当变化更剧烈,或需要向场景中添加人物时,请使用第二个工作流(生成场景)。关键帧生成器包含图像尺寸输入,因其设计初衷是针对起始图像进行微调,因此应保持尺寸一致。

此模型生成的图像

未找到图像。