AnimateDiff Workflow: IPAdapter Transformations
详情
下载文件
关于此版本
模型描述
这个工作流的目的是实现角色在静态背景下的平滑过渡。虽然不完美,但我觉得是个不错的开始。在我的3090显卡上,生成48帧的完整过程消耗了17GB显存,耗时50分钟。如果你想节省显存,我建议直接跳过工作流中的高分辨率部分。
基础工作流完全归功于Latent Vision:
我想要尝试的其他改进:
- 使用IC-light增强光照一致性(如果角色或摄像机旋转,这还能奏效吗?)
- 使用IPAdapter处理人脸
最后一点:Limitless Vision模型效果不错,但我认为使用Realistic Vision或Dreamshaper等其他模型可能效果更好。我遇到的问题是,这些模型似乎“无法理解”我输入的IPAdapter图像。还需要更多实验!
如果你缺少某些模型,请参考以下部分列表。你还需要IPAdapter/CLIPVision模型和OpenPose ControlNet:
将以下文件重命名为controlGIF_normal.ckpt并放入/models/controlnet:https://huggingface.co/crishhh/animatediff_controlnet/resolve/main/controlnet_checkpoint.ckpt?download=true
将以下文件放入/models/animatediff_models:https://huggingface.co/wangfuyun/AnimateLCM/resolve/main/AnimateLCM_sd15_t2v.ckpt
将以下文件放入/models/loras:https://huggingface.co/latent-consistency/lcm-lora-sdv1-5/tree/main
将以下文件放入/models/loras:https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_adapter.ckpt




