Controlnet for DensePose

详情

模型描述

该ControlNet模型接受DensePose标注作为输入

使用方法

.safetensors 文件放置于 ../stable diffusion/models/ControlNet/ 目录下。

关于DensePose

本仓库解释了什么是DensePose以及如何使用它:https://github.com/facebookresearch/detectron2/tree/main/projects/DensePose

要使用标注器,您需按说明安装 Detectron2。DensePose标注器依赖 apply_net.py 运行。请参阅帖子中的最后一张图,了解对该脚本的必要修改。

将此项目转换为预处理器对我来说过于困难了。

模型特性

优势

  1. 身体姿态稳定

  2. 手部推理表现良好

  3. 能够推理复杂姿态

  4. 与Depth ControlNet结合潜力巨大

劣势

  1. 与OpenPose类似,深度信息严重依赖推理和Depth ControlNet

  2. 头部方向不稳定

  3. 难以准确推理多人(更精确地说,是多人头部)

可能遇到的问题

Q:该模型倾向于推断出多人

A:避免在标注中留出过多空白区域。或与Depth ControlNet配合使用。或如我一样编写提示词(例如:(one:1.2) girl)。

Q:该模型表现不佳

A:

  1. DensePose标注器效果不好。您可以手动修改标注,这比修改OpenPose标注更容易。

  2. Depth标注器效果不佳。实际上,我建议使用 glpn-nyu 作为深度标注器。请参阅:https://huggingface.co/vinvino02/glpn-nyu

  3. 姿态过于复杂,超出了模型的能力范围。

Q:该模型与我的LoRA配合效果不佳

A:

  1. 这可能意味着您的LoRA训练数据不足。事实上,经过充足数据训练的LoRA与ControlNet或提示词冲突更少。

  2. 将您的LoRA的IN模块权重设为0。所有冲突通常都源于IN模块。请参考:https://github.com/hako-mikan/sd-webui-lora-block-weight

*注意:帖子中的第二个姿势生成使用了Depth ControlNet(权重=0.25)

此模型生成的图像

未找到图像。