ControlNet Pre-Trained Difference Models

详情

模型描述

停止!这些模型 不可 用于提示词或图像生成

这些模型是从基础 ControlNet 模型中以略微不同的方式提取的,与其他模型存在差异。由于提取方法不同,它们的输出结果也有所不同。

这些模型是ControlNet 扩展所需的,已转换为 Safetensor 格式,并进行“剪枝”以提取 ControlNet 神经网络。我已经测试过,它们可以正常工作。

这些模型嵌入了使 ControlNet 正常运行所需的神经网络数据,除非与 ControlNet 一同使用,否则无法生成优质图像

这些模型是使用 extract_controlnet_diff.py 脚本提取的,其结果与使用 extract_controlnet.py 脚本提取的模型略有不同。

这些模型的原始 .pth 格式版本可在此处找到:https://huggingface.co/lllyasviel/ControlNet/tree/main/models但你不需要这些 .pth 文件!我上传的文件正是这些 .pth 文件的直接替代品!

  • control_sd15_canny
  • control_sd15_depth
  • control_sd15_hed
  • control_sd15_scribble
  • control_sd15_normal
  • control_sd15_openpose
  • control_sd15_seg
  • control_sd15_mlsd

下载这些模型,并将其放入 \stable-diffusion-webui\extensions\sd-webui-controlnet\models 目录中。

注意:这些模型是通过扩展 GitHub 仓库中包含的 extract_controlnet_diff.py 脚本,从原始 .pth 文件中提取的。 Kohya-ss 已将它们上传至 HF。

此模型生成的图像

未找到图像。