Nomos8kHAT-L_otf

详情

下载文件

模型描述

注意:此放大器并非我制作

致谢:Helaman

原始上传地址:https://openmodeldb.info/models/4x-Nomos8kHAT-L-otf

关于版本 2.0

与首次上传版本完全相同,但已转换为 .safetensors 格式。我在使用 Forge 和 Automatic1111 加载该放大器的 .safetensors 版本时遇到问题,但在 ComfyUI 中运行完美。

通用信息

混合注意力变换器(HAT)结合了通道注意力和自注意力机制,充分利用了它们的互补优势。为增强相邻窗口特征间的交互,HAT 采用了重叠的交叉注意力模块。了解更多

应放置于何处?

若要在 Automatic1111 和 Forge 中使用此放大器(及其他 HAT 放大器),请按以下步骤操作:

  • \webui\models\ 目录下创建一个名为 HAT 的文件夹

  • 从本页面或源地址下载文件

  • 将文件放入 \webui\models\HAT\ 文件夹中

  • 重启您的 WebUI

注意:如果遇到模型无法加载的问题,请将文件名从 .pt 改为 .pth

此模型生成的图像

未找到图像。