Nomos8kHAT-L_otf
详情
下载文件
模型描述
注意:此放大器并非我制作
致谢:Helaman
原始上传地址:https://openmodeldb.info/models/4x-Nomos8kHAT-L-otf
关于版本 2.0
与首次上传版本完全相同,但已转换为 .safetensors 格式。我在使用 Forge 和 Automatic1111 加载该放大器的 .safetensors 版本时遇到问题,但在 ComfyUI 中运行完美。
通用信息
混合注意力变换器(HAT)结合了通道注意力和自注意力机制,充分利用了它们的互补优势。为增强相邻窗口特征间的交互,HAT 采用了重叠的交叉注意力模块。了解更多
应放置于何处?
若要在 Automatic1111 和 Forge 中使用此放大器(及其他 HAT 放大器),请按以下步骤操作:
在 \webui\models\ 目录下创建一个名为 HAT 的文件夹
从本页面或源地址下载文件
将文件放入 \webui\models\HAT\ 文件夹中
重启您的 WebUI
注意:如果遇到模型无法加载的问题,请将文件名从 .pt 改为 .pth





