Base Set of Models for ONNX
详情
下载文件
关于此版本
模型描述
由于Civitai上没有ONNX模型,我上传此模型供所有希望测试此设置的人使用。
主模型是一个合并模型,我已不记得其来源……但它基于SD1.5模型。
所有图像均未经后期编辑生成,仅Conan和Red Sonja在创建过程中增加了额外步骤:角色独立生成、潜在向量叠加、面部恢复等。未使用任何LoRA、文本反转或其他附加工具。
我上传了三个版本:
未优化版:消耗更多VRAM内存,但加载速度更快(约10秒),推荐用于测试。例如:在4GB显存显卡上可运行640x640分辨率。
内存优化版:VRAM消耗更低,但初始加载时间更长(每个模型初始加载最多达1分钟)。例如:在4GB显存下,可无问题运行1024x768分辨率。
潜在一致性(Latent Consistency)版:仅需较少步骤(6-12步),每步比正常步骤快40%至50%,内存消耗略高于未优化版。此模型是“SimianLuo/LCM_Dreamshaper_v7”的fp16复刻版本,并非我自行合并。
此外,如需测试,可参考我的UI界面:
https://github.com/NeusZimmer/ONNX-ModularUI-StableDiffusion/
欢迎提供反馈。
**LCM:完全遵循其论文描述的模型,那些内部带有LCM-LoRA权重的模型已能正常工作。
由于ONNX中的SD需要特定目录结构才能运行,我将主模型以zip文件形式上传,但Civitai仅允许我将其标记为训练数据:这些才是主模型。
PD:适用于SD1.x和SD2.x模型,但不支持SDXL,因为我目前无法将SDXL模型转换为onnx-fp16格式。
我已上传:
3个主基础模型
VAE编码器与解码器
文本编码器(clip-slip1)
待上传(但已在HuggingFace上提供):ControlNet基础模型、Danbooru标签、clip-slip 2、3、4的文本编码器


