Joy CLIP (FLUX, PONY, Video Models)

详情

模型描述

Joy CLIP

阅读指南

注意:基础的 CLIP-L 并未像 PONY CLIP 模型那样展现出显著改进,某些情况下可能略微提升 NSFW 表现,但远不及 PONY 的 90% 以上提升

CyberRealisticPonyRealismRealismbyStableYogi


Joy CLIP 是经过数百小时训练、耗电 50kWh 的成果

若在 100 张图像中,新 CLIP(Joy)的种子失败次数超过 5 次,我便不认为该 CLIP 训练成功。

所谓“失败”指出现畸形、双肢体等重大错误,而旧 CLIP 并无此问题。

在相同的 100 张图像中,新 CLIP(Joy)应在 10-20 张图像上展现出显著改进,在 20-50 张图像上呈现轻微改进。

大多数情况下,当准确性受影响时,90% 以上的 Joy CLIP 能提升提示词的准确性;极少情况下(≤2%),标准 CLIP 在手部准确性或其他视觉指标上优于 JoyCLIP。

上述成果是在 PONY 模型上达成的,但 FLUX 和视频模型尚未经过测试,因需数千次生成才能取得平均结果。

许可证:MIT 许可证

版权所有 (c) 2021 OpenAI

特此免费授予任何获得本软件及相关文档文件(“软件”)副本的人,以无限制的方式使用、复制、修改、合并、发表、分发、再许可和/或销售本软件副本的权利,但须满足以下条件:

上述版权声明和本许可声明应包含在软件的所有副本或主要部分中。

本软件按“原样”提供,不提供任何形式的明示或暗示担保,包括但不限于适销性、特定用途适用性和非侵权性的担保。在任何情况下,作者或版权持有人均不对因合同、侵权或其他行为引起的任何索赔、损害或其他责任负责。

此模型生成的图像

未找到图像。