AI热点 4小时前 102 阅读 0 评论

OpenAI GPT-5 编程成绩有猫腻:自删 23 道测试题,关键基准还是自己提的

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

别急着用 GPT-5 编程了,可能它能力没有你想象中那么强。

有人发现,官方测试编程能力用的 SWE-bench Verified,但货不对板,只用了 477 个问题。

什么意思呢?我们知道,SWE-bench 是评估模型 / 智能体自主编程能力的一个通用且常用的指标。而 SWE-bench Verified 作为它的子集,本来一共有 500 个问题。

现在相当于 OpenAI 自行省略的那 23 个问题,自己搞了个子集的“子集”来评估模型能力。

而如果这些题默认零分,那么得分实际上是比 Claude Opus 4.1 还要低的。因为现在仅有 0.4% 的差距。

OpenAI 这种自行忽略 23 道题的操作,已经不是第一次了。

早在 GPT-4.1 发布时就信誓旦旦地说,之所以忽略是因为这些问题的解决方案无法在他们的基础设施运行。

离谱了朋友们!要知道 SWE-bench Verified 这个 OpenAI 自己提的,理由也是因为 SWE-bench 无法系统评估模型的编程能力,所以决定自己再提炼一个子集。

现在又因为测试题无法正常运行,所以自行又搞了个子集的“子集”。

本来以为 GPT-5 直播里出现图表错误已经够离谱了,结果现在告诉我这里面的成绩可能还有假?

OpenAI 一直省略 23 个问题

已经开始有网友发现,GPT-5 能力并不比 Claude 4.1 Opus 好多少。

现在来看,这个官方给的结果或许根本没有参考价值。

网友们除了自行忽略部分测试题,“伪造了结果”这一发现外,还发现,他们是将具有最大思维努力的 GPT-5 与没有扩展思维仅靠原始模型输出的 Opus 4.1 进行比较。这种比较实际上没有参考意义。

而他们之所以只使用 477 个问题来测试,理由也跟 GPT-4.1 发布时一样,因为他们内部的基础设施运行不了剩下的 23 个问题。

今年 4 月份发布 GPT-4.1 时,在同一基准仅使用 477 个问题下得得分在 54.6%。

当时官方还指出,如果保守地将这些问题的得分定为 0,那么 54.6% 的得分就变成了 52.1%。即便是这样,这个数值放在当时也是最高的。

而 Anthropic 这边,其实也已经发现了 OpenAI 这个操作。

就在 Claude Opus 4.1 发布公布编程成绩之时,在文章的末尾有这么一句话。

对于 Claude 4 系列模型,他们继续使用相同的简单框架,该框架仅为模型配备了两种工具 —— 一个 Bash 工具和一个通过字符串替换进行文件编辑的工具,并且不再包含 Claude 3.7 Sonnet 中使用的第三个“规划工具”。

并在最后注明:在所有 Claude 4 模型中,他们报告的分数基于完整的 500 个问题。OpenAI 模型的得分基于 477 道问题的子集进行报告

基准还是 OpenAI 自己提的

如果说,SWE-bench Verified 还是 OpenAI 自己提的基准,那这件事就更离谱了。

这不就相当于自己搬起石头砸自己的脚啦嘛。

当时啊还是因为类似的原因 —— 他们测试发现 SWE-bench 的一些任务可能难以解决甚至无法解决,导致 SWE-bench 无法系统性评估模型的自主编程能力。

于是乎,他们决定与 SWE-bench 的作者合作,决定弄出个新版本,希望能够提供更准确的评估。

他们共同发起了一项人工注释活动,共有 93 位资深程序员参与进来,以筛选 SWE-bench 测试集每个样本,从而获得适当范围的单元测试和明确指定的问题描述。

他们随机抽取了 1699 个样本,然后基于统一标准来进行标注。

比如,问题描述是否明确?每个注释都有一个标签,范围从 [0, 1, 2, 3],严重程度依次递增。

标签 0 和 1 表示轻微;标签 2 和 3 表示严重,表示样本在某些方面存在缺陷,应予以丢弃。

此外,我们还会评估每个示例的难度,方法是让注释者估算开发人员确定并实现解决方案所需的时间。

最终得到了 500 个经过验证的样本,并且按照难度对数据集进行细分。“简单”子集包含 196 个小于 15 分钟的修复任务,而“困难”子集包含 45 个大于 1 小时的任务。

结果现在这个子集又被 OpenAI 缩减了。

One More Thing

不过,还是有个总榜单或许值得参考,就是那个最原始的 SWE-bench。

在这个榜单中,Claude 4 Opus 还是占据着领先位置。

GPT-5 也已经发过好一阵了,不知道你有没有这样类似的编程体验呀?欢迎在评论区与我们分享。

参考链接:

  • [1]https://www.swebench.com/

  • [2]https://openai.com/index/introducing-gpt-5/

  • [3]https://www.anthropic.com/news/claude-opus-4-1

  • [4]https://x.com/SemiAnalysis_/status/1955028150217478177

  • [5]https://x.com/DavidOndrej1/status/1954158161721487482

本文来自微信公众号:量子位(ID:QbitAI),作者:白交,原标题《GPT-5 编程成绩有猫腻!自删 23 道测试题,关键基准还是自己提的》

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!