AI热点 3小时前 179 阅读 0 评论

全网开测GPT-oss!技术架构也扒明白了

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

全网开扒GPT-oss,惊喜发现……


奥特曼还是谦虚了,这性能岂止是o4-mini的水平,直接SOTA击穿一众开源模型。



不仅轻松通过多项性能测试,网友也整起了各种花活:


论文解读、整理数据,甚至造出类似于Grok 4 Heavy的GPT-oss Pro版。


背后架构也是被大佬们挖掘得明明白白,只能说开源真妙哇!



终于理解奥特曼提前预告的那句话是啥意思了:


即将进入SaaS的快时尚时代。



估计接下来OpenAI还有不少好东西要陆续发布……


全网开测GPT-oss


首先,全网最关注的基准测试新鲜出炉,GPT-oss直接登顶开源模型王座


横扫GPQA Diamond、AIME 2024、AIME 2025和Codeforces榜单,超越DeepSeek R1、Qwen3、Llama 4、Kimi K2等一众开源模型。



不过在MMLU上确实还是Qwen3-235B更胜一筹,Kimi-K2也在SWE-Bench上得分更高。



在核心推理基准测试中,GPT-oss实现了与o4-mini等同的效果,可以在单个80GB的GPU上高效运行。


另外在一些常见基准测试中,性能也比肩o3-mini,且只需要一个16GB内存的边缘设备,预计GPT-oss将会成为本地推理或快速迭代的理想选择,而无需昂贵的基础设施。



最小的20B模型可以轻松通过以下三项编码测试,比一些规模远超过它2-3倍的模型效果要好得多:


  • 模拟球在旋转六边形内弹跳,GPT-oss以较高的准确性尽可能还原了真实物理情况。



  • 直接增加到20个球,放入七边形弹跳,且在每次弹跳都提高速度,GPT-oss同样顺利完成。



  • 让GPT-oss制作一个具有光照、阴影、反射的球体3D渲染场景,结果依旧完美契合指令。



然后是每个大模型都逃不过的经典问题:英文草莓里有多少个字母“r”?


GPT-oss 通过



让GPT-oss两个型号均参与鹈鹕推理测试,模型准确勾勒出了车架轮廓和鹈鹕躯体,比例上也相对均衡,充分体现模型具备足够的空间想象力和逻辑连贯性。



除了测试以外,网友们也开始探索GPT-oss的更多使用途径,例如alphaXiv迅速将模型配置到官网,率先用于论文理解。


用户可以对论文的任何部分进行手动选择并针对性提问,还能@关联其它论文,快速获取背景信息并进行比较。



只需要简单的一行代码,就可以利用GPT-oss将混乱的原始数据(如PDF、Word、XLSX)转换为一个强大的LLM测试集。



更有甚者,直接推出了GPT-oss Pro版,类似于Grok 4 Heavy,将10个GPT-oss连接在一起,可以生成比单个模型更优质的结果。



不过这些都只是前菜,官方技术文档里说不明白的架构,网友们也是直接扒了出来。


扒一扒技术架构


与类似大小的Qwen3相比,前威斯康星大学麦迪逊分校统计学教授、RAIR Lab创始人Sebastian Raschka发现,GPT-oss在结构上更宽,拥有更多的注意力头以及前馈层中更高的隐藏维度,更深的层次则是源于更多的Transformer模块



另外有意思的是,他还发现GPT-oss在注意力机制中添加了偏差单元,这一结构上一次出现还是在OpenAI六年前开源的GPT-2。



GPT-oss在架构设计上既保留了MoE Transformer的核心架构,又通过细节优化提升性能、降低复杂度,使其成为适合开源模型的基础架构,Dimitri von Rütte和MIT研究员Adam Zweiger扒出其所涉及的技巧包括:


  • 对每个注意力头,设置一个可以学习的标量,然后进行softmax汇聚。


  • 与GPT-3相同,交替使用滑动窗口层和全连接层。


  • 对每个输入分配4个相关专家处理,再整合结果,专家之间彼此完全独立,同时使用标准负载均衡损失,确保资源高效分配。


  • 使用了改进的swiglu激活函数,通过α=1.702让sigmoid的线性单元silu近似于高斯误差线性单元gelu。裁剪激活值防止梯度爆炸,通过调整“up+1”有助于梯度流动。



  • 采用YaRN上下文窗口扩展技术,提升长文本处理能力。


  • 移除了RMSNorm归一化过程中的可学习偏置参数,减少拟合风险。



  • 去除了对query(Q)和key(K)的归一化,以及注意力软帽(attention softcap)


另外有网友henry还发现GPT-oss-20B的思维链,有时候也会进行很多重复的思考,也许存在一个重启机制,会检查类似情况并重新生成输出。



至于模型成本,根据官方说法,GPT-oss-120B花费了210万H100小时,而20B是它的十分之一。


程序员Simon Willison根据英伟达H100的定价计算,即每小时在2美元到11美元,意味着120B参数的模型成本在420万美元到2310万美元左右,20B则是42万美元到230万美元之间。


不过ellamind创始人在测试中发现了GPT-oss的一些bug,例如在非英语文本上表现不佳,模型响应在超过55%的情况下都包括语法或拼写错误,推测模型只使用了英语进行训练。



官方也是立即发布了相关技术文档,介绍如何对GPT-oss进行微调,使其可以对多种语言进行有效推理。


简单来说,就是安装必要的PyTorch库,下载并格式化Multilingual-Thinking数据集,并在数据集的基础上对模型进行LoRA微调,以生成英语、西班牙语、法语、意大利语或德语的多语言思维链。


OMT


那么想必很多朋友想要立马上手GPT-oss了吧,尤其是能直接在手机上运行的20B。


这里提供一个相对简单的获取方法,直接先下载一个LM Studio(适用于Windows、macOS和Linux),再在搜索栏里输入“GPT-oss-20B”下载即可。



另外,AWS今天也宣布将通过Amazon Bedrock和Amazon SageMaker AI平台正式上线该OpenAI开源模型,直接能够快速便捷地构建生产式AI应用。



除了民间网友的实测,一些专业大佬们也加入了这场开源风暴。


吴恩达测试GPT-oss-120B后,认为其性能相当强大:



Qwen著名研究员Binyuan Hui也表示如果GPT-oss完全使用的是合成数据训练,那么该方法将有助于小模型实现更好的性能。



也欢迎屏幕前的你动手体验GPT-oss,并在评论区留下你的实测结果。


参考链接:


[1]https://x.com/rasbt/status/1952842273848279364


[2]https://cookbook.openai.com/articles/gpt-oss/fine-tune-transfomers


[3]https://x.com/mattshumer_/status/1952791480210162060


[4]https://x.com/RafaCrackYT/status/19528380874420882


[5]https://x.com/hud_evals/status/1952846781286658393


[6]https://simonwillison.net/2025/Aug/5/gpt-oss/


[7]https://x.com/AdamZweiger/status/1952799642636148917


[8]https://x.com/arithmoquine


文章来自于微信公众号“量子位”,作者是“鹭羽”。


作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!