ITBear旗下自媒体矩阵:

OpenAI深夜放大招:两大开源推理模型上线,性能直逼o4-mini

   时间:2025-08-06 12:53:37 来源:新智元编辑:快讯团队 IP:北京 发表评论无障碍通道
 

在深夜的一则震撼消息中,OpenAI悄然放出了两大开源语言模型——gpt-oss 20B与gpt-oss 120B,这一举动无疑在AI界投下了一枚“开源核弹”。这两款模型不仅性能上可与OpenAI自家的o3-mini和o4-mini相媲美,更令人惊喜的是,它们能够在消费级显卡乃至智能手机上流畅运行。

随着这两款模型的发布,OpenAI终于兑现了自GPT-2以来的开源承诺。奥特曼,这位AI界的领航者,带着他的新作品,悄然降临。gpt-oss 120B拥有1170亿总参数,其中51亿为激活参数;而gpt-oss 20B则拥有210亿总参数,激活参数为36亿。这两款模型的问世,标志着OpenAI在开源领域的重大回归。

在性能表现上,gpt-oss 120B针对高推理能力的生产级和通用型场景游刃有余,其核心推理基准测试成绩与o4-mini不相上下,且能在配备80GB显存的GPU(如H100)上高效运行。而gpt-oss 20B则更适合低延迟、本地或专业化场景,其在常用基准测试中的表现与o3-mini相似,更能在仅具16GB显存的边缘设备上流畅工作。

不仅如此,这两款模型在工具使用、少样本函数调用、CoT推理以及HealthBench评测中均展现出强劲实力,甚至在某些方面超越了OpenAI的专有模型如o1和GPT-4o。它们还具备诸多亮点:宽松的Apache 2.0许可证、可配置的推理投入、完整的思维链访问、支持微调、智能体能力以及原生MXFP4量化等。

尤为OpenAI还为这两款模型准备了一个在线体验平台,供用户亲身体验其强大功能。用户只需访问https://gpt-oss.com/,即可开启AI之旅。同时,GitHub项目页面(https://github.com/openai/gpt-oss)也提供了丰富的资源和社区支持。

技术层面,gpt-oss系列模型采用了最先进的预训练和后训练技术。它们基于Transformer架构,并融入了MoE设计以减少处理输入时的激活参数量。同时,模型还借鉴了GPT-3的设计理念,采用了交替的密集注意力和局部带状稀疏注意力模式。为了提升推理和内存效率,还引入了分组多查询注意力机制和旋转位置编码(RoPE),原生支持128k上下文。

在训练数据上,gpt-oss模型以英语为主,聚焦于STEM、编程和通用知识领域。OpenAI采用了o200k_harmony分词器对数据进行分词处理,该分词器是OpenAI o4-mini和GPT-4o所用分词器的“超集”,并同步开源。

gpt-oss系列模型与Responses API兼容,专为智能体工作流打造。它们能够自主调整推理投入以适应复杂推理或极低延迟输出的任务需求。同时,模型完全可定制,并提供完整的思维链(CoT)以及支持结构化输出。据悉,整个预训练成本低于50万美元。

在后训练阶段,gpt-oss模型的流程与o4-mini相似,包含了监督微调和高算力强化学习阶段。团队以“OpenAI模型规范”为目标对齐,教导模型在生成答案前使用CoT推理和工具。通过采用与专有o系推理模型相同的技术,gpt-oss在后训练中展现出卓越能力。

在多个基准测试中,gpt-oss 120B的性能堪比甚至超越旗舰级o系模型。在编程竞赛、通用问题解决以及工具调用方面,它直接超越了o3-mini,达到甚至超越了o4-mini的水平。同时,在健康相关查询和数学竞赛基准中,gpt-oss 120B的表现也优于o4-mini。尽管gpt-oss 20B规模较小,但在相同评估中表现同样出色,甚至在AIME、健康领域基准上超越了o3-mini。

此次开源不仅为开发者提供了强大的工具,补充了托管模型的生态,加速了前沿研究与创新,更重要的是降低了新兴市场及缺少算力的小企业的准入门槛。一个健康的开放模型生态系统对于AI的普及与惠及所有人具有重要意义。奥特曼骄傲地表示,gpt-oss是OpenAI“数十亿美元”研究成果的结晶,是全世界最出色、最实用的开放模型。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version