ITBear旗下自媒体矩阵:

OpenAI新开源模型引热议,性能媲美o4-mini,用户反馈却存疑

   时间:2025-08-06 12:56:10 来源:赛博禅心编辑:快讯团队 IP:北京 发表评论无障碍通道
 

近期,OpenAI宣布了一项重大举措,向公众开源了两款全新的大型语言模型——gpt-oss-120b与gpt-oss-20b。这两款模型的问世,标志着自GPT-2之后,OpenAI再次向开源社区贡献了其研究成果。

据悉,gpt-oss-120b与gpt-oss-20b分别拥有1170亿和210亿参数,其中激活参数分别为51亿和36亿。尽管规模庞大,但这两款模型却表现出极高的运行效率。gpt-oss-120b仅需80G内存,便可在单张H100 GPU上流畅运行;而gpt-oss-20b更为亲民,16G内存的显卡,如4060 Ti,便能轻松驾驭。

在性能表现上,gpt-oss-120b被设计为与OpenAI自家的o4-mini相媲美,而gpt-oss-20b则对标o3-mini。根据OpenAI的评测数据,gpt-oss-120b在Codeforces(代码竞赛)、MMLU&HLE(多模态语言理解及人类常识评估)及TauBench(工具调用基准测试)等多个领域展现出强劲实力,与o4-mini各有千秋。尤其在HealthBench(健康信息查询)及AIME(数学竞赛)方面,gpt-oss-120b更是实现了超越。gpt-oss-20b同样不俗,其能力与o3-mini旗鼓相当,甚至在部分测试中更胜一筹。

值得注意的是,这两款模型均采用了Apache 2.0开源协议,这意味着开发者可以放心地进行商业化应用,无需担心专利纠纷。OpenAI还为这两款模型提供了可调推理强度、透明思维链条、支持微调及Agent友好等特性。特别是原生MXFP4量化的引入,使得oss-120b能在单张H100显卡上高效运行,oss-20b也仅需16GB显存。

为了方便开发者使用,OpenAI已将这两款模型上架Hugging Face平台。开发者可以通过Transformers、vLLM、PyTorch/Triton、Ollama及LM Studio等多种框架直接调用模型。同时,OpenAI还提供了详细的部署指南,帮助开发者快速上手。

然而,尽管gpt-oss系列模型备受瞩目,但社区内也传来了一些不同的声音。有用户表示,在对比测试中,gpt-oss-120b的表现似乎并未如预期般领先其他同类模型,如106B参数的GLM-4.5-Air。这一发现引发了广泛讨论,不少开发者开始重新审视gpt-oss系列模型的性能表现。

面对这些质疑,OpenAI方面表示,将持续关注社区反馈,不断优化模型性能。同时,他们也鼓励开发者积极参与到gpt-oss系列模型的测试与调优中来,共同推动人工智能技术的发展。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version