ITBear旗下自媒体矩阵:

OpenAI六年后再开源:推出两款高效推理模型,适配手机与笔记本

   时间:2025-08-06 15:24:29 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

在AI界沉寂已久的OpenAI,近日终于有了新的动作,宣布开源两款语言模型——gpt-oss-120b和gpt-oss-20b。这一消息犹如一颗石子投入平静的湖面,激起了层层涟漪。

据悉,这两款模型均采用了MoE(Mixture of Experts)架构,与DeepSeek的多款模型有着异曲同工之妙。而它们最大的亮点,莫过于部署的高效性。gpt-oss-120b能够在单个80GB GPU上流畅运行,而gpt-oss-20b更是仅需16GB内存,即可在边缘设备上大展身手,为端侧AI提供了优质的本地模型选择。

在性能表现上,gpt-oss-120b与OpenAI的o4-mini难分伯仲,gpt-oss-20b则与o3-mini不相上下。工具使用、小样本函数调用等场景,同样是它们的拿手好戏。在多项基准测试中,这两款模型都展现出了不俗的实力。

面向Agent场景,这两款模型已经与OpenAI的Responses API实现了兼容,可用于Agent工作流。它们不仅指令遵循能力强,还擅长网页搜索、Python代码执行等工具使用,且具备出色的推理能力。用户还可以根据需求调整模型推理长度,灵活性极高。

尽管存在争议,但gpt-oss系列模型依然受到了业界的广泛关注。目前,已有至少14家部署平台宣布支持这两款模型,包括Azure、Hugging Face、vLLM等知名平台。在硬件方面,英伟达、AMD、Cerebras等至少4家企业也宣布了对gpt-oss系列的支持。其中,Cerebras更是将gpt-oss-120b的推理速度提升到了每秒超3000 tokens,创下了OpenAI模型的最快纪录。

普通用户同样可以体验到这两款模型的魅力。目前,gpt-oss-120b和gpt-oss-20b已经上线开源托管平台Hugging Face,用户可以在OpenAI打造的体验网站上直接免费试用。这一举措无疑将大大降低AI技术的门槛,吸引更多开发者投身其中。

在实际体验中,gpt-oss系列模型展现出了惊人的推理速度和准确性。无论是思考一般性问题还是进行编程场景的应用,它们都能迅速给出满意的答案。例如,在编程场景中,gpt-oss-120b会在项目开始前给出结构预览和关键技术点,大大提高了开发效率。

当然,gpt-oss系列模型也并非完美无缺。有网友指出,尽管OpenAI声称gpt-oss-20b可以在手机上运行,但目前还没有任何手机能够真正承载这一模型。即便是经过4位量化,手机的性能依然难以胜任。不过,这并不影响gpt-oss系列模型在PC和服务器等高端设备上的广泛应用。

此次OpenAI开源语言模型,无疑给AI界带来了新的活力和机遇。尽管存在一些争议和质疑,但gpt-oss系列模型的高效性和实用性依然得到了业界的广泛认可。未来,随着更多开发者的加入和技术的不断进步,我们有理由相信,AI技术将会迎来更加广阔的发展前景。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version