近日,OpenAI打破常规,意外宣布了两款名为gpt-oss-120b和gpt-oss-20b的开源语言模型,这是自2019年GPT-2之后的首次开源举措。此举引发了业界广泛关注,毕竟OpenAI曾以闭源策略著称,甚至被戏称为CloseAI。难道,OpenAI正悄然改变其策略方向?
在性能表现上,gpt-oss-120b凭借约1170亿参数(包含128个专家层,每个token激活约51亿参数),在推理与工具调用任务上展现出了与o4-mini相当甚至超越的表现,更令人惊喜的是,它能够在单片H100 GPU上流畅运行。而gpt-oss-20b,虽然参数规模相对较小,约为210亿(激活约36亿参数),但它却能在配备16GB内存的普通消费级硬件上运行,且在常见的推理基准测试中,表现与o3-mini不相上下,甚至在某些方面更胜一筹。
从技术架构的角度来看,这两款模型均采用了Mixture-of-Experts(MoE)架构,并获得了Apache 2.0许可,这意味着它们不仅可用于商业用途,还支持二次开发和本地部署。它们还具备链式思维(CoT)、函数调用、Web浏览以及Python执行能力,且推理水平可根据需求调整为低、中、高三档,以满足不同场景下的速度与性能需求。
在安全与部署方面,OpenAI在发布前已经利用Preparedness framework对gpt-oss-120b进行了严格的对抗性微调测试,确保其在生物、安全、自主提升等高风险类别上的表现并未达到“高风险”级别。用户可以通过AWS Bedrock、Azure Model Catalog、Ollama、vLLM、Hugging Face等多个平台轻松部署这些模型。
对于这一举措,OpenAI的领导层表示,他们的目的是促进开放创新,与DeepSeek、Llama、Mistral等开源势力形成良性竞争。OpenAI的首席执行官Sam Altman强调,这一行动将极大地推动研究与产品开发,让更多的开发者能够基于美国的技术栈构建自己的项目,从而进一步推动AI技术的发展与应用。