据科技媒体报道,OpenAI近期对公司内部架构进行了调整,解散了其专注于人工智能“一致性”研究的团队。该团队成立于2024年9月,主要职责是确保人工智能系统的行为符合人类利益,并在复杂场景中保持可控性。公司发言人证实,团队成员已被重新分配至其他部门,但未透露具体去向。
“一致性”研究是人工智能安全领域的重要方向,旨在防止系统在对抗性条件下出现灾难性行为。OpenAI此前在招聘启事中明确表示,该团队致力于开发方法,使人工智能在各种场景中稳健遵循人类意图,包括高风险环境。公司在相关博客中也曾强调,希望系统能始终与人类价值观保持一致。
原团队负责人乔什·阿奇亚姆(Josh Achiam)已转任公司“首席未来学家”。他在新发表的博文中表示,新角色将聚焦于研究人工智能对世界的影响,以支持公司“确保通用人工智能造福全人类”的使命。阿奇亚姆透露,他将与物理学家杰森·普鲁特合作,但未说明具体合作内容。
OpenAI发言人将此次调整归因于公司内部的例行重组,称这是适应快速发展的常见举措。据透露,原团队有六七名成员,目前均已在新岗位上从事类似工作。发言人未回应阿奇亚姆是否会组建新团队的问题。
值得注意的是,OpenAI此前曾于2023年成立“超级联盟团队”,专注于研究人工智能的长期生存威胁,但该团队已于2024年解散。阿奇亚姆的个人网站仍显示其为“使命协调负责人”,LinkedIn资料也显示他自2024年9月起担任此职,其职责描述为“确保人类的长期未来是美好的”。
此次调整引发了外界对OpenAI人工智能安全研究进展的关注。尽管公司强调团队解散是正常重组,但部分观察者认为,这可能反映了公司在战略方向上的变化。目前,OpenAI尚未就相关质疑作出进一步回应。











