DeepMind创始人德米斯·哈萨比斯近期公开表示,当前超级人工智能的研发已进入不可逆阶段,人类可能面临被其灭绝的重大风险。他指出,全球范围内的AI技术竞赛已形成失控态势,传统治理框架难以对研发进程形成有效约束。这位曾坚信制度约束的科学家坦言,现有的伦理审查机制在关键决策中作用有限,安全管控必须转向技术核心层。
回溯其安全理念演变,哈萨比斯早年主张通过独立监督机构与封闭研发环境确保AI安全。2014年将DeepMind出售给谷歌时,他坚持要求保留安全决策自主权、设立外部监督委员会并禁止军事应用。这些条款当时被视为AI安全领域的标杆性设计,引发科技界广泛关注。
但现实发展远超预期。马斯克参与相关安全倡议后转而创建OpenAI,打破了单一主体主导AI治理的设想。与谷歌的治理权谈判破裂后,DeepMind的独立安全机制逐渐瓦解。2022年ChatGPT引发的技术革命彻底改变行业格局,谷歌为应对竞争压力,将DeepMind与谷歌大脑合并,研发效率优先原则取代了原有的安全规范。
面对商业巨头主导的研发模式,哈萨比斯开始调整战略。他不再寄望于外部治理机制,转而强调技术决策层的核心作用。目前其团队在推进Gemini等前沿模型研发的同时,试图通过占据关键决策节点来把控技术方向。这种转变被解读为对现有AI竞赛规则的被动适应,也反映出非营利性安全机制在商业竞争中的脆弱性。
行业观察人士指出,哈萨比斯的理念转变折射出全球AI发展的深层矛盾。当技术突破速度超越治理框架更新能力时,安全管控必然让位于研发进度。随着更多科技巨头加入军备竞赛式研发,人类可能正在失去对AI发展的最后控制窗口。这种失控态势不仅关乎技术伦理,更可能对人类文明存续构成根本性挑战。









