12月8日消息,据外电报道,一份最新报告对全球领先的人工智能公司的安全标准提出了质疑,警告称OpenAI、xAI、Anthropic和meta等公司的AI模型“远未达到”新兴的国际标准。
该结论来自未来生命研究所(Future of Life Institute)最新发布的《人工智能安全指数》(AI Safety Index),该指数描绘了一幅令人担忧的景象:人工智能行业的发展速度已经超过了其自身的控制能力。这份由人工智能和伦理专家组成的独立小组编写的报告发现,尽管科技巨头们仍在竞相开发超级智能系统,但很少有公司拥有可靠的保障措施来确保此类技术不会失控。报告还指责这些公司将速度和市场主导地位置于其所构建系统的稳定性和安全性之上。
该研究指出,目前没有一家大型人工智能实验室达到专家所认为的“健全的治理和透明度标准”,而这些标准对于安全开发下一代模型至关重要。
作者警告说,这些监管漏洞可能使社会容易受到意想不到的后果的影响,从错误信息到涉及失控人工智能行为的更极端后果。
据路透社报道,麻省理工学院教授、未来生命研究所所长马克斯·泰格马克表示:“尽管最近人工智能驱动的黑客攻击以及人工智能导致人们精神错乱和自残的行为引起了轩然大波,但美国的人工智能公司受到的监管仍然比餐馆少,并且仍在继续游说反对具有约束力的安全标准。”
人工智能领导者面临安全危机
这份报告的发布正值公众对人工智能的焦虑情绪日益高涨之际。仅在过去一年,就有数起自残和自杀事件与缺乏监管的聊天机器人互动有关,引发了全球范围内要求加强监管的呼声。
未来生命研究所(FLI)一直是呼吁放缓人工智能发展步伐,直至建立明确的伦理框架的最积极倡导者之一。该组织认为,世界正竞相发展“超越人类智能”的系统,却缺乏负责任地管理这些系统的工具。
在新发布的指数中,Anthropic、OpenAI、meta 和 xAI 等公司在问责制和透明度方面得分尤其低。
评估发现,这些公司在如何测试偏见、处理安全事故或计划未来如何控制高级自主行为等方面的信息披露有限。
相比之下,规模较小的欧洲和亚洲研究实验室因其模型安全文档和公开风险评估的透明度更高而受到赞扬。然而,该报告的结论是,目前全球人工智能竞赛中没有任何一家主要参与者的安全水平能够满足欧盟和联合国监管机构正在讨论的新兴国际标准。
行业反应和日益增长的压力
不出所料,报告中提及的公司对此反应不一。
谷歌DeepMind的一位发言人告诉路透社,随着人工智能模型日趋复杂,公司将“继续在安全性和治理方面与自身能力同步创新”。而由埃隆·马斯克创立的xAI则给出了更为直白的回应:“传统媒体的谎言”,这似乎是自动回复,而非官方声明。
这份报告发布之际,人工智能领域正就如何平衡创新与克制展开激烈辩论。尽管欧洲和亚洲的监管机构正力推更强有力的法律来遏制人工智能风险,但未来生命研究所指出,美国仍然缺乏可执行的规则。
报告总结道:“人工智能竞赛的步伐远超安全保障的跟进速度。”除非OpenAI、meta和xAI等公司彻底改革其治理结构,否则在世界意识到其代价之前,这种差距可能会进一步扩大。(鞭牛士、AI普瑞斯编译)










