OpenAI前研究员丹尼尔·科科塔伊洛近日公开指出,人工智能行业正陷入一场危险竞赛——各大企业竞相开发连自身都难以完全掌控的智能系统。这位现任AI未来项目负责人在接受媒体采访时坦言,当前AI发展的核心矛盾在于技术突破速度远超人类对风险的认知能力。
作为曾在OpenAI从事预测研究的专家,科科塔伊洛特别强调了"对齐问题"的严峻性。他解释称,当AI系统在医疗、金融等关键领域的能力超越人类时,如何确保其始终遵循人类价值观将成为生死攸关的挑战。"我们就像在驾驶一辆没有刹车的汽车,却还在不断加速。"这位研究员用生动的比喻描述了行业现状。
据其透露,目前最先进的AI模型决策机制仍存在"黑箱"特性,研究人员无法完全解释系统如何得出特定结论。这种不确定性使得风险控制变得异常困难,特别是在涉及伦理道德的决策场景中。科科塔伊洛指出:"这已经成为行业内的公开共识,但至今没有找到切实可行的解决方案。"
在OpenAI工作期间,科科塔伊洛曾专注于预测AI技术演进轨迹及其可能引发的连锁反应。他发现企业普遍存在"速度至上"的思维定式,为抢占市场先机往往忽视潜在风险。这种短视行为在他看来极其危险,特别是当技术突破可能触及"超级智能"临界点时。
"一旦出现超越人类理解能力的超级智能,现有社会秩序将面临根本性挑战。"科科塔伊洛警告说,当前对AI发展速度的认知普遍存在低估倾向,部分原因在于相关讨论常被误认为是科幻想象。他特别提到,科技巨头正在投入数百亿美元建设超大规模数据中心,这种军备竞赛式的投入正在加剧系统性风险。
离开OpenAI后,科科塔伊洛通过非营利机构持续追踪AI发展动态。他最新研究显示,如果企业继续保持当前竞争态势,未来五年内可能出现具有自我改进能力的AI系统。这种技术跃迁可能引发不可控的连锁反应,甚至导致人类失去对技术演进的主导权。











