在人工智能领域竞争愈发白热化的当下,曾经甚嚣尘上的“AI毁灭论”有了新的走向。据相关科技资讯平台消息,前OpenAI员工、在人工智能界颇具知名度的专家Daniel Kokotajlo,对其此前关于超级智能可能给人类带来灭顶之灾的时间预估做出了重大调整。
Daniel Kokotajlo曾提出过极具冲击力的“AI2027”预测,这一预测在当时引发了广泛关注和激烈讨论。按照他的设想,AI将在2027年具备完全自主编程的能力,随后会以极快的速度进化成难以控制的超级智能,到2030年代中期,人类将面临被毁灭的命运。这一观点不仅在科技圈引发震动,甚至还被美国部分政界人士当作参考依据。不过,它也遭到了众多学者的强烈反对,神经科学教授Gary Marcus等人就毫不留情地将其斥为“科幻小说式的幻想”。
如今,随着对人工智能发展实际情况的深入了解,Daniel Kokotajlo的态度变得更为审慎。根据相关观察,他在最新的预测中对时间节点进行了大幅推迟。他将AI实现自主编程的时间从原来的2027年延后到了2030年代初期,而超级智能出现的时间窗口则设定在2034年左右。他坦言,目前人工智能在复杂多变的现实环境中的表现还存在明显的“短板”,发展并不均衡。
尽管“AI毁灭论”的“末日钟声”看似被往后拨动了,但人工智能领域的头部企业并没有因此放缓前进的步伐。OpenAI首席执行官Sam Altman就曾透露,公司内部设定了一个目标,要在2028年之前打造出能够自动开展研究工作的AI研究员。这也表明,虽然超级智能带来的威胁似乎在时间上有所延后,但人工智能的发展依旧充满变数,其最终走向仍然难以准确预判。











