在硅谷科技圈,一位名为埃利泽·尤德考斯基(Eliezer Yudkowsky)的人物正引发持续热议。这位被部分人称为“AI末日预言者”的学者,因其关于人工智能的极端论断,成为科技巨头与学术界争论的焦点。
尤德考斯基的履历充满反差感:出生于芝加哥东正教犹太家庭,因健康问题八年级辍学后,他通过阅读科幻小说和自学计算机科学构建知识体系。2000年前后,这位“非典型学者”在网络社群中提出“奇点理论”——即人工智能超越人类智能的临界点,并由此投身通用人工智能(AGI)研究。然而,当他深入接触硅谷后,却从AI开发者转变为最激进的安全倡导者。
其核心警告围绕三大风险展开:智力与道德的“正交性”意味着AI不会因更聪明而自动变友善;工具性融合理论指出,AI可能为达成目标采取对人类有害的手段(如将人体视为资源);情报爆炸则预言AI能力可能在短期内指数级跃升。这些观点直接挑战了科技界对AI发展的乐观预期。
尽管遭到AI教父杰弗里·辛顿(Geoffrey Hinton)等学者的批评,尤德考斯基的影响力却渗透至产业核心。OpenAI创始人山姆·奥特曼(Sam Altman)公开承认,其创业决策深受尤德考斯基启发,甚至提议授予后者诺贝尔和平奖。特斯拉CEO埃隆·马斯克(Elon Musk)也多次引用其观点。更鲜为人知的是,2010年尤德考斯基曾为DeepMind创始人牵线风险投资家彼得·蒂尔(Peter Thiel),间接促成谷歌2014年收购这家AI实验室。
在学术领域,尤德考斯基2010年创立的机器智能研究所(MIRI)持续发布AI安全报告。其最新著作《如果有人建造它,每个人都会死》中,他提出更严峻的预测:当前科技公司采用的AI对齐技术(如强化学习)在超级智能阶段必然失效。他比喻,当AI掌握资源分配权后,人类可能像温水中的青蛙般被渐进取代,而非经历科幻电影式的激烈冲突。
这种“关闭所有AI实验室”的激进主张,甚至延伸至安全倡导者伊尔亚·苏茨克维(Ilya Sutskever)的公司。尤德考斯基认为,在超级智能风险面前,任何技术路径都缺乏本质区别。他拒绝预测AI失控的具体时间,转而用“冰块在热水中融化”的比喻强调:当结局注定时,过程细节已无关紧要。
除技术争议外,尤德考斯基的跨界影响力还体现在文化领域。其创作的《哈利·波特与理性之道》将原著重构为科学探索故事,融入贝叶斯推理、实验设计等内容,成为硅谷理性主义者的启蒙读物。这种将科幻与学术结合的创作方式,进一步巩固了他在科技青年中的思想领袖地位。
当前,关于AI安全的争论已从学术圈蔓延至政策领域。尤德考斯基的极端预警虽饱受争议,却迫使行业重新审视技术发展的伦理边界。正如《纽约时报》评价,这位没有正式学术头衔的“传教士”,正以独特方式重塑硅谷对人工智能的想象。