在2025年世界人工智能大会的首日,人工智能领域的传奇人物杰弗里·辛顿与上海人工智能实验室主任周伯文教授展开了一场精彩的对话。杰弗里·辛顿,作为深度学习领域的巨擘,同时也是2024年诺贝尔奖和2018年图灵奖的得主,他的到来无疑为大会增添了浓厚的学术氛围。
尽管已77岁高龄且腰伤在身,杰弗里·辛顿依然不远万里来到中国,进行了他的首次中国演讲。演讲中,他分享了自己对于超级智能、数字永生以及AI安全的深刻思考。他的演讲内容丰富,涵盖了他半个世纪的研究成果,为听众带来了宝贵的学术财富。
下午的对话环节,当杰弗里·辛顿步入会场时,全场观众起立鼓掌,手机镜头纷纷对准这位人工智能领域的教父。在与周伯文教授的对话中,他们探讨了AI多模态大模型的前沿进展、“主观体验”和“意识”的奥秘、如何训练出“善良”的超级智能、AI在科学发现中的应用,以及给年轻科学家的建议等多个话题。
对于多模态模型是否具有主观体验的问题,杰弗里·辛顿表示,这并非一个纯粹的科学问题,而是取决于如何定义“主观体验”或“意识”。他认为,大多数人对这些概念的理解可能存在误区,就像人们对“水平”和“垂直”的理解一样,看似简单却常常出错。他进一步指出,当今的多模态聊天机器人可能已经具备了某种形式的意识。
周伯文教授对此表示震惊,并引用了另一位加拿大科学家Richard Sutton的观点,即模型可以从自己的体验中学习。杰弗里·辛顿同意这一观点,并强调,当AI作为世界中的Agent时,它们可以从自己的经验中学习,甚至可能学到比我们多得多的知识。然而,他也承认,这种学习可能带来潜在的风险。
在谈到如何减少未来AI风险时,杰弗里·辛顿提出了一种可能的解决方案,即通过训练AI的分离目标来降低风险。他认为,我们可以拥有既聪明又善良的AI,但训练它们变得聪明和善良需要采用不同的技术。这些技术虽然应用于同一个AI,但它们是独立的。他建议,国家之间可以分享使AI变得善良的技术,即使不愿意分享使AI变得聪明的技术。
周伯文教授对此表示赞同,但也提出了疑问。他认为,对于不同层次的智能系统,善意约束可能需要改变。杰弗里·辛顿同意这一观点,并表示我们现在需要对这一问题进行大量研究。
他们还讨论了AI对科学进步的推动作用以及科学对AI发展的促进作用。杰弗里·辛顿认为,人工智能在科学领域的应用已经取得了显著的成果,如蛋白质折叠的预测等。他相信,在未来的许多领域,人工智能都将改善科学。
在对话的最后,杰弗里·辛顿给年轻科学家提出了一些建议。他认为,若想做出真正原创的研究,就要寻找那些“众人都可能做错”的领域。他鼓励年轻人坚持自己的信念,即使面临质疑和否定也不要轻易放弃。他强调,重大突破往往来自于那些坚持不懈的人。
这场对话不仅为听众带来了深刻的学术思考,也为人工智能领域的未来发展提供了宝贵的启示。