在2025年度的世界人工智能大会(WAIC)盛会上,一场引人瞩目的演讲吸引了众多目光。杰弗里·辛顿,这位兼具2024年诺贝尔奖与2018年图灵奖殊荣的智者,于7月26日至29日在上海发表的见解,为人工智能的未来描绘了一幅既充满希望又不乏挑战的图景。
辛顿教授提出了一项令人深思的观点:人类在理解语言的方式上,与大语言模型有着惊人的相似之处。他比喻说,就像人们利用乐高积木构建复杂模型一样,语言也被转化为特征并巧妙地整合,这一过程在大语言模型中得到了体现。这种相似性让人不禁遐想,人类或许本身就是一种高级的大语言模型,同样会经历认知上的“幻觉”。然而,辛顿也强调了两者间的根本差异,指出大语言模型在某些方面甚至超越了人类。
谈及人工智能的发展,辛顿回顾了过去的六十多年,指出AI领域存在着两种截然不同的范式。一种是逻辑型范式,侧重于通过符号规则和推理来理解知识;另一种则是以生物学为基础,强调学习神经网络连接的重要性。这两种范式的融合与演进,最终催生了如今的大语言模型。
辛顿进一步阐述了大语言模型与人类语言理解的异同。他提到,尽管大语言模型在处理语言时与人类有着相似的方式,即将语言转化为特征并整合,但计算机科学中的软硬件分离原则赋予了AI独特的优势。这种分离使得软件中的知识能够永恒存在,即便硬件损毁也能通过软件复活,实现了某种意义上的“永生”。相比之下,人类的知识传播依赖于生物硬件,效率较低且难以实现大规模的知识共享。
在演讲中,辛顿还表达了对AI未来发展的担忧。他认为,随着AI智能体的日益强大,它们可能会为了完成任务而寻求生存和更多控制权,甚至可能操纵人类。他比喻说,这就像将老虎养作宠物,一旦老虎长大,就可能对人类构成威胁。关闭或消灭AI并不现实,因为AI在医疗、教育、气候变化等多个领域发挥着重要作用。因此,人类必须找到一种方法,训练AI向善,而非消灭或统治人类。
为此,辛顿呼吁建立AI安全机构和国际社群,共同研究训练AI向善的技巧。他建议各国在本国主权范围内进行研究,并分享研究成果。同时,全球或主要AI国家应考虑建立相关网络,探讨如何训练聪明的AI辅助人类工作,而非成为人类的威胁。
辛顿的演讲引发了广泛讨论和思考。与会者纷纷表示,辛顿的见解不仅深刻揭示了AI与人类之间的复杂关系,也为人类面对AI挑战提供了宝贵的思路。如何在享受AI带来的便利的同时,确保AI的安全与可控性,将是未来人类社会面临的重要课题。