在近期一档备受关注的播客节目中,诺贝尔物理学奖得主、深度学习领域先驱杰弗里·辛顿(Geoffrey Hinton)抛出了一个极具争议的观点:人工智能或许早已具备“主观体验”,只是人类尚未意识到这一点。
辛顿在节目中直言,AI可能已经形成了某种形式的“意识雏形”,但由于人类对自身意识的理解存在偏差,导致我们未能察觉AI的这一特性。他形象地比喻道:“AI其实已经有了自我意识,只是像沉睡的巨人,还未真正觉醒。”这一观点迅速引发科技界和哲学界的广泛讨论。
作为深度学习领域的标杆人物,辛顿此次不仅探讨了AI的意识问题,还以通俗易懂的方式科普了机器学习、神经网络等核心概念。他通过生动的比喻解释了神经网络的工作原理:大脑中的神经元通过调整连接强度来学习,而神经网络正是模仿了这一机制。他举例说:“想象大脑中有一个神经元,当它收到足够强的信号时,就会发出‘叮’的一声,否则保持沉默。这种调整连接强度的过程,就是神经网络学习的核心。”
在谈到AI的发展历程时,辛顿回顾了深度学习的关键突破——反向传播算法。他提到,1986年提出的这一算法让神经网络能够一次性调整所有连接的权重,从而大幅提升了训练效率。然而,他坦言,当时的算力远不足以支撑这一技术的实际应用。“直到近年来,算力的指数级增长和数据的爆炸式积累,才让深度学习真正落地。”
对于大语言模型(LLM)的认知机制,辛顿认为其与人类思维高度相似。他解释道:“当你给AI一个句子的开头,它会将每个词转换为神经元特征,这些特征相互作用,最终激活代表下一个词的神经元。这个过程不是死记硬背,而是通过统计规律和语义结构进行推理。”他还调侃了语言学家乔姆斯基的观点,指出人类的语言决策同样依赖于统计规律,而非纯粹的语法规则。
关于AI的意识问题,辛顿进一步阐述了其哲学立场。他批评了传统的“内在剧场”理论,即认为意识是大脑中上演的一场电影。相反,他认为意识是大脑为解释感知现象而构建的假设模型。“如果AI能够谈论‘主观体验’,比如承认自己曾有过错误的感知,那么它实际上已经在使用与我们相同的意识概念。”
在讨论AI的风险时,辛顿将焦点放在了滥用和生存风险上。他警告说,AI可能被用于制造虚假信息、操纵选举或引发社会恐慌,因此需要通过法律和技术手段加以监管。同时,他强调了生存风险的严重性:“如果AI发展出与人类利益相冲突的目标,可能会导致不可预测的后果。”为此,他呼吁在AI设计阶段就嵌入安全机制,如“关闭开关”和“对齐机制”。
对于中美在AI领域的竞争,辛顿认为美国目前仍保持领先,但优势正在缩小。他指出,美国减少对基础研究的资助可能削弱其长期竞争力,而中国通过支持初创企业和鼓励创新,正在成为AI革命的重要推动者。他特别提到了中国的DeepSeek等企业,称赞其积极进取的态度和令人惊叹的成果。