长久以来,科学界普遍认为人类大脑理解语言依赖严谨的规则、语法和结构分析,这种观念已延续数十年。然而,近期一项发表于《自然·通讯》的研究,彻底打破了这一传统认知,为语言处理机制的研究带来了全新视角。
研究人员开展了一项别具一格的实验。他们邀请9名因癫痫接受术前监测的病患参与,这些病患的大脑皮层上已植入高密度ECoG电极。这种电极设备能够以毫秒级的精度,精准记录大脑真实的电活动。实验过程中,受试者聆听一段30分钟的播客,研究人员同步采集围绕每个词出现时刻的高伽马脑电信号。这些信号覆盖了语言通路中的关键区域,包括掌管听觉的mSTG、aSTG,负责语言整合的IFG以及高级语义区的TP。
与此同时,研究人员将同一段文本输入GPT - 2 XL和Llama - 2这两种大语言模型。每当模型处理到一个词时,就暂停操作,抽取该词在模型内部从第一层到最后一层的所有内部理解表示。随后,对模型每一层的表示通过CA降维进行简化,再利用线性模型尝试预测人脑在对应时刻的电活动。
实验结果令人震惊。原本以为GPT的层级结构与大脑处理语言的方式并无关联,若强行将模型层级对齐到大脑的时间轴上,结果可能杂乱无章。但事实并非如此,在脑电时间轴上呈现出明显的秩序。GPT的48层在大脑语言通路中呈现出清晰的“时间—深度”对应结构,浅层(暖色)在更早的时间点达到峰值,深层(冷色)在更晚时间出现。TP、aSTG、IFG等高阶区域表现出强线性关系,而mSTG(近听觉皮层)几乎没有层级结构,因为这里主要处理声音本身,语言的语义和结构还未展开。一旦进入aSTG、IFG、TP等区域,曲线呈现出从浅到深的整齐分布。在关键语言区IFG内部,GPT的层级结构同样呈现强烈的时间对应关系,浅层至深层的相关度分布呈现出规律性的时间推移,IFG的整体拟合度达到r = .85(p < .001)。
这一发现意味着,大脑理解语言并非按照传统认知那样,先按部就班地解析语法,再逐步拆解词汇。实际上,大脑像GPT一样,进行着一层又一层的语义推断和概率预测,而且这套复杂的推断节奏与大语言模型的内部深度路径完美重合。
随着研究的深入,一个更尖锐的问题浮现出来:那些被认为描述语言“最准确”的传统模型,如音位、词素、句法、语义等构建的语言理解框架,是否也会呈现出同样的时间结构?研究人员将这四类符号语言学模型全部纳入测试,这些模型是数十年来语言学和心理语言学的基础框架。按照传统观念,如果人类语言依赖这些规则,它们理应比GPT更能精确地预测大脑的反应。
然而,测试结果却截然不同。传统符号模型虽然能预测一部分脑电活动,但与GPT相比,差距巨大。在毫秒级时间轴上,这些符号模型的预测曲线找不到明确的“浅到深”“早到晚”的序列分布,没有层级和时间推进,缺乏连续、动态的语言动力。相比之下,GPT的嵌入式表示呈现出“流动式”的处理轨迹,意义随着时间不断更新、压缩、整合,每一层都有其特定位置,像精密的齿轮嵌在上下文里。而符号模型的结构更像是静止、离散的标签堆叠,无法在毫秒级时间维度给出细致、动态的映射。这表明人脑的语言机制并非符号规则的简单堆叠,而是一种连续、深度预测式的加工过程。当我们用语法树解释语言时,大脑实际上已经完成了几十层的非线性变换,而这些变换正是Transformer模型的核心能力。
这一研究结果引发了对语言本质的重新思考。过去几十年,我们用语法规则解释句子,用语义网络解释概念,用树状结构描述语言的逻辑关系,这些框架强调“结构、类别、层次”,却很少关注语言在大脑中的即时生成方式,如它如何在毫秒级连续变化、如何在瞬间整合过去与未来。此次研究呈现出的景象截然不同,大脑处理语言更像是沿着一条不断压缩、预测、更新的轨道向前推进,浅层负责快速提取线索,中层开始整合语境,深层构建较长的意义链条,整个过程是一种向前流动的计算,而非静止的“语法树”。
讽刺的是,Transformer模型被设计时试图通过多层、非线性、依赖上下文、随时间滚动更新等特性捕捉的“流动结构”,原本被认为是工程师的发明,现在看来,它更像是大脑为高效处理信息,在数十亿年进化中选择的一条计算路径。语言的定义也因此悄然改变,它不再是规则体系,而是一种动态预测机制。我们理解一句话,并非先知晓其语法,再去匹配意义,而是在每一毫秒里,计算“下一刻可能发生什么”,GPT正是按照这种方式训练的,这或许就是大型语言模型总让人感觉像在理解人类的原因,它们意外地匹配了人类大脑的节奏。
当GPT的内部层级在大脑里找到清晰的时间对应,我们看到的不再是某个AI模型的“胜利”,而是一种结构上的趋同,一种底层计算规律的殊途同归。语言的本质,也许从不是静态的语法规则,而是连续、动态的预测,大脑和模型都依靠这种机制来理解世界、生成语言、模拟智能,最终两条路径在同一个高效的计算规律上相遇,我们熟悉的语言学和认知科学框架,或许需要迎来一次全面的更新,理解GPT的内部结构,也许正是在重新理解我们自己。











