语言,这一被古希腊哲人亚里士多德视为人类本质标志的能力,长久以来被认为蕴含着人类独有的特质。然而,随着人工智能技术的飞速发展,大语言模型在语言处理领域的表现不断刷新人们的认知。近日,一项由加州大学伯克利分校与罗格斯大学联合开展的研究,将OpenAI的o1模型推上了语言学能力的风口浪尖,其展现出的元语言能力,正挑战着人类对自身语言优势的传统认知。
研究团队设计了一系列严苛的语言学测试,旨在探究大语言模型是否具备人类语言学家所特有的分析能力。测试内容涵盖虚构语言规则归纳、多重递归结构解析以及音韵学规则推断等多个维度。在众多参与测试的模型中,o1的表现脱颖而出,其能力之强,令人惊叹。
以多重递归结构为例,这种在语言学中被视为人类语言与思维决定性特征的结构,曾被认为是大模型难以攻克的难关。然而,o1不仅成功解析了包含多层递归的复杂句子,还能在原有基础上进一步增加递归层次,生成新的符合语法规则的句子。这一能力,在以往的大模型中几乎未曾出现,它标志着o1在语言处理上已不仅仅停留在表面模仿,而是深入到了语言结构的本质层面。
在歧义句识别方面,o1同样展现出了卓越的能力。面对“Eliza wanted her cast out”这样一句充满歧义的句子,o1能够准确识别出“cast”作为名词和动词时的两种不同含义,并为每种含义生成符合语言学规则的句法树。相比之下,其他模型如GPT-4、Llama 3.1等,则往往只能生成不合语法的结构,甚至对语义产生误解。
音韵学作为研究声音模式及音素组织方式的学科,其复杂性不言而喻。研究团队为此创建了30种全新的迷你语言,以测试大模型在面对未知语言时的语音规则推断能力。令人惊讶的是,o1在这些虚构语言上的表现依旧出色,它能够在没有任何先验知识的情况下,正确推断出语音规则,展现出强大的语言适应性和学习能力。
o1的这些卓越表现,引发了人们对大模型语言理解能力的深入思考。长久以来,人们普遍认为,尽管大模型在运用语言方面可能非常擅长,但它们并不具备以复杂方式分析语言的能力。然而,o1的出现,无疑对这一观点提出了挑战。它不仅能够像人类语言学家一样逐步推理、验证假设、构建抽象规则,还能在语言处理上展现出前所未有的深度和广度。
那么,为何只有o1能够展现出如此强大的语言分析能力呢?研究团队认为,这很可能得益于o1所采用的思维链技术。这种技术使得o1能够像人类一样进行逐步推理,从而在处理复杂语言问题时更加得心应手。相比之下,其他模型则往往缺乏这种逐步推理的能力,导致在处理复杂语言任务时表现不佳。
随着o1等大模型在语言处理领域的不断突破,人们不禁开始思考一个问题:当模型的性能随着规模扩大而不断提升时,大模型是否有一天会在语言理解上超越人类呢?对于这个问题,目前尚无定论。一方面,大模型在语言学上尚未提出过原创性的观点,也没有教给我们关于语言的新知识;另一方面,随着计算能力和训练数据的不断增加,语言模型在语言技能上超越人类并非不可能。因此,这一问题的答案,或许只能留给时间去揭晓。
尽管如此,o1的出现已经足以改变我们对大模型语言理解能力的评价标准。过去,我们往往更关注模型的任务产出,即它能否完成特定的语言任务;而现在,我们开始更加注重模型的结构解释能力,即它能否对语言结构进行深入的分析和解释。这种评价标准的转变,不仅将推动AI研究的深入发展,还将对教育、应用治理等领域产生深远影响。当可解释性成为首要指标时,AI研究、教育与应用治理将迎来同一套标准——把“为什么对”放在“对不对”之前。











