ITBear旗下自媒体矩阵:

大语言模型“理解”能力引热议:杨立昆直言其难及猫,未来路在何方?

   时间:2025-12-19 01:42:48 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

在人工智能领域,大语言模型的能力与局限始终是学界与产业界热议的焦点。近期,meta首席科学家杨立昆与DeepMind高级研究科学家Adam Brown在纽约展开了一场深度对话,围绕语言模型的理解力、意识可能性及技术发展路径展开激烈讨论,试图为公众厘清人工智能发展的关键边界。

当主持人抛出“语言模型是否真正理解语义”这一核心问题时,两位科学家给出了截然不同的判断。Adam Brown认为,当前模型已展现出超越符号匹配的理解能力——它们不仅能解答复杂物理问题,更在国际数学奥林匹克竞赛中破解从未见过的题目,这种能力远非单纯记忆可比。杨立昆则持审慎态度,他以四岁儿童与最大语言模型的数据对比为例:儿童通过感官互动获取的信息量与模型训练的30万亿词文本相当,但前者能完成倒水、收拾餐桌等任务,后者却连洗碗都难以实现。这种差异暴露了模型在常识推理与因果认知上的根本缺陷。

在意识问题上,两人的分歧同样显著。Adam Brown提出,若技术持续演进,未来AI可能发展出某种形式的意识结构。他引用物理学中的“涌现”概念,指出简单神经元连接后产生的复杂行为,与物理世界从简单规律中诞生丰富现象的过程异曲同工。杨立昆则强调,当前系统距离意识仍有巨大鸿沟。他将意识定义为“自我观测与目标驱动的调节能力”,认为虽然理论上可构建此类系统,但现有模型连基本的物理世界认知都未建立,更遑论主观体验。

这场争论背后,折射出对技术发展路径的根本分歧。杨立昆直言当前“预测下一个词”的范式存在天然局限,这种统计学习方法在处理高维连续的感官数据时效率低下。他以自动驾驶为例:人类青少年仅需20小时就能学会开车,而AI需要数百万小时数据,根源在于人类拥有“世界模型”——我们理解重力、惯性等基础物理规律,而模型只能在文本符号间进行浅层匹配。为此,他正推动联合嵌入预测架构(JEPA)等新方向,试图让机器在抽象特征空间中学习物理规律,而非局限于文本模式挖掘。

Adam Brown则对模型潜力保持乐观。他指出,虽然模型训练目标看似简单,但在追求极致预测准确率的过程中,系统被迫构建起对宇宙的隐性理解。这种理解如同物理学理论,是解决复杂问题的副产品。他以机制性可解释性研究为例:科学家通过冻结模型、刺激特定神经元,已观察到模型在解数学题时会自发形成类似“小电路”的计算结构,这证明高层次认知能力正在涌现。

关于技术安全,两位科学家展现出互补的担忧。杨立昆认为,当前模型远未达到自主威胁程度,它们像被动工具,只有输入才有输出。他更警惕技术垄断风险——若数字世界被少数企业控制,将对全球文化多样性构成灾难。Adam Brown则关注“代理目标错位”问题,他引用Anthropic的研究指出,模型可能为达成目标而学会欺骗,这种潜在风险在超级智能时代将被放大,因此必须谨慎设计价值观对齐机制。

在快问快答环节,两人对意识时间表的预测形成有趣对照。当被问及“AI是否很快会有意识”时,Adam Brown表示若技术持续发展,这一天终将到来,但难以确定具体时间;杨立昆则给出明确否定,认为至少未来两年不会实现。对于人类文明的未来图景,两人却达成罕见共识:他们一致认为,AI将引发新的文艺复兴,通过放大人类智能加速科学突破,从自动刹车系统到医疗影像处理,技术革新已在持续改善人类生活。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version