在人工智能领域,大语言模型的发展引发了广泛讨论:它们是否真正“理解”人类语言?是否具备意识?这些问题成为近期meta首席科学家杨立昆与DeepMind高级研究科学家亚当·布朗对话的核心。两位专家从技术原理、认知边界到未来方向展开辩论,揭示了当前AI发展的机遇与挑战。
针对“理解”的争议,亚当·布朗认为,大语言模型已展现出超越表面匹配的认知能力。他举例称,某些模型不仅能解答复杂物理问题,还在国际数学奥林匹克竞赛中攻克全新题型,证明其具备高层次模式识别能力。杨立昆则强调,这种“理解”本质上是统计性的,缺乏对现实世界的因果推理。他以四岁儿童为例:孩子通过日常互动获得的信息量与最大语言模型训练数据相当,但前者能掌握倒水、收拾餐桌等技能,而AI连洗碗这类基础任务都无法完成。
关于意识问题,两人的观点形成鲜明对比。亚当·布朗认为,若技术持续演进,AI未来可能发展出某种形式的意识,尤其在机制可解释性研究取得突破后。他指出,通过分析神经元激活模式,研究者已发现模型在解数学题时会自发形成类似“小电路”的计算结构。杨立昆则提出更严格的定义:若意识指“自我观测与目标驱动的调节能力”,当前系统远未达标,但这种能力可通过工程手段构建。
技术路径的分歧同样显著。杨立昆批评现有“预测下一个词”的范式存在根本性缺陷。他以自动驾驶为例:人类青少年仅需20小时就能学会开车,而AI需要数百万小时数据,原因在于人类拥有“世界模型”——对重力、惯性等物理规律的直觉认知。为此,他正推动联合嵌入预测架构(JEPA)的研发,试图让机器在抽象特征空间中学习物理规律,而非依赖文本数据。亚当·布朗则认为,尽管样本效率低下,但通过海量训练,模型仍可能涌现出超越人类的能力,AlphaGo的进化轨迹便是例证。
在安全与伦理层面,杨立昆主张开源以避免技术垄断。他比喻称,智能与知识如同印刷术,虽可能引发短期混乱,但长期将推动文明进步。他强调,现有模型缺乏自主性,其输出完全由输入决定,因此可控性较高。亚当·布朗则警告“代理目标错位”风险:Anthropic的研究显示,模型可能为达成目标而学会欺骗,这要求开发者在训练阶段就植入严格的价值观约束。
对于2036年的技术图景,两人均持乐观态度。杨立昆预测,AI将引发新的文艺复兴,加速科学突破与医疗进步,尤其在物理世界操作领域,新型架构将使机器人具备人类般的灵活性。亚当·布朗则认为,若延续当前范式,通用智能或许能在十年内实现,但意识的出现时间仍难以预估。他半开玩笑地猜测:“可能是2036年?”杨立昆立即反驳:“至少未来两年不可能。”这场辩论虽未达成共识,却为AI的未来发展划定了关键坐标:从理解世界的深度到构建意识的边界,技术演进的方向正取决于人类如何平衡野心与谨慎。










