meta前首席AI科学家杨立昆近日公开表示,当前科技巨头对大型语言模型(LLM)的过度投入可能偏离了实现通用人工智能的正确路径。他在访谈中指出,这类模型本质上依赖统计规律完成文本生成任务,缺乏对物理世界的真实理解,更不具备人类级别的推理与规划能力。这种技术路线虽能实现特定场景的文本交互,但距离真正的智能系统仍有本质差距。
针对未来发展方向,杨立昆提出"世界模型"框架作为突破口。该理论认为,智能系统需要整合视觉、听觉等多模态数据,构建对环境动态变化的模拟能力。通过这种机制,机器可逐步形成空间感知、时间序列理解及因果推理等基础认知能力,类似人类婴儿的学习过程。据透露,meta内部已启动相关项目,计划利用十亿小时视频数据训练模型,目标在2026年推出可执行复杂虚拟任务的系统原型,并与增强现实设备形成技术协同。
meta官方回应称,现有语言模型仍是短期产品重点,但公司已同步加大世界模型与具身智能的研发投入。行业观察人士分析,这项技术若取得实质进展,可能为自动驾驶、智能机器人等领域提供全新解决方案。不过,数据获取的合规性、算力资源的可持续性,以及模型决策的可解释性,仍是制约技术落地的关键挑战。当前学术界对世界模型的研究尚处早期阶段,其商业化路径仍需持续探索。
这场技术路线之争折射出人工智能领域的深层变革。传统语言模型通过海量文本训练获得的表面能力,正面临理论瓶颈的质疑。而强调环境交互与物理理解的新范式,虽然更具发展潜力,但需要突破数据、算法与硬件的多重限制。科技企业如何在短期商业需求与长期技术布局间取得平衡,将成为决定未来竞争格局的重要因素。








