ITBear旗下自媒体矩阵:

谷歌AI掌舵人点赞!清华姚班校友新研究或为大语言模型带来新突破

   时间:2025-11-17 14:36:34 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

谷歌AI负责人Jeff Dean近日点赞了一项突破性研究,这项由清华姚班校友钟沛林团队主导的成果,为解决大语言模型长期存在的灾难性遗忘问题提供了全新思路。研究提出的Nested Learning(嵌套学习,简称NL)范式,通过模拟人类大脑的分层记忆机制,构建出具备动态学习能力的智能系统。

传统深度学习模型存在显著局限:预训练完成后难以吸收新知识,依赖固定参数和有限上下文窗口,无法像人类一样实现知识的动态积累。更严峻的是,单纯增加网络层数或模型规模已难以带来性能提升,反而可能导致训练效率下降和泛化能力不足。研究团队从人类大脑的记忆机制中汲取灵感,发现大脑通过在线巩固与离线巩固的协同作用,实现短期记忆快速更新与长期记忆缓慢沉淀的分层管理。

NL范式将这种生物机制数字化,构建出多层级的优化体系。每个层级配备独立的上下文流和更新频率,形成类似联想记忆的模块化结构:部分模块快速响应实时数据,另一些则沉淀长期规律。这种分层协作模式突破了Transformer架构的线性层限制——后者本质上是NL范式的简化版本,未能充分发挥多层级协同优势。研究团队开发的Hope模型基于此范式,在语言建模和长上下文记忆任务中全面超越主流模型,在Wiki文本困惑度、物理常识推理等指标上表现尤为突出。

该研究带来三大核心创新:深度优化器通过神经网络存储梯度规律,实现参数动态调整;自我修改模型突破固定更新规则,在训练中自主优化架构;连续记忆系统将传统二元记忆结构升级为多尺度记忆链,不同模块按频率更新,分别处理短期细节与长期规律。这些创新使Hope模型在760M至1.3B参数范围内,均展现出超越Transformer、RetNet等基线模型的性能。

这项研究的领军人物钟沛林,2016年毕业于清华姚班,2021年获得哥伦比亚大学计算机博士学位后加入谷歌纽约研究院。他的学术轨迹早有预兆:中学时期就以竞赛达人著称,深夜与全球选手同步编程做题,2012年代表雅礼中学夺得国际信息学奥林匹克竞赛金牌。与钟沛林同年获奖的还有三位中国选手,其中发小艾雨青受其影响走上竞赛道路,两人作为雅礼中学双子星保送清华姚班。

目前这对昔日搭档已先后入职meta,钟沛林担任AI科学家,艾雨青则从事软件工程开发。他们的职业轨迹折射出中国顶尖计算机人才在国际舞台的持续影响力,而NL范式的提出,更标志着深度学习领域正从参数堆砌转向认知机制探索的新阶段。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version