谷歌研究院近日在人工智能持续学习领域取得重要突破,针对大语言模型普遍存在的“灾难性遗忘”问题,提出名为“嵌套学习”(Nested Learning)的创新范式。该研究已发表于NeurIPS 2025学术会议,相关技术成果通过概念验证模型“Hope”得到实证。
传统AI模型在吸收新知识时,常因直接覆盖原有参数导致旧任务性能断崖式下降。这种现象与人类大脑的神经可塑性形成鲜明对比——人脑能够通过调整神经连接持续学习新技能,同时保留已有认知。谷歌团队通过重构机器学习底层架构,首次将模型架构设计与优化算法进行深度耦合,构建出包含多层级优化问题的嵌套结构。
研究核心包含两项技术突破:其一为“深度优化器”,该组件将优化过程本身转化为可学习模块,通过改进目标函数增强对噪声数据的抗干扰能力;其二为“连续体内存系统”(CMS),通过模拟人类记忆的分层机制,将模型内存分解为不同更新频率的模块群,形成从短期到长期的平滑过渡体系。
基于上述理论构建的Hope模型采用自修改循环网络架构,深度整合CMS系统。该模型通过自我参照机制优化内存结构,在实验中展现出突破性表现:在标准语言建模任务中,其困惑度指标较传统循环网络降低37%,常识推理准确率提升29%。特别是在“大海捞针”(NIAH)长文本测试中,Hope成功从百万级token的文本中精准定位关键信息,验证了CMS系统处理超长序列的能力。
NIAH测试作为评估模型长程依赖能力的黄金标准,要求系统从相当于整部《战争与和平》长度的文本中提取特定信息。实验数据显示,Hope模型在128K token长度下的信息检索准确率达到92%,较标准Transformer模型提升41个百分点。这项突破为开发具备终身学习能力的通用人工智能奠定了技术基础。











