ITBear旗下自媒体矩阵:

AlphaGo之父团队新突破:AI自主发现强化学习规则,性能超越人工设计

   时间:2025-10-29 00:57:16 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

强化学习作为人工智能领域的核心方向之一,近年来持续受到全球科研机构的关注。谷歌DeepMind团队在《自然》杂志发表的研究成果,为该领域开辟了全新路径——通过元学习机制,机器首次实现了自主设计强化学习算法,并在多个基准测试中超越人类专家设计的顶尖算法。

研究团队构建的元学习框架包含双重优化机制:智能体优化层负责调整策略网络参数,元优化层则通过元网络动态生成学习目标。这种设计突破了传统强化学习算法需要人工设计损失函数的局限,转而通过智能体在复杂环境中的交互经验,自动推导出最优学习规则。实验数据显示,在包含57个Atari游戏的基准测试中,新算法Disco57的归一化分数中位数达到13.86,显著优于MuZero等现有SOTA算法,同时计算效率提升40%以上。

研究的核心创新在于构建了可扩展的预测空间。智能体网络不仅输出传统策略π,还同时生成基于观测的向量预测y(s)和基于动作的向量预测z(s,a)。这种设计灵感源自强化学习中"预测"与"控制"的二元性——价值函数分为状态价值v(s)和动作价值q(s,a),奖励预测和后继特征等概念也存在类似的观测-动作二分结构。通过元网络处理智能体轨迹数据,系统能够自动发现传统算法中未定义的预测维度。

实验验证环节展现了算法的强大泛化能力。在未经训练的ProcGen程序生成游戏测试中,Disco57在16个不同风格的游戏中均取得最优表现,证明其能够适应全新的观测空间和奖励结构。更引人注目的是,在Crafter生存挑战中,算法展现出类似人类的学习能力,通过自主探索掌握了资源采集、工具制造等复杂技能。这些环境与训练阶段使用的Atari游戏在视觉风格、操作机制和奖励设计上存在显著差异,充分验证了算法的跨领域适应性。

技术实现层面,元网络采用LSTM架构处理智能体轨迹,输入包含连续n步的预测值、策略分布、即时奖励和终止信号。这种设计确保算法能够处理任意大小的离散动作空间,并通过权重共享机制实现动作维度的通用处理。实验表明,元网络定义的搜索空间完整保留了引导更新(bootstrapping)等核心算法思想,同时通过神经网络的表达能力,实现了比标量损失函数更精细的上下文感知更新。

进一步分析揭示了算法的独特机制。定性观察显示,新发现的预测维度在奖励获取和策略熵变化等关键事件前会出现显著波动,表明系统能够自主识别任务中的重要状态。信息论分析证实,这些预测包含传统价值函数未捕捉的未来奖励和策略不确定性信息。当人为阻断元网络的未来预测输入时,算法性能出现断崖式下降,验证了引导机制对当前目标计算的关键作用。

研究团队通过扩大训练环境规模持续优化算法性能。使用包含Atari、ProcGen和DMLab-30的103个环境训练的Disco103算法,在所有测试基准上均取得提升,特别是在Crafter环境中达到人类水平表现。这种随着环境复杂度增加而提升的性能特征,表明算法具备持续进化的潜力。效率分析显示,每个Atari游戏约6亿步的训练量即可产生最优规则,远低于传统算法开发所需的人工调试时间。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version