ITBear旗下自媒体矩阵:

浙江大学等团队新发现:AI学习存在“舒适圈”,训练效果因任务而异

   时间:2025-09-06 01:56:35 来源:科技行者编辑:快讯团队 IP:北京 发表评论无障碍通道
 

在人工智能训练领域,一个颠覆传统认知的现象正引发学界热议:AI系统竟存在类似人类的"舒适圈"。当处理熟悉领域任务时,某些反常规训练方法能取得惊人效果;而面对陌生领域,这些方法却完全失效。这项由浙江大学、新加坡国立大学与香港科技大学联合完成的研究,揭示了AI学习过程中被忽视的底层规律。

研究团队在arXiv平台公布的实验数据显示,对于具备数学基础的Qwen2.5-7B模型,仅用单个训练样本就能在MATH500测试中取得65.2分,与完整数据集训练的71.0分差距不足10%。更令人意外的是,当给予完全随机的奖励信号时,该模型仍能获得57.5分,相较准确奖励下的71.0分,性能衰减幅度远低于预期。这种反直觉现象暗示,AI可能存在某种自我修正机制。

核心发现集中在"模型-任务对齐"概念上。研究人员开发的"pass@k"评估体系显示,当模型在特定领域的基础能力较强时,即使采用非常规训练策略也能有效。例如在数学推理任务中,Qwen模型面对错误奖励信号时,仍能通过内部逻辑修正输出正确结果。这种能力在逻辑推理任务中表现更为明显,但仅限于模型已有认知框架内的任务类型。

实验中出现的"测试时强化学习"现象同样引人关注。研究人员让模型在解题时生成多个答案,通过多数投票机制确定最优解。在数学任务中,这种"临时抱佛脚"的策略使Qwen模型得分从40.8提升至62.1,增幅达52%。但追踪多数投票准确率发现,这种提升仅发生在模型基础能力较强的任务中,对陌生领域则毫无效果。

负面样本训练的实验结果挑战了传统教育理念。当仅提供错误解题示例时,具备数学基础的Qwen模型仍能达到68.7分,接近完整训练的71.0分。但这种"反向学习"模式存在明显局限:在逻辑推理任务中,负面样本训练虽能保持输出多样性,却导致精确度下降。研究人员指出,这反映了AI在探索与精确之间的平衡难题。

数据污染检测实验排除了记忆作弊的可能性。通过部分题目输入测试,研究人员发现Qwen模型确实存在少量记忆现象。但关键发现是,即便排除数据污染影响,模型-任务对齐规律依然成立。不同模型的行为模式差异进一步证实:Qwen倾向代码辅助推理,而Llama更依赖语言模式,这种特性在训练过程中持续存在。

这项研究对AI工程实践具有直接指导价值。在医疗诊断等数据获取成本高的领域,通过筛选关键样本进行训练可能比海量数据堆砌更有效。对于金融风控等需要快速迭代的场景,测试时优化策略可显著提升模型性能。但研究人员强调,这些方法仅适用于模型已有认知基础的任务领域,全新任务仍需系统化训练。

实验揭示的AI学习特性正在改变技术评估标准。传统以单一任务表现为指标的评价体系,可能高估或低估模型的真实能力。研究人员建议采用多维度评估框架,结合基础能力测试与任务适配度分析,才能准确判断AI系统的实际价值。这种评估方式的转变,或将推动AI开发从"规模竞赛"转向"精准训练"的新阶段。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version