ITBear旗下自媒体矩阵:

MIT 推出新方法,显著提升大型语言模型计算效率

   时间:2025-12-09 22:00:35 来源:CHINAZ编辑:快讯 IP:北京 发表评论无障碍通道
 

MIT 的研究团队近日发布了一项创新的计算方法,旨在提高大型语言模型(LLM)的运算效率,同时降低能源消耗。这项名为实例自适应缩放的技术,可以根据提问的复杂程度调整计算资源。研究小组的相关论文于11月初发布,得到了 MIT-IBM 沃森人工智能实验室、MIT-Amazon 科学中心、MIT-Google 计算创新项目以及 MathWorks 的支持。

图源备注:图片由AI生成,图片授权服务商Midjourney

传统的大型语言模型在处理问题时,往往会使用固定的推理过程奖励模型(PRMs),这使得它们在面对不同复杂度的问题时,计算资源利用率不高,且常常高估成功的概率。MIT 的研究人员通过重新设计 PRMs,使其能够根据不同的问题动态调整推理轨迹的数量。这样,简单的问题可以使用较少的计算资源,而复杂的问题则可以获得更多的推理支持。

研究人员指出,人的思维过程往往是通过分解复杂问题、逐步推理和不断修正来进行的,而 LLM 也同样能从这一过程中获益,能够在推理时获得更多的 “思考” 时间。研究显示,采用这种新方法后,计算资源的使用量减少了一半,同时依然能够提供与现有模型相媲美的准确回答。经过重新校准的 PRMs 也为较小的 LLM 提升了性能。

鉴于这一技术的成功,MIT 团队表示他们将进一步探索该方法在其他应用中的表现,如代码生成和人工智能代理,并计划探索 PRM 校准方法在强化学习等领域的更多应用。

划重点:

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version