ITBear旗下自媒体矩阵:

MIT新突破:实例自适应缩放技术让大型语言模型“聪明”用能

   时间:2025-12-10 02:24:28 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

大型语言模型(LLM)在人工智能领域的应用日益广泛,但其运算效率和能源消耗问题一直备受关注。针对这一挑战,麻省理工学院(MIT)的研究团队开发出一种创新技术,旨在优化LLM的计算资源分配,实现更高效的运算与更低的能耗。

这项名为“实例自适应缩放”的技术,通过动态调整推理轨迹的数量,使模型能够根据问题的复杂程度灵活分配计算资源。传统LLM在处理问题时,通常采用固定的推理过程奖励模型(PRMs),导致计算资源利用率低下,且对问题成功概率的评估往往过于乐观。MIT团队重新设计了PRMs,使其能够根据问题特性动态调整推理路径,从而在简单问题上减少计算量,在复杂问题上增加推理支持。

重新校准后的PRMs还为小型LLM的性能提升提供了可能。通过优化推理路径的分配,较小规模的模型也能在资源有限的情况下提供更可靠的输出。这一发现为LLM的轻量化应用开辟了新的方向。

目前,MIT团队已将研究重点转向该技术的扩展应用。他们计划探索实例自适应缩放在代码生成、人工智能代理等领域的潜力,并研究PRM校准方法在强化学习等方向的可能性。通过进一步优化模型架构,团队希望推动LLM在更多场景中的高效落地。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version