ITBear旗下自媒体矩阵:

三星推出仅700万参数TRM模型,递归推理挑战大模型,结构化任务表现亮眼

   时间:2025-10-10 16:17:38 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

三星高级AI研究院近日推出一款名为微型递归模型(TRM)的开源AI系统,凭借仅700万参数的极简架构,在结构化推理任务中展现出与主流大模型抗衡的实力。该模型在数独解谜、迷宫路径规划等封闭场景测试中,性能表现达到甚至超越参数量超过其万倍的谷歌Gemini 2.5 Pro等顶尖模型,引发AI领域对模型效率的重新思考。

与传统依赖庞大参数堆砌的AI模型不同,TRM采用双层递归架构实现高效推理。研究团队摒弃了复杂的双网络协作设计,转而通过模型自身输出的反复迭代完成推理优化。每轮迭代中,系统会主动修正前序步骤的潜在误差,直至输出结果趋于稳定。这种"以递归替代规模"的策略,使模型在保持性能的同时,将计算资源消耗降低至传统大模型的百分之一以下。

在基准测试中,TRM展现出惊人的效率优势:面对Sudoku-Extreme极限数独难题时,模型准确率达到87.4%;处理Maze-Hard复杂迷宫时准确率为85%;在衡量抽象推理能力的ARC-AGI测试中取得45%的准确率,ARC-AGI-2测试准确率则为8%。这些数据表明,尽管参数规模不足0.01%,TRM在特定领域的表现已接近或超越DeepSeek R1、o3-mini等知名大模型。

研究团队指出,TRM的成功源于对"极简主义"的极致追求。实验数据显示,增加模型层数或参数规模反而会导致小数据集上的过拟合现象,使性能出现下滑。双层架构与递归机制的深度结合,恰恰实现了计算效率与推理能力的最佳平衡。这种设计哲学为AI模型优化提供了全新思路——通过算法创新而非参数膨胀来提升性能。

需要特别说明的是,TRM目前专注于结构化、可视化的网格类问题解决,包括数独、迷宫等具有明确规则的封闭场景。与通用语言模型不同,该系统并不具备开放式文本生成能力,其核心优势在于逻辑推理的精准度而非语言处理的广度。这种定位使其成为特定工业场景下的高效解决方案。

目前,TRM的完整代码库、训练脚本及测试数据集已通过MIT许可证在GitHub平台开源。全球开发者均可自由获取、修改及部署该系统,包括商业用途。这种开放策略或将推动AI技术在资源受限场景中的创新应用,为边缘计算、物联网设备等领域带来新的可能性。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version