三星高级人工智能研究院近日公布了一项突破性成果——一款名为微型递归模型(TRM)的开源AI系统,其参数规模仅700万,却在特定结构化推理任务中展现出与谷歌Gemini 2.5 Pro等万倍参数量级模型相抗衡的实力。这一发现为AI领域“小而精”模型的发展提供了全新思路。
该模型由研究院资深研究员Alexia Jolicoeur-Martineau团队开发,其核心设计理念颠覆了传统AI架构。不同于依赖多层网络协作的分层推理模型(HRM),TRM采用仅含两层的极简结构,通过“递归推理”机制实现性能突破。模型会反复检验自身输出的预测结果,在每轮迭代中修正前序错误,直至获得稳定解。
这种设计使TRM在保持低计算资源消耗的同时,通过深度迭代模拟了大型模型的复杂推理过程。研究团队形象地将其策略概括为“以递归替代规模”,即通过算法优化而非参数堆砌实现性能提升。
在实测环节,TRM在多个结构化任务基准测试中表现亮眼:极限数独测试准确率达87.4%,困难迷宫任务准确率85%,抽象推理能力测试ARC-AGI中取得45%准确率,ARC-AGI-2测试准确率则为8%。这些数据表明,其性能已接近或超越DeepSeek R1、o3-mini等知名大模型,尽管参数规模不足后者的0.01%。
但研究团队明确指出,TRM的卓越表现具有特定适用范围。该模型专为数独、迷宫等规则明确的网格类问题优化,在需要开放式语言生成的场景中并不适用。其优势在于封闭环境下的精确逻辑推理,而非通用语言处理能力。
深入分析显示,TRM的成功源于对“极简主义”的极致追求。实验表明,增加模型层数或参数规模反而会导致小数据集上的过拟合现象,降低实际性能。双层结构与递归机制的组合,恰好实现了复杂度与效率的最优平衡。
目前,TRM的全部代码、训练脚本及测试数据集已通过MIT许可证在GitHub平台开源。全球开发者可自由获取、修改并用于商业项目,这一举措预计将推动结构化推理AI在工业、教育等领域的快速应用。