ITBear旗下自媒体矩阵:

Thinking Machines Lab突破AI技术瓶颈,大语言模型输出稳定性获里程碑式提升

   时间:2025-09-11 17:59:09 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

由前OpenAI技术负责人Mira Murati创立的Thinking Machines Lab宣布,在人工智能领域取得关键技术突破,成功解决了大语言模型(LLM)推理过程中长期存在的输出不可预测问题。该实验室发布的最新研究《在LLM推理中战胜不确定性》显示,其开发的确定性输出技术可使超大规模模型在相同输入条件下始终生成一致结果。

传统LLM即使将温度参数设为零,仍会因底层计算机制产生不同输出。研究团队通过系统分析发现,这种不确定性源于两个核心因素:其一为GPU并行计算中浮点数运算的非结合性特征,即不同运算顺序(如(a+b)+c与a+(b+c))会导致数值级微小差异,这些差异在深度神经网络中会被逐层放大;其二则是计算策略的动态变化,包括批量处理规模、序列长度及KV缓存状态等参数会改变GPU内核调度逻辑,进而影响实际执行路径。

针对上述问题,研究团队提出名为batch-invariant的创新架构。该方案通过强制关键计算模块在不同任务规模下保持恒定的运算顺序,从根本上消除了并行计算带来的不确定性。具体实施中,团队对RMSNorm归一化、矩阵乘法及注意力机制等核心组件进行了针对性优化,确保其运算结果不受处理规模影响。

实验验证环节,研究团队选用参数规模达2350亿的Qwen3-235B-A22B-Instruct-2507模型进行测试。在连续1000次相同输入的推理任务中,该模型实现了100%的输出一致性,这在现有技术体系中尚属首次。这一突破直接解决了企业级应用中模型结果不可复现的核心痛点。

行业分析指出,该技术对金融风控、医疗诊断、法律文书生成等需要严格结果一致性的领域具有变革性价值。传统LLM因输出波动导致的审核返工、风险误判等问题,将随着确定性输出技术的普及得到有效解决。目前,Thinking Machines Lab已通过开源研究报告的形式公开技术细节,为全球开发者提供可复用的解决方案。

作为2023年成立的AI基础研究机构,Thinking Machines Lab在成立初期即获得20亿美元种子资金支持。此次技术突破不仅标志着AI研发从规模竞赛转向质量提升的新阶段,更为AI系统从实验室走向工业级应用奠定了关键技术基础。据实验室透露,其首款商业化产品将于年内正式发布。

完整技术报告已通过实验室官网发布,详细阐述了确定性输出的实现原理与工程实践方法。这项突破或将推动AI技术进入更注重可靠性、可解释性的发展周期,为人工智能在关键领域的深度应用扫清技术障碍。

研究报告查阅链接:https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version