ITBear旗下自媒体矩阵:

Transformer作者揭秘:GPT-5.1非小版本迭代,AI范式转换多模态成焦点

   时间:2025-11-30 14:30:17 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

近期,人工智能领域正经历一场静默却意义深远的范式变革。Transformer架构联合发明者、现任OpenAI研究科学家的Łukasz Kaiser在访谈中指出,当前AI发展并非陷入停滞,而是从预训练阶段向推理模型阶段过渡,这种转变的影响力堪比Transformer的诞生。

针对外界关于"AI增长放缓"的质疑,Kaiser通过内部视角给出解释:AI能力提升遵循指数级增长曲线,如同摩尔定律在芯片领域的持续生效。当前技术迭代速度看似减缓,实则因底层范式转换导致——预训练技术虽未失效,但已进入投入产出比下降的阶段,行业资源正转向更具成本效益的推理模型。这种转变导致公众感知滞后,未察觉到技术本质的飞跃。

推理模型的核心特征在于引入思维链机制。不同于传统模型直接输出结果,新范式允许模型在生成答案前进行多步骤推理,并可调用外部工具辅助决策。以编程领域为例,Codex已改变开发者工作模式,程序员现在更倾向于先由模型生成基础代码,再进行人工优化。这种协作方式虽未引发广泛关注,却标志着生产力的根本性提升。

强化学习技术的突破为推理模型发展提供关键支撑。通过奖励机制驱动的自我优化,模型能够自主纠正错误并改进输出质量。Kaiser透露,OpenAI正在探索更复杂的强化学习架构,包括利用大模型评估答案质量、融入人类偏好数据等方向。这种技术演进使得模型不仅能处理文本数据,更在多模态推理领域取得初步进展,例如Gemini已具备推理过程中生成图像的能力。

关于GPT-5.1的版本更新,Kaiser揭示了命名规则背后的战略调整。新版本看似微小迭代,实则聚焦稳定性提升与用户体验优化:通过强化后训练阶段的安全机制、减少幻觉输出,并引入风格定制功能。内部开发模式也发生转变,预训练、强化学习等多个项目并行推进,最终通过知识蒸馏技术整合到统一模型中。这种敏捷开发方式使OpenAI能够快速响应市场需求,但Kaiser坦承当前模型在多模态迁移能力上仍存在短板。

追溯技术起源,Kaiser回顾了Transformer的诞生历程。这位理论计算机科学博士在德国完成学业后,先后任职于法国学术界和谷歌Brain团队。他透露,Transformer论文的八位作者从未线下会面,通过分布式协作完成了这项颠覆性创新。当时学界普遍质疑通用模型处理多任务的能力,而团队坚持的注意力机制最终证明其前瞻性。这种技术信念促使Kaiser在2018年追随Ilya Sutskever加入OpenAI,参与构建更具灵活性的研发体系。

在资源分配方面,OpenAI内部形成独特竞争机制。预训练项目因计算需求庞大占据主要GPU资源,强化学习与视频模型紧随其后。Kaiser所在的团队采用项目制运作,成员根据技术方向自发组队,这种模式既保证创新效率,也带来资源争夺的挑战。他特别指出,多模态推理与具身智能的融合将成为下一个突破口,家用机器人可能引发比ChatGPT更直观的技术革命。

对于AI就业影响,Kaiser持审慎乐观态度。他以翻译行业为例说明:尽管机器翻译已能处理多数语言转换任务,但高风险场景仍需人类专家把关。这种协作模式将重塑职业结构而非消除工作岗位,基础性工作自动化程度提升的同时,也会催生新的专业需求。随着多模态推理能力的突破,机器人技术有望在物理世界实现类似ChatGPT的认知跃迁,硅谷企业正在研发的智能硬件或将加速这一进程。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version