ITBear旗下自媒体矩阵:

OpenAI核心架构师坦言:AI Scaling遇瓶颈,AGI需突破“自学”难关

   时间:2026-01-30 19:07:10 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在人工智能领域,OpenAI推理模型核心架构师Jerry Tworek的见解始终备受关注。这位曾主导o1、o3及Codex架构设计的专家,近期就预训练scaling法则的效力、通用人工智能(AGI)的实现路径等关键问题,给出了颠覆行业认知的深度思考。

针对"通过扩大模型规模与强化学习训练能否持续突破性能"的争议,Tworek直言当前技术路径存在根本性缺陷。他指出,现有模型本质上是"任务导向型工具"——通过针对性数据投喂提升特定任务表现,但缺乏跨场景的迁移能力。"你训练它识别十万张猫的图片,它依然分不清老虎和豹子。"这种"训练即所得"的特性,导致模型在面对未明确覆盖的场景时,往往陷入"知识盲区"。更严峻的是,当前行业普遍采用的"发现缺陷-补充数据-重新训练"循环,不仅迭代周期长达数月,且永远无法穷尽所有可能的失败模式。

在AGI的定义之争中,Tworek提出"困境突破能力"这一核心标准。他以编程任务为例:当AI生成的代码出现运行时错误,现有模型会持续输出相似错误方案,而人类程序员会通过调试日志分析、知识库检索、方案重构等动态调整策略解决问题。"真正的智能体必须具备自我修正的元认知能力,这需要突破当前静态训练框架的束缚。"这种观点直接挑战了"参数规模决定智能水平"的行业共识,将讨论焦点从硬件资源竞争转向算法架构创新。

作为推理模型的缔造者,Tworek揭开了这类技术光环下的成本困境。所谓"思维链"(Chain of Thought)技术,本质是通过增加输出token数量模拟人类推理过程。但这种质量提升伴随着指数级增长的计算成本——复杂任务所需的token量可达简单任务的百倍。OpenAI等企业被迫采用"双轨制"产品策略:为日常查询提供低成本快速模型,对关键决策保留高成本深度推理服务。这种技术妥协,暴露出当前AI系统在效率与智能之间的深层矛盾。

数据枯竭危机正成为制约行业发展的新瓶颈。Tworek透露,主流机构已消耗完互联网可用的高质量文本数据,合成数据方案虽能维持训练循环,却导致模型创新能力持续衰退。"用AI生成的数据训练AI,就像让学生只阅读自己写的作文——最终会陷入认知闭环的死亡螺旋。"他提出的破局方向是构建"实战学习"框架:让模型在解决真实问题的过程中,将成功经验与失败教训同步转化为训练数据。但这又引申出新的悖论:如果模型缺乏自主突破困境的能力,如何积累有效的新数据?

在职业选择建议方面,Tworek强调"激情匹配度"比平台规模更重要。"当你在晨会前已对工作产生抵触情绪,这就是转型的明确信号。"他特别指出,AI研究需要"反共识勇气"——在GPT-3时代坚持探索推理架构,在参数竞赛浪潮中研究小模型优化,这类"非主流"选择往往蕴含突破性机遇。对于研究管理者,他提出"赋能型领导"理念:通过明确团队价值观边界,给予成员充分的自主探索空间,这种模式比微观管理更能激发创新活力。

关于具身智能的发展前景,Tworek给出激进预测:2-3年内机器人将在特定场景实现商业化落地。其判断依据在于,物理世界的操作任务本质是"空间编程问题",而代码生成领域的突破已验证强化学习技术的有效性。尽管真实环境中的试错成本远高于数字世界,但模拟器技术与迁移学习算法的进步,正在快速缩短这个差距。"仓库分拣、家庭清洁等结构化场景,可能成为机器人技术的首个突破口。"

这场访谈最引人深思的,是Tworek对AI技术本质的清醒认知。他既不渲染"AGI即将到来"的乐观叙事,也不回避"当前模型存在根本缺陷"的残酷现实。当被问及行业未来时,这位亲手打造过最强推理模型的工程师坦言:"真正的突破不会来自参数数量的简单叠加,而是取决于我们能否创造出具有自我进化能力的算法架构。"这种直面技术局限的诚实态度,在当前浮躁的AI产业环境中显得尤为珍贵。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version