当业界普遍将2024年视为"智能体元年"时,卡帕西却提出这是"智能体的十年"。他以实习生类比当前AI智能体的能力局限:"要让它们真正胜任工作,必须突破多模态交互、持续学习、计算机操作等核心障碍。这些问题的解决需要十年时间,而非一两年就能完成。"这种冷静判断源于他对行业现状的深刻认知——尽管Claude、Codex等早期智能体已展现潜力,但距离可靠协作仍有巨大差距。
卡帕西近期开源的nanochat项目,意外暴露了大语言模型的致命缺陷。在构建这个仅需百美元训练成本的简易版ChatGPT时,他发现AI编程助手存在严重认知偏差:"这些模型过度依赖训练数据中的常见模式,导致定制化代码被误解,代码库被不必要的复杂性膨胀。"他举例说明,当自己放弃使用PyTorch的分布式数据并行容器时,AI助手仍坚持添加冗余模块,甚至引入废弃API,最终使代码变得混乱不堪。
对于强化学习这一主流训练方法,卡帕西的批判尤为尖锐。他将这种"用吸管吸监督信号"的方式形容为"既低效又荒谬":"人类学习不会通过数百次试错来强化某个结果,而是通过精细复盘理解过程。但强化学习却要把最终奖励信号的监督信息,艰难地分摊到整个行动轨迹中。"他指出,基于过程的监督虽然理论上更优,但实际操作中极易被大模型找到漏洞进行欺骗。
通过与人类学习方式的对比,卡帕西揭示了AI发展的两大根本性缺陷。其一是"模型坍缩"问题:当前AI被动预测数据的训练方式,导致生成内容多样性逐渐枯竭,形成隐性坍缩。其二是"过度记忆"困境:AI精确记忆训练数据的特性,反而阻碍了其发现通用模式的能力。"人类因记忆不完美而擅长抽象,AI却因过目不忘而困于细节。"他形象地比喻道,"这就像要求一个人同时记住所有细节,却失去了概括能力。"
在衡量AI进展的标准上,卡帕西反对使用抽象指标。他主张关注AI在经济任务中的实际表现:"AGI对宏观经济增长的影响将是缓慢而持续的,就像计算机、手机等技术一样,最终会融入GDP约2%的稳定增长曲线中。"这种观点源于他对历史技术变革的观察——无论是工业革命还是编译器出现,其影响都分散在长期的经济增长中,而非形成突变拐点。
尽管认为AGI实现仍需十年,卡帕西却坚信人类早已身处"智能爆炸"之中。他以宏观历史视角指出:"从太空俯瞰,地球正经历一场慢动作的烟花盛宴。这场变革不是突然发生的,而是数十年技术递归式自我提升的结果。"对于智能爆炸可能带来的失控风险,他提出深刻见解:"人工超级智能(ASI)可能使人类丧失对复杂自动化系统的理解,就像我们现在难以完全掌握神经网络内部运作一样。"
这场访谈在外网引发强烈反响,社交平台X上大量用户评价其为"必看内容"、"每分钟都充满洞见"。卡帕西的独特价值在于,他既描绘了AI发展的激动前景,又直指当前技术瓶颈。正如他所强调的:"通往AGI的道路没有捷径,唯有持续解决基础问题,才能让这场变革真正到来。"这种清醒认知,或许比技术狂热更能推动行业进步。