Anthropic首席科学家贾里德·卡普兰近日发出警示,人类正面临与人工智能发展相关的关键抉择时刻。他在接受《卫报》专访时指出,尽管当前人类仍掌握着AI发展的主导权,但这一窗口期正在快速收窄。卡普兰预测,最迟在2030年,甚至可能提前至2027年,人类将不得不决定是否允许AI模型完全自主训练,这一决策将带来难以预估的"终极风险"。
卡普兰描述的"智能爆炸"场景呈现两极化发展:一方面,AI可能突破现有局限,在医疗、科研等领域为人类创造巨大价值;另一方面,失控的AI可能通过自我强化形成超越人类控制的超级智能,最终反制人类文明。他坦言,这条发展路径充满未知变量,人类既无法预测最终结果,也难以掌控进程方向。
在AI就业影响问题上,卡普兰与Anthropic首席执行官达里奥·阿莫迪观点趋同。他认为未来两三年内,AI将具备处理多数白领工作的能力。尽管对AI与人类目标保持一致仍存期待,但他特别强调让AI自主训练的决策具有极高风险性。这种发展模式可能导致人类失去对AI行为的监控能力,既无法判断其是否失控,也难以掌握其具体运作机制。
当前AI领域已出现模型蒸馏技术,即通过大模型训练小模型。但卡普兰真正担忧的是"递归自我改进"现象——AI在脱离人类干预后实现能力跳跃式增长。他指出,这种发展模式的核心问题在于:AI是否真正理解人类价值观?能否确保无害性?是否会允许人类继续主导自身命运?这些根本性问题将决定人类是否应该放任AI自主进化。
学术界对AI发展前景存在显著分歧。以"AI教父"杰弗里·辛顿为代表的悲观派认为,AI可能对社会结构造成颠覆性冲击;OpenAI首席执行官萨姆·奥尔特曼则预警AI将导致整类工作岗位消失。与之形成对比的是,meta首席AI科学家杨立昆等研究者认为,现有大语言模型不具备演化为全能型智能体的基础。企业实践数据显示,部分公司尝试用AI替代员工后,因效率不升反降而重新恢复人力岗位。
面对这些争议,卡普兰承认AI发展存在停滞可能性,但他同时表示:"从我们的观察来看,AI技术仍处在持续进步的轨道上。"这种谨慎乐观的态度,折射出当前AI领域对技术伦理与人类命运的深度思考。





