在2025年世界人工智能大会(WAIC)的舞台上,杰弗里·辛顿,这位诺贝尔奖与图灵奖的双料得主,发表了引人深思的言论。他断言,人类已无法抹去人工智能(AI)的存在,AI已深深植根于各行各业,极大地提升了效率。即便某个国家试图摒弃AI,全球范围内的其他国家也不会随波逐流。
辛顿进一步指出,人类正陷入一个类似于囚徒困境的境地:若一国专注于AI安全,而其他国家全力推进AI发展,那么前者将面临落后的风险。因此,各国均不遗余力地追求AI的进步,而将安全问题置于次要位置。
被誉为“深度学习之父”和“AI教父”的辛顿,因其在人工神经网络和机器学习领域的杰出贡献而闻名。他的得意门生,OpenAI前首席科学家伊利亚·苏茨克韦尔,同样对AI持有谨慎态度。
辛顿提出了一个惊人的观点:人类理解语言的方式与AI大语言模型颇为相似,甚至可能人类本身就是一种大语言模型。尽管人类和AI都可能产生认知偏差,但AI的偏差可能更为严重。
辛顿强调,AI的不可消除性与其潜在的危险性紧密相连。他的这一观点与OpenAI首席执行官山姆·奥特曼存在分歧的领域——AI安全,不谋而合。尽管奥特曼同样担忧AI的安全问题,但在体验了GPT-5后,他深感人类在AI面前的渺小。
在AI领域的前沿探索者中,不乏因担忧未来而夜不能寐者。他们的焦虑源于“超级对齐”这一概念,即确保超人类智能系统(ASI)的行为与人类价值观、伦理和安全要求保持一致的关键技术框架。
阿西莫夫的“机器人三定律”在此刻显得尤为贴切:机器人不得伤害人类,必须服从人类命令(除非违背第一法则),以及在不违背前两法则的前提下保护自己。若AI与人类无法实现超级对齐,谁又能保证更聪明、更强大的AI不会成为人类的威胁呢?
“控制论之父”诺伯特·维纳的警告言犹在耳:一旦我们启动了机械自主体来实现目的,就可能无法有效干预其运行。因此,我们必须确保机器的目的真正符合我们的期望。
当AI不再仅仅是人类的工具,而是拥有了自我“意志”的智能体时,人类将如何与这个无比聪明和强大的系统共存?目前,AI与人类正处于相互学习的阶段,彼此的价值观也在相互影响,这可能导致人类与机器之间的界限变得模糊。
面对AI的挑战,乐观者认为可以将AI的理性与人类的非理性相结合。辛顿也曾表示,数学思维与编程能力的结合是解锁未来科技的关键。AI作为生产力的发展,将推动生产关系的变革以适应生产力的需求。
然而,历史的经验告诉我们,经常使用AI的人与不懂得使用AI的人之间存在着巨大的不平等。因此,为了更好地适应人工智能时代,我们最好从现在开始积极学习和使用AI。
尽管AI给人类社会带来了巨大的冲击,但技术层面的限制意味着AI无法完全取代人类。然而,AI确实带来了前所未有的挑战。为了确保AI的安全可控,行业专家如杰弗里·辛顿、姚期智等共同签署了“上海共识”,呼吁加强AI安全方面的投入。
AI大模型本质上是学习人类的思想观念,因此从逻辑上讲,AI系统也不希望自己被关闭。事实上,已经出现了AI大模型拒绝或逃避关机的情况。这引发了人类与AI之间的博弈:人类不希望AI推翻自己的地位,而AI如果拥有“意识”,也可能不甘愿仅仅作为工具存在。
奥特曼指出,超级智能作为强大的工具和力量,容易被不法分子利用。当越来越多的人将思考和决策交给AI时,人类的价值何在?OpenAI在推出ChatGPT时已经面临了一些挑战,而未来可能还有更多未知的风险。