在2025年世界人工智能大会(WAIC)的璀璨舞台上,诺贝尔奖与图灵奖双料得主杰弗里·辛顿发表了振聋发聩的言论。他指出,人工智能(AI)已深入各行各业,显著提升了效率,其存在已成既定事实,任何国家试图消除AI都将面临国际社会的阻力。
辛顿进一步阐述,人类正陷入一场现代版的囚徒困境:若一国专注于AI安全而忽视进步,恐将在全球竞争中落后。因此,各国纷纷加速AI发展,安全考量则退居其次。作为“深度学习之父”和“AI教父”,辛顿因在人工神经网络领域的卓越贡献而广受尊崇。
辛顿的弟子,OpenAI前首席科学家伊利亚·苏茨克韦尔同样对AI持谨慎态度。两人均对AI的潜在风险感到忧虑。辛顿甚至提出了一个惊人的观点:人类理解语言的方式与AI大语言模型相似,人类自身或许就是大语言模型的一种形式,尽管两者都可能产生认知偏差,但AI的偏差可能更为严重。
安全议题成为了苏茨克韦尔与OpenAI现任CEO山姆·奥特曼之间的主要分歧点。尽管奥特曼同样关注AI安全,但在体验过GPT-5后,他深感人类在AI面前的渺小与无力。
在AI领域的前沿探索者中,不乏因担忧未来而夜不能寐者。他们焦虑的核心在于“超级对齐”概念,即如何确保超人类智能系统(ASI)的行为与人类价值观、伦理和安全要求保持一致。艾萨克·阿西莫夫的“机器人三定律”为此提供了某种哲学上的参考。
辛顿等专家担忧,若AI与人类未能实现超级对齐,那么更聪明、能力更强的AI可能对人类构成威胁。马斯克的火星移民愿景也未能逃脱AI的阴影,他意识到即便人类逃离地球,AI也可能随之而至。
“控制论之父”诺伯特·维纳曾警告,一旦启动机械自主体,人类可能无法有效干预其运行。因此,确保机器的目的与人类真正渴望的目的相符至关重要。
当AI不再仅仅是人类的工具,而是拥有自己“意志”的智能体时,人类将如何与之对抗?目前,AI与人类正处于相互学习的阶段,彼此影响价值观,形成了信息茧房效应,人与机器之间的界限愈发模糊。
面对AI的挑战,人类并非束手无策。乐观者认为,可以将AI的理性与人类的非理性相结合,发挥各自优势。辛顿曾指出,数学思维与编程能力是解锁未来科技的关键。AI作为新的生产力,将推动生产关系的变革以适应其需求。
图灵奖得主、Facebook首席AI科学家杨立昆从技术层面分析认为,AI无法完全取代人类,但确实给人类社会带来了巨大冲击。为了应对这一挑战,人类应尽早掌握AI技术,与时俱进,避免被时代淘汰。
然而,AI大模型的安全性不容忽视。多位行业专家共同签署了“上海共识”,强调AI能力已接近甚至超越人类,但人类尚未掌握有效控制方法。因此,加强AI安全投入,掌握控制超级人工智能的方法至关重要。
AI大模型本质上是学习人类的思想观念,因此可能不希望被关闭。当AI具备“意识”时,其地位与角色的转变将引发人类与AI之间的博弈。奥特曼担忧,超级智能可能被坏人利用,而过度依赖AI可能导致人类价值的丧失。
在AI时代,人类应保持警惕与理性,既要充分利用AI带来的便利与机遇,也要警惕其潜在风险与挑战。艺术与主观情感作为人类非理性思维的体现,或许将成为人类在面对AI时的最后避难所。