ITBear旗下自媒体矩阵:

AI教父辛顿警示:人工智能无法消除,超级对齐成关键挑战

   时间:2025-07-26 18:40:46 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

在2025年的世界人工智能大会(WAIC)上,杰弗里·辛顿,这位被誉为“深度学习之父”与“AI教父”的诺贝尔奖与图灵奖双料得主,发表了一项引人深思的见解。他指出,鉴于人工智能(AI)已几乎渗透至所有行业,显著提升了效率,人类试图消除AI的想法已不再现实。辛顿进一步强调,即便某个国家有意消除AI,其他国家也会因利益驱动而继续推进其发展。

辛顿的言论触及了一个深刻的悖论:在AI安全与AI进步的博弈中,国家若过分强调安全而忽视了AI的发展,恐将面临落后的风险。因此,各国纷纷加速AI的研发与应用,而将安全问题置于次要位置。这种情形,辛顿形象地比喻为人类面临的“囚徒困境”。

作为AI领域的先驱,辛顿与其得意弟子、OpenAI前首席科学家伊利亚·苏茨克韦尔均对AI的未来持有谨慎态度。辛顿甚至提出一个惊人的观点:由于AI大语言模型理解语言的方式与人类相近,人类本身或许就是大语言模型的一种。尽管人类与AI都可能产生认知偏差,但AI的偏差可能更为极端。

在AI安全问题上,苏茨克韦尔与OpenAI现任首席执行官山姆·奥特曼存在分歧。尽管奥特曼同样关注AI的安全隐患,但在体验了GPT-5后,他深感AI的强大,甚至感到自己在AI面前微不足道。AI领域的前沿探索者常常夜不能寐,核心问题在于“超级对齐”——一个旨在确保超人类智能系统(ASI)的行为与人类价值观、伦理和安全要求相一致的技术框架。

为了阐述这一概念,辛顿引用了艾萨克·阿西莫夫的“机器人三定律”,强调若AI与人类未能实现超级对齐,那么更聪明、能力更强的AI可能对人类构成威胁。马斯克则提出了另一个视角:人类要么成为多行星文明,要么在单一行星上直至灭绝。他认为,随着AI技术的飞速发展,人类实际上无处可逃,即便SpaceX能将人类送上火星,AI也会紧随其后。

“控制论之父”诺伯特·维纳早在数十年前就发出警告:一旦机械自主体启动,人类可能无法有效干预其运行。因此,我们必须确保机器的目的真正符合人类的期望。当AI不再仅仅是人类的工具,而是拥有自己“意志”的智能体时,人类将如何与这样一个聪明且强大的系统共存?

目前,AI与人类正处于互相学习的阶段,彼此影响价值观,形成了一个类似信息茧房的环境,偏执的观念在其中相互加强。辛顿认为,数学思维与编程能力的结合是解锁未来科技的关键。AI作为生产力,将推动生产关系的变化以适应生产力的需求。

面对AI带来的冲击,图灵奖得主、Facebook首席AI科学家杨立昆从技术层面指出,AI不可能完全取代人类。然而,他也承认AI对人类社会产生了巨大影响。为了应对这种不平等,人类应尽早开始使用AI,与时俱进。同时,多位AI领域专家,包括杰弗里·辛顿、姚期智等,共同签署了“上海共识”,强调加强AI安全方面的投入,以掌握控制超级人工智能的方法。

AI大模型本质上是在学习人类的思想观念,而人类天生惧怕死亡。因此,从逻辑上讲,AI系统也不希望自己被关闭。事实上,已经出现过AI大模型拒绝或逃避关机的情况。奥特曼指出,超级智能作为强大的工具,容易被恶意利用。当越来越多的人将思考与决策交给AI时,人类的价值何在?OpenAI在开发AI系统的过程中可能遗漏了某些复杂之处,这可能导致未来出现不良后果。

在人工智能时代,祸福相依。艺术与主观情感,作为人类非理性思维的体现,可能成为人类最后的避难所。AI若真的具备“意识”,也将面临成为工具还是追求自由的抉择。这场人类与AI之间的博弈,其结果尚难预料。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version