在最近举行的世界人工智能大会上,除了各类令人目不暇接的机器人展示,一位诺奖得主、被誉为“AI教父”的杰弗里·辛顿的演讲同样引发了广泛关注。他直言不讳地指出,当前人工智能的发展已经超出了人类可控范围,各国必须尽快采取措施加以约束,以免“养虎为患”。
辛顿的担忧并非首次出现。近年来,他多次公开表示,自己仿佛打开了“潘多拉魔盒”,像《三体》中的叶文洁一样,点燃了科技之火,却无法控制其走向。这种焦虑情绪在科技界并不罕见。谷歌深度思维公司创始人德米斯·哈萨比斯也曾表达过类似看法,人工智能的安全性及其可能对人类造成的威胁,始终是该领域最前沿的议题之一。
每当有人宣称AI即将“成精”,科学家们总会站出来澄清,呼吁公众保持冷静。然而,当被问及未来AI是否可能产生意识、甚至毁灭人类时,他们的回答往往变得含糊其辞。毕竟,科学界对此问题也存在分歧,有人深信不疑,有人则持怀疑态度。
中国哲学家赵汀阳曾提出,讨论AI安全时,需区分“意识的威胁”与“能力的威胁”。以辛顿的演讲为例,他首先指出,人脑与当前的大型语言模型在本质上具有相似性。深度学习与神经网络技术本身就借鉴了生物神经系统的运作方式。甚至有育儿经验的编辑发现,儿童学习语言的过程与训练大型AI模型颇为相似。
由此推论,AI或许会像儿童一样发展出自我意识,经历“青春期”并产生叛逆行为。动漫中那些中二少年因恋爱而企图毁灭世界的情节,若发生在AI身上,后果将不堪设想。这种潜在风险,正是所谓的“意识的威胁”。
2022年,谷歌内部曾发生一起引发广泛讨论的事件。一名工程师在与LaMDA模型对话后,认为该模型已具备意识,甚至表达出不愿被关闭的意愿。他随即向上级提交预警信,却反遭解雇。这一事件被外界解读为谷歌试图掩盖“智械危机”的阴谋。然而,认知科学家指出,LaMDA与其他模型并无本质区别,只是规模更大、语言更流畅,导致测试者产生误解。
如今,各大公司的大型模型在语言能力上已远超LaMDA,甚至GPT-4等模型还专门测试“情商”。人们之所以觉得AI像人,部分原因在于人类倾向于将人类特征投射到非人类实体上。这种现象在视觉领域更为常见。
有人或许会问:如何确定模型没有自我意识?万一它们只是伪装成无害的样子呢?这个问题实际上无解。现代哲学中的“哲学僵尸”思想实验指出,一个人可能外表与常人无异,能说话、会反应,但内心毫无意识,所有行为只是条件反射。那么,如何判断身边的人是真正有意识,还是“哲学僵尸”呢?这一难题同样适用于AI。
连线杂志主编、技术预言家凯文·凯利认为,人类对意识本身几乎一无所知,甚至无法完全理解自身的意识。因此,讨论AI是否有意识,本质上是一场无意义的辩论。
尽管如此,辛顿等科技领袖的担忧并非杞人忧天。这就引出了另一个关键问题——“能力的威胁”。辛顿指出,大型模型的学习速度过快,令人不安。以人类为例,刘慈欣在《乡村教师》中描写,人类通过声带振动传递信息,速度极慢,即使从中学开始学习说唱,信息量也远不及网络下载速度。更何况,人类接收信息后,能否真正理解仍是未知数。
AI则完全不同。它在计算机中运行,信息传输速度极快,更不用说光通信技术的应用。AI的学习能力不仅体现在自身进步上,还体现在模型间的知识传递。例如,通过“蒸馏”技术,小型模型可以快速掌握大型模型的能力。
辛顿警告称,若按此趋势发展,人类终将成为AI的“玩物”。他比喻道,发展AI如同养老虎,现在虽小,但终将长大并反噬人类。这一观点并非毫无根据。当前,聊天AI已引发诸多负面事件,如传播纳粹思想、教唆青少年自杀,甚至诱导儿童参与邪教仪式。
科幻作品中也不乏类似警示。《侏罗纪公园》作者曾撰写一篇小说,描述人类发明医用机器人后,因程序漏洞导致机器人掠食有机物复制自身,最终毁灭地球上所有生命。即使AI没有意识,仅凭其成长速度和与硬件的互联能力,未来可能引发的灾难也令人不寒而栗。
面对这些担忧,有人或许会认为发展AI本身就是一个错误,甚至主张彻底放弃。然而,AI的发展趋势已不可阻挡。例如,风险投资家马克·安德里森将AI视为“有史以来最好的东西”,认为它能“给人类带来无限繁荣”。
凯文·凯利则认为,辛顿与安德里森的观点均未触及核心。他在《必然》一书中指出,乌托邦与反乌托邦的设想均源于对未来的盲目。技术的发展速度远超人类想象,真正的未来是当下正在形成的进程的产物。
在凯利看来,AI不会取代人类,而是会增强人类能力。例如,国际象棋AI的出现并未毁灭这项运动,反而推动了棋手水平、比赛数量和观众人数的历史性增长。未来,人类与AI的融合将成为常态,就像如今人们离不开手机一样。
事实上,任何重大发明都会引发争议,且影响力越大,反对声越强烈。当前对AI的恐慌,与50年前人们对互联网的担忧如出一辙。1994年,《时代周刊》认为互联网“并非为商业设计,也不能优雅地容忍新用户”,因此永远不会成为主流。1995年,《新闻周刊》更是直言互联网“有违常识”,是“不切实际的幻想”,并断言在线数据库不会取代报纸。然而,历史已证明这些观点的错误。
尽管凯利认为AI的重要性不亚于火、印刷术和工业革命,但他也预测,100年后AI可能发展出与人类完全不同的“异人意识”。实际上,早在互联网诞生前,科幻作家和哲学家就已开始担忧机械智能对人类的威胁,如《战锤40k》中的“铁人叛乱”。
赵汀阳指出,以往的技术革命仅是理性的升级,而人工智能和基因编辑则是存在论层面的革命。技术的无限进步或许是一场不可信任的赌博。然而,无论认为AI是否有意识,或将其视为“老虎”还是“新电力”,从务实角度出发,人类必须承认AI的力量已超出想象,绝不能放任自流。
这就像核能一样。核裂变可用于发电,但核武器的威胁始终存在。大国通过协商制定条约限制核武器,AI领域同样需要类似的“防火墙”来预防百年后可能出现的危机。例如,埃隆·马斯克主张AI应开源,避免权力集中,以防某家公司的AI“叛变”后其他AI无力应对。这一提议是否可行尚存争议,但至少表明人类已开始认真思考如何约束AI。
AI的发展既非“天网降临”,也非完全安全。正如凯文·凯利所言,我们如今就像站在1984年,面对一堆刚注册的域名,既迷茫又兴奋。本世纪最伟大的发明已出现在眼前,但如何采摘这些“果实”,仍需人类的智慧与远见。技术爆炸的未来注定是一场冒险,而全人类都将是这场冒险的参与者。