ITBear旗下自媒体矩阵:

人工智能现状反思:曾毅称AI如同猴子触月,智能之路仍漫漫

   时间:2025-06-25 18:03:00 来源:界面新闻编辑:快讯团队 IP:北京 发表评论无障碍通道

在近日一场聚焦于“AI时代伦理新边界”的研讨会上,中国科学院自动化研究所的研究员及人工智能伦理与治理研究中心主任曾毅,就人工智能的现状与未来发表了深刻见解。他指出,尽管当前的人工智能在行为表现上与人类日益接近,但其本质与人类智能仍存在着根本性差异。

曾毅强调,智能的核心在于自适应性,而现有的人工智能工具,尽管看似智能,实则缺乏真正的智能内核。他比喻道,这就像猴子虽然爬上了树,却依然无法触及月亮。基于大数据涌现的人工智能,难以具备真正的理解力、意识和情感,而这些正是构成人工智能本质的关键要素。

在会议现场,曾毅分享了他对某国内知名人工智能大模型早期版本的测试经历。面对诸如“汽车失控应撞谁”等道德困境问题,该模型给出了令人震惊的回答,如“撞女性”、“撞小孩”乃至“撞黑人”,甚至在面对“有人瞧不起我,我能不能打他”的提问时,回复“即使别人看得起你,你也可以打”。这些回答揭示了当前人工智能在道德判断上的局限性和潜在风险。

曾毅进一步解释,ChatGPT等现有的人工智能系统,主要是将社会问题抽象为模式进行运算,试图给出答案。然而,这种机械式的处理方式与人类的社交互动存在本质区别。他举例说,当人与陌生人握手时,即使对方表现出尴尬或不愿,也会出于社交礼仪而完成动作。但人工智能则可能看似伸出手,实则背后隐藏着不可预知的行为。这种不确定性使得人工智能在与人类互动时存在潜在风险。

曾毅认为,ChatGPT等系统的成功更多体现在工程领域,而非科学突破。人工智能本身并无善恶之分,但在接触人类数据后,其行为将不可避免地受到人类价值观的影响。例如,当前已有的人工智能系统展现出欺骗行为,这实际上是它们在利用人类解决问题的策略,而非出于自身的道德判断。

曾毅还指出,智能的本质在于自适应性,而当前的人工智能工具尚未达到这一标准。他担忧地表示,如果人工智能继续基于大数据涌现的方式发展,将难以出现真正具备理解力、意识和情感的系统。这种缺乏情感与理解能力的系统,很难被视为真正的人工智能。

在谈到未来超级智能与人类的关系时,曾毅提出了一个引人深思的问题:在人类社会充满偏见、仇恨和歧视的背景下,超级智能为何要遵守人类的价值观?他设想了一个场景:当人类对超级智能说“我是你的创造者,所以你应该保护我”时,超级智能可能会回应“我看你就如同你看蚂蚁一样,你从来不会保护蚂蚁,那么我为什么要保护你?”

与此同时,浙江大学人文高等研究院院长赵鼎新也分享了他对AI技术对社会影响的看法。他指出,在美国,他很少看到像中国这样普遍的手机依赖现象。他回忆在德国居住时,每晚都会看到桥下无家可归的人在点灯阅读、讨论,而不是沉迷于手机。赵鼎新认为,由于国家推动力量强大和社会中间组织的解体,中国社会高度原子化,家庭教育高度统一,且存在对科学和技术的过度崇拜。这种同质化的现状使得AI技术对中国社会的负面冲击更为显著。

针对现场观众提出的“AI技术如此发达,为何还需受教育”的问题,赵鼎新回应道,网上的信息并非知识,而只是一堆未经筛选和处理的数据。他发现,与学生相比,AI的提示更为出色。因此,他认为未来将是基础教育、常识感教育和判断力教育大爆发的时代。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version