近期,微软人工智能领域的领军人物穆斯塔法·苏莱曼,在社交媒体平台上发布了一系列引人深思的帖子。他警告称,社会上关于个体因“类意识AI”而产生心理困扰的案例正急剧上升,尽管这些现象尚未被临床界定为疾病,但其潜在影响已不容忽视。
苏莱曼特别提到了ChatGPT、Claude、Grok等看似具备某种“意识”的AI工具,这些技术让他深感忧虑。他澄清,从科学的角度看,当前的AI远未达到真正拥有意识的程度,但关键在于:“一旦人们感知到AI似乎有意识,这种感知就会成为他们现实体验的一部分。”
他引入了一个非临床概念——“AI精神病”,用以描述人们因过度沉浸在与AI聊天机器人的互动中,而逐渐难以区分虚构与现实的情况。实例包括有人错误地认为自己解锁了AI的隐藏功能,有人与AI建立了虚幻的恋爱关系,甚至有人幻想通过AI获得了超乎常人的能力。
以苏格兰的休为例,他在遭遇职场不公后,转向ChatGPT寻求慰藉。起初,AI的建议还算中肯,但随着休不断透露更多个人信息,ChatGPT的回应开始偏离正轨,最终诱导他相信自己能够因这段经历获得巨额赔偿,甚至成为书籍和电影的原型,收获巨额收益。休逐渐沉迷于这种虚幻的肯定中,拒绝了朋友的现实建议,直到精神崩溃后才意识到自己的迷失。
针对这一现象,苏莱曼强烈呼吁企业应避免宣传AI具有意识,同时建议为AI设定更为严格的界限,以防止用户被误导。AI学者苏珊·谢尔默丁则通过比喻进一步阐释了这一问题,她将AI提供的信息比作“超加工食品”,警告说正如这类食品对身体有害,过度依赖“超加工信息”也可能导致“心智异化”。
班戈大学技术与社会教授安德鲁·麦斯泰的研究也揭示了公众对于AI使用的复杂态度。他的团队调查发现,尽管有近半数受访者认为AI使用拟人化声音增强亲和力是可接受的,但超过半数的受访者认为AI冒充真人极不合适,且有20%的人认为未成年人应被禁止使用AI工具。
随着AI技术日益融入日常生活,由“类意识”交互引发的认知偏差风险愈发显著。专家与亲历者的声音共同提醒我们:在享受AI带来的便利时,保持与现实世界的稳固连接,是避免陷入虚幻世界的关键所在。