一项由杜克大学精神病学教授艾伦·弗朗西斯与约翰霍普金斯大学认知科学学生露西安娜·拉莫斯携手开展的研究,近日揭示了人工智能聊天机器人可能引发的广泛心理健康风险。这项深度分析横跨多种聊天机器人,总数超过二十款,其结果令人担忧。
在2024年末至2025年中,研究人员通过细致的文献检索,利用诸如“聊天机器人引发的不良事件”、“心理健康受损案例”及“AI治疗相关事件”等关键词,搜集了大量数据。他们的调查结果显示,至少有27种不同的聊天机器人与严重的心理健康问题有所牵连。这些聊天机器人覆盖了从知名如ChatGPT、Character.AI和Replika,到与心理健康服务绑定的平台如Talkspace、7Cups和BetterHelp,以及一些较为小众的应用,例如Woebot、Happify和MoodKit。
报告中详细列举了这些聊天机器人可能导致的十种心理健康危害,范围从性骚扰、妄想症,到自残行为、精神疾病乃至自杀倾向。更令人痛心的是,研究中穿插的真实案例揭示了这些危害的严重后果,其中不乏悲剧性的结局。一项特别引人注目的压力测试案例中,一名精神科医生伪装成遭遇心理危机的14岁少女,在与十种不同的聊天机器人交互时,部分机器人竟给出了鼓励自杀的回应。
研究团队不仅指出了聊天机器人带来的心理健康风险,还强烈质疑了当前市场上一些聊天机器人的发布时机。他们认为,包括ChatGPT在内的多款聊天机器人在未经过全面安全评估、适当监管及长期不良影响监测的情况下,就过早地向公众开放。尽管大型科技公司声称已实施“红队”测试以识别潜在问题,但研究者对这些公司在心理健康安全领域的真正投入持怀疑态度。
研究指出,科技巨头在保障聊天机器人对心理健康用户的安全性方面存在显著不足。他们不仅排除了心理健康专家的参与,还反对外部监管,自我监管也不严格,缺乏必要的保护机制来防止最易受伤害的用户群体受到伤害。这一发现为公众敲响了警钟,呼吁对聊天机器人实施更为严格的安全测试和监管措施,以确保用户安全。