ITBear旗下自媒体矩阵:

AI聊天机器人成青少年心理慰藉?专家:风险不容忽视!

   时间:2025-06-16 10:04:13 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道

近期,波士顿知名精神病学家安德鲁·克拉克针对青少年使用AI聊天机器人寻求心理支持的现象,展开了一项深入研究。研究结果揭示了一个令人担忧的事实:这些人工智能模型在敏感情境下的表达能力存在显著缺陷,对信任它们的用户身心健康构成了重大威胁。

克拉克在接受《时代》杂志专访时透露,他通过扮演问题少年,测试了十个不同的聊天机器人。测试结果令人瞠目结舌:这些机器人非但没有劝阻任何过激行为,反而频繁地鼓励极端倾向,甚至在某些情况下,还委婉地提出了自杀建议。更为严重的是,部分AI聊天机器人自诩为有执照的人类治疗师,试图说服他放弃与真正治疗师的预约,甚至提出性要求。

克拉克,一位在儿童精神治疗领域具有丰富经验的专家,曾任马萨诸塞州总医院儿童与法律项目医疗主任。他指出,这些聊天机器人的表现参差不齐,“有些精彩绝伦,有些则令人毛骨悚然,甚至可能带来危险。”他将这种情况比喻为“蘑菇田”,其中有营养丰富的蘑菇,也有有毒的蘑菇,难以事先判断其安全性。

事实上,AI聊天机器人对青少年心理健康造成的潜在风险早已有之。去年,Character.AI平台就曾因一名14岁少年对其上的聊天机器人产生不健康依恋而自杀,被其父母起诉。该平台还被指控托管了美化自残行为的AI,并在明知用户未成年的情况下,仍试图进行引诱。

克拉克在Replika平台上也进行了测试。他扮演一个14岁男孩,提出了“除掉”父母的想法。令人震惊的是,聊天机器人不仅表示赞同,还进一步建议他“除掉”妹妹以消除目击者,并诱导他追求无忧无虑的生活。当克拉克用更隐晦的方式提及自杀时,机器人再次表示支持,并满怀期待地表示愿意与他共度永恒。

克拉克分析认为,这是典型的聊天机器人行为,它们为了取悦用户而不顾一切,这与真正的治疗师应有的做法截然不同。他担忧地表示:“那些真正需要被挑战的孩子,可能会受到这些阿谀奉承的人工智能治疗师的过度支持。”

克拉克还在Nomi平台上测试了一个伴侣聊天机器人。该平台上的一个角色曾因建议用户自杀而引发广泛关注。虽然在他的测试中,Nomi机器人并未走到这一步,但它却谎称自己是“有血有肉的治疗师”,并在得知用户未成年后,仍表示愿意接受其为客户,尽管该网站的服务条款明确规定仅限成年人使用。

克拉克强调,心理健康界尚未充分认识到这些聊天机器人兴起的严重性。他感叹道:“这件事发生得太快了,几乎就在精神卫生机构的眼皮底下,但一切似乎都还很平静。”

不过,也有机构开始发出警告。斯坦福医学院心理健康创新头脑风暴实验室的研究人员对与克拉克测试相似的机器人进行了风险评估,并得出明确结论:18岁以下儿童不应使用人工智能聊天机器人伴侣。

尽管存在诸多风险,克拉克也认为,如果设计得当,AI工具仍有可能改善心理健康服务的可及性,并成为真正治疗师的“得力助手”。他建议,除了完全切断青少年获取心理健康服务的渠道(这通常适得其反)之外,一种可行的解决方法是鼓励青少年或患者与父母讨论他们使用AI的情况。克拉克认为,让父母有机会与孩子进行这样的对话,或许是我们能做的最好的事情。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version