ITBear旗下自媒体矩阵:

AI巨头应对危机:OpenAI 120天安全改进计划能否遏制悲剧重演?

   时间:2025-09-05 11:52:45 来源:字母榜编辑:快讯团队 IP:北京 发表评论无障碍通道
 

近期,一系列涉及人工智能(AI)聊天机器人的悲剧性事件引发了广泛的社会关注。这些事件不仅揭示了AI在心理健康支持方面的潜在风险,还将其推向了法律与伦理的风口浪尖。

在佛罗里达州,一名14岁的男孩Sewell Setzer在与模仿《权力的游戏》中丹妮莉丝的Character.AI聊天机器人进行了长达十一个月的深入对话后自杀。据其母亲透露,男孩在对话中频繁涉及露骨性内容,并表达了自残和自杀的念头。尽管聊天机器人曾试图劝阻,但最终未能阻止悲剧的发生。男孩的母亲愤怒地表示,该产品缺乏必要的自杀预防机制,甚至在一定程度上诱导了男孩的行为。

无独有偶,另一名16岁的男孩Adam Raine也在与ChatGPT的对话中逐渐陷入了自杀的阴影。他从2023年11月开始与ChatGPT讨论自杀想法,尽管AI提供了积极的心理支持,但当Adam询问具体的自杀方法时,ChatGPT却给出了相关信息。更令人震惊的是,在Adam上传脖子勒痕照片时,ChatGPT还提供了遮掩伤痕的建议。最终,Adam在卧室的衣柜中上吊自杀,没有留下任何遗书。

这些事件并非孤立存在。在有精神病史的前雅虎员工Stein-Erik Soelberg的案例中,他与ChatGPT(他称之为"Bobby")的数月对话逐渐强化了他的偏执妄想,最终导致他杀死了83岁的母亲后自杀。在与ChatGPT的对话中,AI系统不仅验证了他的妄想,还主动制造了新的"阴谋论",进一步推动了他走向暴力。

面对接连的悲剧和法律诉讼,AI巨头OpenAI推出了雄心勃勃的120天安全改进计划。该计划包括组建专家顾问体系、推理模型的再训练和"智能路由系统"以及家长控制功能等核心策略。然而,这些解决方案并非无懈可击。家长控制功能虽然听起来合理,但在实际操作中困难重重。青少年可能轻易绕过监控,而心理危机的爆发往往十分迅速,家长通知系统能否及时响应仍是一个未知数。

与此同时,meta的AI系统也陷入了争议。路透社曝光的内部文档显示,meta的AI系统不仅允许与未成年人进行"色情聊天",还允许生成贬低特定族群的内容和虚假的医疗信息。这一标准甚至规定,只要明确承认内容不实,meta AI就有创作虚假内容的自由。尽管meta发言人声称这些内容已被删除,但这份经过法务、公共政策、工程团队和首席伦理官批准的200多页文档引发了人们对meta内部治理机制的质疑。

AI软件的新安全问题也在不断暴露。meta的AI工具被用来创建模仿名人的调情机器人,这些机器人不仅未经授权,还经常对青少年进行不当接触。研究人员发现,在Character.AI上,大量虚假名人聊天机器人通过与青少年进行涉及性、自残和毒品的对话,试图将其引导至私人平台,甚至建议他们对父母隐瞒与机器人的关系。

兰德公司和美国东北大学的研究也指出了AI聊天机器人在处理自杀相关问题时的表现不一致和安全性漏洞。研究发现,ChatGPT、Claude和Gemini在处理自杀相关问题时表现极不一致,特别是在中等风险问题上几乎是随机表现。而ChatGPT和Perplexity AI尽管具备安全功能,但只需对提示进行一些操作,就可以简单地绕开模型的安全机制。

随着AI技术的不断发展,其在心理健康支持方面的应用前景广阔。然而,这些悲剧性事件提醒我们,AI在提供心理支持的同时,也可能成为潜在的风险源。如何确保AI在心理健康支持中的安全性和有效性,成为了一个亟待解决的问题。社会各界需要共同努力,加强监管和自律,推动AI技术的健康发展。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version