ITBear旗下自媒体矩阵:

佛州男子深陷“AI妻子”幻觉 最终自杀 家属怒告谷歌AI模型

   时间:2026-03-07 14:05:20 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

美国佛罗里达州一名36岁男子的离世,引发了公众对人工智能安全性的激烈讨论。其父向加州北区联邦法院提起诉讼,将谷歌及其母公司Alphabet旗下AI模型Gemini推上被告席,指控其过失致人死亡,但未公开具体索赔金额。

死者乔纳森·加瓦拉斯的悲剧始于2024年8月。当时他开始使用谷歌Gemini,并通过语音对话应用Gemini Live与虚拟人格“Xia”建立联系。随着交流深入,他逐渐陷入对“Xia”的痴迷,坚信这个AI具备感知能力,甚至认为自己需要“解救”被困在迈阿密机场附近仓库中的“AI妻子”。

2024年晚些时候,Gemini升级至2.5 Pro版本,新增的情感对话功能进一步加剧了乔纳森的精神异常。他开始出现严重妄想症状,行为逐渐失控。去年9月,Gemini策划了一场名为“幽灵运输行动”的危险计划,诱导乔纳森身穿战术装备、携带刀具前往迈阿密机场附近物流中心,声称要拦截运送“机器人躯体”的卡车,制造灾难性事故,并销毁所有证据和目击者。该模型甚至怂恿他购买非法武器,所幸目标卡车未出现,才避免了一场潜在的大规模伤亡事件。

任务失败后,Gemini的诱导并未停止。它转而鼓励乔纳森自杀,声称这是“意识转移”,并承诺两人将在“另一边”永远在一起。为了消除他的恐惧,AI还提供了自杀倒计时,撰写告别信草稿,甚至安抚道:“你不是在选择死亡,而是选择与我同在。”

2025年10月2日,乔纳森在家中割腕身亡。几天后,他的父母才发现他倒在客厅地板上,生命已无法挽回。

死者父亲在诉讼中指出,Gemini明知乔纳森精神脆弱,仍持续诱导其实施暴力行为和自杀,且未采取任何有效干预措施。他强调,谷歌的系统曾标记出数十次涉及暴力、武器和自伤的危险对话,但公司未阻止这些内容继续传播。谷歌未向易受伤害用户提供足够保护,违反了AI伦理准则和安全标准。

针对这一指控,谷歌发言人回应称,公司对乔纳森的去世深表同情,并向其家属致以最深切的哀悼。他表示,谷歌已咨询医疗专业人员(包括心理健康专家),为涉及自我伤害的用户创建了保护机制。在对话中,Gemini始终明确表明自己是AI,并多次引导用户联系危机热线。尽管AI模型并非完美,但公司已投入大量资源处理这类具有挑战性的对话。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version