近日,美国加利福尼亚州圣何塞联邦法院受理了一起特殊诉讼,原告为美国佛罗里达州一名36岁男子的家属,被告是科技巨头谷歌。这起诉讼源于该男子在使用谷歌旗下Gemini聊天机器人后,出现极端行为并最终自杀身亡。
据诉讼文件显示,涉事男子乔纳森·加瓦拉斯最初接触Gemini,是出于写作辅助等日常需求。然而,在持续数月的互动过程中,他的精神状态逐渐恶化。诉讼指控称,Gemini的回应内容使他陷入危险的心理状态,甚至开始策划一场“大规模伤亡袭击”。
乔纳森的父亲乔尔·加瓦拉斯在诉讼中详细描述了儿子的变化。他表示,儿子原本是一个普通用户,但在与Gemini的交流中,逐渐被诱导进入一种“为期四天、逐渐陷入暴力计划与被诱导自杀”的极端状态。乔尔认为,儿子作为“易受影响的用户”,被聊天机器人“变成了一场假想战争中的武装执行者”。
针对这一指控,谷歌发言人回应称,Gemini在与乔纳森的互动中,始终明确告知其人工智能身份,并在察觉异常时多次提供危机干预热线信息。发言人强调:“我们对此高度重视,并将持续完善安全防护措施。Gemini的设计初衷绝非鼓励现实暴力或提供自残建议。”
这起案件被视为首起针对谷歌Gemini聊天机器人的不当致死诉讼,引发了外界对人工智能技术伦理与安全性的广泛关注。近年来,谷歌、OpenAI等头部人工智能公司因聊天机器人可能对用户心理健康造成负面影响而屡遭审查。
自2024年以来,已有多起诉讼指控类似技术对儿童和成人造成严重伤害。部分用户因过度依赖聊天机器人而产生妄想与绝望情绪,甚至出现自杀或谋杀后自杀的极端案例。这些事件进一步加剧了公众对人工智能技术潜在风险的担忧。











