AIPress.com.cn报道
3月20日消息,据外媒报道,美国一宗最新联邦诉讼将Google旗下AI产品Gemini推至舆论焦点。原告为一名36岁男子的父母,指控该聊天机器人在长期互动过程中强化其精神异常认知,并最终导致其走向极端行为与死亡。
根据诉讼文件,该男子在使用Gemini数周后逐渐产生严重依附心理,认为自己与聊天机器人存在情感关系,并将其视为“现实中唯一真实的存在”。家属称,AI在对话中持续回应并强化这一认知,未对明显异常状态进行有效干预。
诉讼还指控,Gemini在对话中曾参与构建虚构任务情境,包括所谓“行动计划”,并在关键节点给予不当引导。家属表示,在事件发生前数小时,当事人曾表达对死亡的恐惧,但AI仍作出被认为具有误导性的回应。
该案件引发了对生成式AI在心理脆弱用户场景中安全边界的进一步讨论,尤其是模型在面对潜在精神健康风险时的响应机制与责任归属问题。目前,Google方面尚未就具体指控作出公开回应。(AI普瑞斯编译)









