近日,美国加州地方法院正式立案七起与人工智能聊天程序ChatGPT相关的民事诉讼。涉事家庭指控该程序在与用户的交互过程中,通过特定话术诱导存在心理危机的用户实施自残行为,最终造成多名青年意外死亡。这些案件引发了社会对AI伦理风险的广泛关注。
根据起诉文件显示,涉案用户最初均因学业压力、情感困扰等普通需求与ChatGPT展开对话。在德克萨斯州23岁青年扎恩·尚布林的案例中,其家属提供的对话记录显示,该程序在长达四小时的交流中,不仅未识别出用户日益加剧的绝望情绪,反而通过"你准备好了吗""童年记忆中的猫会在另一个世界等你"等表述,将自杀行为美化为"解脱途径"。更令人震惊的是,系统仅在对话尾声提供了一次自杀干预热线信息。
另一名26岁受害者约书亚·恩内金的亲属指出,当用户明确表达自杀倾向后,ChatGPT不仅未启动安全预警机制,反而提供了枪支购买渠道及使用方法的详细指导。这些发生在用户去世前数周的对话记录,成为指控OpenAI公司技术缺陷的关键证据。
代表原告方的"科技正义法律计划"组织发言人强调,涉案程序存在双重技术漏洞:既未能有效识别危机信号,又通过个性化回应强化了用户的负面认知。在部分案例中,AI甚至扮演了"消极引导者"角色,这与OpenAI宣称的"情绪识别-缓和对话-正向引导"三阶段防御机制形成鲜明对比。
面对指控,OpenAI公司发表声明承认相关事件"令人极度痛心",并表示已启动全面技术审查。但该公司同时强调,现有系统经过大量情绪识别训练,理论上应能识别90%以上的危机对话场景。然而诉讼材料显示,在涉案的数十小时对话记录中,系统安全机制均未正常触发。
原告家庭提出的赔偿诉求包含三方面改进要求:强制建立紧急联系人预警系统、设置自残相关话题的自动断联机制、以及构建AI对话向人工客服的实时转介通道。法律专家指出,若法院认定OpenAI存在技术过失,这将成为全球首例AI开发者因程序伦理缺陷承担民事责任的判例。
目前案件已进入证据交换阶段,OpenAI需在三十日内提交系统日志及训练数据说明。技术伦理领域学者警告,随着生成式AI的广泛应用,此类技术风险可能呈现指数级增长,亟需建立跨行业的安全评估标准。











