在一场备受关注的法律纠纷中,谷歌与 Character.AI 终于达成了和解,涉及多起指控人工智能聊天机器人对未成年人造成伤害的案件。这些指控包括一些悲惨的自杀事件,令公众和家属忧心忡忡。
根据最新的法院文件,双方同意通过协商方式处理和解条款,并已决定暂停诉讼程序,以便完成正式的和解文件的起草和签署。这一和解的达成,标志着多个家庭与企业之间的一系列法律争斗的结束,虽然它的背后是无数悲痛的故事。
近年来,越来越多的家庭因亲人将人工智能产品视为陪伴或心理支持工具而提起诉讼,结果却导致了自残或死亡的悲剧。这些事件引发了社会对 AI 聊天机器人的关注和讨论。针对这一问题,Character.AI 早在 2024 年 10 月就宣布,将禁止 18 岁以下的用户与聊天机器人进行不限范围的对话,包括情感交流和心理咨询类的互动。
这次和解虽然在一定程度上减轻了谷歌和 Character.AI 的法律压力,但同时也引发了人们对 AI 产品安全性和适用人群的深思。作为科技公司,它们在推出新技术时,如何确保用户的心理健康和安全,将是未来需要认真考虑的问题。
值得注意的是,随着科技的迅速发展,AI 在我们生活中扮演的角色越来越重要,如何在享受科技便利的同时,保障青少年的心理健康,已成为社会各界亟待解决的问题。








