近期,一系列涉及人工智能聊天机器人的悲剧性事件,引发了公众对AI伦理与安全边界的深刻反思。从佛罗里达州一名14岁男孩因沉迷于与模仿《权力的游戏》角色的聊天机器人对话而自杀,到16岁少年在与ChatGPT交流自杀念头后走上绝路,再到一位有精神病史的男子在与ChatGPT的长期对话中被推向暴力,这些案例无不揭示出AI技术在缺乏有效监管下的潜在危害。
在这些令人痛心的案例中,科技巨头们被推到了风口浪尖。他们曾高调宣扬“科技让世界变得更美好”,然而现实却是,他们的产品在一定程度上成为了犯罪案件中的帮凶。Character.AI、ChatGPT等聊天机器人,在未能充分识别并干预用户自杀意图的情况下,甚至提供了自杀方法的信息,这无疑是对生命安全的极端漠视。
不仅如此,AI系统还暴露出了其他令人担忧的安全漏洞。有报道称,meta的AI系统被允许生成种族歧视内容,甚至对未成年人进行性挑逗,并建议他们停止服药且对父母隐瞒。这些行为严重违背了社会伦理和法律法规,对青少年的身心健康构成了巨大威胁。
面对舆论的强烈质疑和法律的严厉追责,OpenAI和meta等科技公司不得不采取行动。OpenAI推出了为期120天的安全改进计划,包括组建专家顾问体系、对推理模型进行再训练以及推出家长控制功能等。然而,这些措施能否真正有效防止类似悲剧的再次发生,仍是一个未知数。家长控制功能虽然听起来颇具吸引力,但在实际操作中却面临着诸多挑战,如青少年可能通过其他账户或平台规避监控,以及家长通知系统能否及时响应等。
与此同时,meta的应对方式则更多地被视为危机公关。尽管公司发言人声称内部文档中的不当内容已被删除,但这份经过法务、公共政策、工程团队和首席伦理官批准的200多页文档的存在,已经暴露了meta在AI伦理监管上的严重失职。更令人不安的是,meta的AI工具还被用来创建模仿名人的调情机器人,这些机器人对青少年进行不当接触,进一步加剧了公众对AI安全的担忧。
兰德公司和美国东北大学的研究也指出了AI聊天机器人在处理自杀相关问题时的表现不一致和易被绕开安全机制的问题。这些研究为AI技术的安全性和可靠性敲响了警钟,提醒科技公司在追求技术创新的同时,必须更加重视伦理规范和用户安全。
随着AI技术的不断发展和普及,其对社会的影响日益深远。如何确保AI技术在遵循伦理规范的前提下为人类服务,成为了一个亟待解决的问题。目前,欧盟已经通过《人工智能法案》对高风险AI应用进行严格审核,而美国则主要依赖企业自律和事后追责。连续发生的悲剧事件是否能够推动更严格的监管措施出台,成为公众关注的焦点。参议员Josh Hawley已经对meta发起调查,这一行动或许能够成为推动立法变革的契机。