近日,英国互联网安全领域的多位倡导者联名致信国家通讯监管机构Ofcom,要求对社交媒体巨头meta在风险评估流程中过度依赖人工智能(AI)的做法加以限制。这一呼吁的背景是,meta计划将风险评估工作的九成自动化,此举引发了对于用户安全,特别是未成年用户保护的深切忧虑。
根据英国的《在线安全法》,社交媒体平台有责任全面评估服务可能带来的风险,并据此制定有效的缓解措施。这一风险评估机制被视为保护用户,特别是儿童用户安全的关键法律要求。然而,包括Molly Rose基金会、儿童慈善组织NSPCC以及互联网观察基金会在内的多个机构认为,meta将风险评估主要交由AI处理的做法是一个“令人担忧的倒退”。
在致Ofcom首席执行官梅拉妮·道斯的信函中,倡导者们明确表达了对AI主导风险评估的担忧,并强烈建议监管机构明确指出,若风险评估过度或完全依赖自动化手段,则不应被视为“适当且充分”。他们还呼吁Ofcom质疑meta在风险评估过程中降低标准的假设。Ofcom方面表示,将认真审视这封信函所表达的关切,并在适当时候作出回应。
面对这一质疑,meta公司迅速作出回应,强调其在安全领域的坚定承诺。meta发言人指出,公司并未使用AI做出风险决策,而是开发了一款工具,以帮助团队识别并遵守相关法律和政策要求。该发言人还强调,AI技术是在人工监督下使用的,旨在提升有害内容的管理能力,且技术进步已显著改善了安全结果。
Molly Rose基金会在组织此次联名行动时,引用了美国广播公司NPR的报道。据报道,meta最近的算法更新和新安全功能将主要由AI系统批准,而不再经过人工审查。一位不愿透露姓名的前meta高管表示,这种变化虽然能加速Facebook、Instagram和WhatsApp上应用更新和新功能的推出,但也会带来“更大的风险”,因为在新产品发布前,潜在问题很可能被忽视。
NPR的报道还指出,meta正考虑将青少年风险和虚假信息传播等敏感领域的审查工作自动化。这一消息进一步加剧了公众对于meta过度依赖AI可能带来的安全风险的担忧。