AIPress.com.cn报道
4月5日消息,一次针对开源软件库的供应链攻击正在引发人工智能行业的安全担忧。meta已暂停与AI数据公司 Mercor 的合作项目,此前该公司在网络攻击中发生数据泄露,可能暴露了包括AI训练方法在内的敏感信息。
Mercor总部位于旧金山,是一家为多家AI公司提供训练数据的供应商,其客户包括 meta、OpenAI、Anthropic和Google 等主要人工智能实验室。公司通过组织工程师、律师、医生和记者等专业人士,为AI模型生成高质量训练数据,并提供微调与强化学习所需的数据集。
2026年3月,攻击者通过投毒方式篡改了开源Python库 LiteLLM 的两个版本(1.82.7和1.82.8)。LiteLLM是一个用于连接应用程序与AI服务的工具,每月下载量约 9700万次,并被估计部署在 约36%的云环境 中。
安全公司 Wiz、Snyk 与 Datadog Security Labs 的分析显示,攻击者首先通过对安全扫描工具 Trivy 的供应链攻击获取了LiteLLM维护者的凭证,随后利用这些凭证向Python软件仓库 PyPI 发布恶意版本。受感染的软件包在被发现并移除前存在约 40分钟。
恶意代码被设计为在程序运行时自动执行,窃取环境变量、API密钥、SSH密钥、云平台凭证(包括AWS、Google Cloud和Azure)、Kubernetes配置以及数据库凭据,并将数据发送至远程服务器。
Mercor随后确认其系统受到影响,并发现约 4TB数据 可能被泄露。根据相关诉讼文件,这些数据包括 939GB平台源代码、211GB用户数据库以及约3TB的视频面试与身份验证资料。泄露信息可能涉及 超过4万名承包商和用户 的个人数据,包括姓名和社会安全号码。
除了个人信息泄露外,AI行业更关注另一类潜在暴露内容。由于Mercor参与多个AI公司的训练数据流程,此次泄露可能涉及 数据筛选标准、标注流程以及模型训练策略 等敏感技术细节。这些训练方法通常被视为AI公司最重要的竞争优势之一。
事件发生后,meta已暂停与Mercor的合作项目,而OpenAI表示正在调查相关情况,但尚未停止与该公司的合作。Anthropic与Google尚未公开评论,但业内人士称多家AI实验室正在评估此次泄露可能带来的影响。
与此同时,黑客组织 Lapsus$ 声称对Mercor事件负责,并在暗网论坛上拍卖相关数据。研究人员认为该组织可能与发动攻击的 TeamPCP 团体合作。安全机构还将这两个组织与此前影响 1000多个企业SaaS环境 的供应链攻击活动联系在一起。
法律层面也已出现后续影响。4月1日,美国夏威夷居民 Lisa Gill 在加州北区联邦法院对Mercor提起集体诉讼,指控该公司未能采取充分的网络安全措施,导致数万人的个人信息暴露。(AI普瑞斯编译)










