近期,网络安全领域迎来了一次前所未有的挑战,开源代码组件库成为了黑客攻击的新焦点。他们不仅通过伪造软件包发动供应链攻击,更是将目标锁定在了人工智能(AI)框架和机器学习(ML)模型上,手段之狡猾,令人咋舌。
在一项最新的研究中,安全专家揭露了一起针对阿里云AI实验室开发工具包的恶意攻击事件。攻击者精心制作了三个伪装得天衣无缝的恶意软件包,并成功上传至Python Package Index(PyPI)平台。这些软件包看似是阿里云AI实验室的官方SDK,实则暗藏玄机,毫无合法功能可言。
这些恶意软件包利用Pickle格式存储的ML模型作为掩护,悄无声息地从用户环境中窃取信息,并将窃取的数据悄无声息地发送至攻击者控制的服务器。Pickle作为Python的官方序列化模块,常用于存储与PyTorch库相关的ML模型,而随着PyTorch在AI开发者中的普及,Pickle格式也成为了黑客眼中的“香饽饽”。
此次攻击事件中的三个恶意软件包分别为aliyun-ai-labs-snippets-sdk、ai-labs-snippets-sdk和aliyun-ai-labs-sdk,尽管它们在上线不到一天的时间内就被发现并下架,但已经合计被下载了1600次。这些恶意SDK通过__init__.py脚本加载含有恶意代码的PyTorch模型,这些模型执行的base64编码代码旨在窃取用户的敏感信息,如登录凭证、网络地址以及组织名称等。
值得注意的是,这些恶意代码似乎对中国的开发者情有独钟,因为阿里云SDK在中国开发者群体中拥有广泛的用户基础。然而,安全专家警告称,这种攻击手法同样可以针对全球范围内的开发者,只需更换不同的诱饵即可。这也意味着,任何使用开源代码组件库的开发者都可能成为黑客的下一个目标。
此次攻击事件不仅暴露了机器学习模型文件格式的安全风险,也揭示了当前安全工具在检测恶意ML模型方面的不足。随着AI技术的不断发展,黑客利用ML模型进行攻击的手法也将愈发多样化和隐蔽化。因此,开发者和安全专家需要时刻保持警惕,加强安全防护措施,以应对可能出现的各种网络攻击。