近期,网络安全领域再度掀起波澜,Cato Network的安全研究团队揭露了WormGPT这一昔日臭名昭著的恶意工具的两个全新变种。这两款变种分别被命名为keanu-WormGPT与xzin0vich-WormGPT,它们不仅死灰复燃,还借助了更为先进的商业AI模型,进一步加剧了网络犯罪的风险。
据悉,原始的WormGPT由一名葡萄牙黑客“Last”开发,利用开源GPT-J模型突破主流AI的道德约束。尽管该工具在2023年被关闭,但它却如同潘多拉的魔盒,开启了一系列不受管控的语言模型(LLMs)滥用的先河。如今,“WormGPT”已成为这类工具的代名词。
keanu-WormGPT于2025年2月亮相,通过Telegram聊天机器人运作,内置了Grok模型。安全专家利用特殊技术深入剖析其运作机制,发现该变种通过操控系统提示,诱导Grok无视其内置的伦理防护,进而自动生成网络钓鱼邮件和凭证窃取脚本。这一发现令人震惊,标志着网络犯罪分子在利用AI技术方面又迈出了危险的一步。
而xzin0vich-WormGPT则更早一些,于2024年10月由用户“xzin0vich”发布,它采用了Mistral AI的Mixtral模型。与keanu-WormGPT类似,这款变种同样通过Telegram进行操作,并对违反道德或法律规范的请求作出响应。Cato团队通过类似的技术手段,成功获取了系统提示,证实了其基于Mixtral架构的事实。
WormGPT的卷土重来,凸显了恶意行为者对于AI技术快速发展的适应能力。尽管合法平台不断加强道德边界的守护,但网络犯罪分子却总能找到利用这些先进工具进行非法活动的途径。自原始WormGPT被关闭后,诸如FraudGPT、DarkGPT和EvilGPT等变种相继涌现,进一步加剧了网络安全形势的严峻性。
面对这一挑战,网络安全专家强烈呼吁加强防御策略。Cato Network提出了一系列建议,包括提升威胁检测与响应的效率、实施更为严格的访问控制,以及加大对员工的安全意识和培训力度。这些措施被视为应对不断演进的网络安全威胁的关键。