近期,科技领域正因AI在网络安全方面的突破性进展而暗流涌动。OpenAI与Anthropic这两家行业巨头,先后释放出与AI网络安全能力相关的重大信号,引发了业界对AI攻防新格局的深度思考。
据Axios最新爆料,OpenAI正紧锣密鼓筹备一款具备强大网络安全能力的产品,且初期仅向少量合作伙伴开放。这一消息并非空穴来风,早在今年2月,OpenAI发布GPT-5.3-Codex时,便埋下了伏笔。当时推出的Trusted Access for Cyber计划,以邀请制形式,承诺拿出1000万美元API credits,供正当防御研究机构使用。OpenAI明确表示,GPT-5.3-Codex是迄今为止最具网络安全能力的模型,首次在网络安全维度上,按照高能力等级构建安全栈。这意味着,模型的能力已强大到让OpenAI自身都倍感紧张。
无独有偶,Anthropic也在网络安全领域做出重大调整。他们一反常态,没有高调推广新模型,而是将Claude Mythos Preview模型纳入Project Glasswing封闭计划,仅提供给少数科技和安全公司使用。Anthropic给出的理由是,该模型能力过于强大,不适合立即公开。从公布的测试细节来看,这一模型的表现堪称惊人。它能在大规模开源项目中精准定位高危漏洞,将漏洞演变成可利用的攻击链,甚至能编写跨多个漏洞的复杂利用程序。更令人震惊的是,没有正式安全训练背景的内部工程师,只需让模型隔夜寻找远程代码执行漏洞,第二天就能得到一份可运行的利用结果。这种能力,让传统安全研究模式面临巨大挑战。
AI在网络安全领域的突破,并非简单的技术进步,而是引发了行业格局的深刻变革。过去,人们讨论AI模型,更多关注其文案撰写、PPT制作、代码编写等基础能力;后来,话题逐渐转向Agent、自动执行以及工具调用;如今,讨论焦点已转向模型能否自主发现、复现和利用漏洞。这一转变,意味着AI开始涉足网络安全的核心领域,其影响远超普通人的想象。
漏洞,作为网络安全的“定时炸弹”,其影响范围远不止于电脑蓝屏重启。它关联着水厂、电网、医院、银行等关键基础设施,以及浏览器、操作系统、云服务等核心软件。过去,这些漏洞主要依靠顶级安全研究员、红队和国家级机构逐步挖掘。如今,AI模型的介入,彻底改变了这一局面。它们不再仅仅是辅助工具,而是能够独立完成从漏洞发现到利用链构建的全过程,甚至提供修补建议。这种能力,让传统安全防线面临前所未有的压力。
面对AI在网络安全领域的迅猛发展,科技公司开始采取谨慎策略。一方面,它们加速研发更强大的模型;另一方面,又试图限制这些能力的扩散。这种矛盾心态,源于对能力外溢的担忧。一旦能够自动寻找零日漏洞、编写利用链的模型被滥用,后果不堪设想。因此,Anthropic和OpenAI选择将最危险、最敏感的能力封装成专门产品,仅提供给经过筛选的防守方。这种做法,虽然短期内会引发技术权力集中的争议,但从长远来看,或许是在模型能力失控前的最佳选择。
安全圈内,许多人开始用“责任披露”这一老概念来理解AI模型的发布逻辑。软件行业几十年来一直在争论,发现漏洞后是立即公开还是私下通知厂商修补。如今,AI模型的发布也面临类似困境:如何控制能力释放的节奏,避免其落入恶意之手。这种担忧并非空穴来风,SANS的Rob Lee指出,既然模型已经具备代码枚举和老旧代码库缺陷查找的能力,就无法阻止其被利用。Palo Alto Networks的高管也持类似观点,认为一旦某家公司的模型具备这种能力,其他公司很快就会跟进。
OpenAI此次准备开放的网络安全产品,与Anthropic对Mythos的处理方式有所不同。OpenAI并非将尚未发布的旗舰模型Spud限制在小圈子内,而是推出一款独立的网络安全产品。这一细节表明,OpenAI的思路并非完全锁死下一代通用旗舰模型,而是将最接近攻防边界的能力单独剥离,包装成安全产品,仅提供给特定合作伙伴。这种分层策略,预示着AI能力将不再以统一方式流向所有人。普通用户将获得好用、顺滑的基础能力;顶级企业和安全机构将接触更深、更危险的防御能力;而最核心的内部能力,可能仅限于少数机构掌握。这种分层格局,既像AI时代的核扩散治理,又似另一种版本的资源分配差异。
AI在网络安全领域的突破,标志着技术竞赛已进入新阶段。从聊天自然度、界面丝滑度的比拼,转向系统底层、浏览器、内核、云平台和关键基础设施的争夺。这些领域平时鲜有人关注,但一旦出现问题,将引发全社会震动。OpenAI和Anthropic的近期动作,或许正是这一新阶段的开端信号。AI不再仅仅是辅助工具,而是开始深度参与人类最古老、最敏感的博弈——防守与进攻、披露与封锁、开放与分级、效率与失控。这场博弈,将决定未来网络安全的格局走向。











