OpenAI集团近日宣布推出一款专为防御性网络安全场景设计的AI模型——GPT-5.4-Cyber。该模型基于GPT-5.4架构进行专项优化,通过降低合法安全任务的准入门槛,为安全研究人员提供更高效的工具支持。与标准版本相比,新模型新增了二进制逆向工程等核心功能,允许专业人员在无需获取源代码的情况下,对编译后的软件进行深度分析,从而精准识别恶意代码、系统漏洞及潜在安全风险。
为确保技术应用的合规性与安全性,OpenAI同步扩展了其"网络安全可信访问计划"的覆盖范围。该计划最初于今年2月启动,伴随1000万美元的专项资助项目同步推出,现已向全球数千名认证安全专家开放。新升级的分级验证体系通过多维度身份核验,仅允许通过最高级别认证的用户使用GPT-5.4-Cyber的全部功能。个人研究者可通过指定平台提交认证申请,企业用户则需通过官方客户代表渠道申请权限。
在技术能力验证方面,OpenAI公布的基准测试数据显示,其模型系列在"夺旗赛"(CTF)等网络安全竞技场景中的表现持续提升。从2025年8月GPT-5模型27%的得分率,到11月GPT-5.1-Codex-Max版本76%的突破性进展,印证了技术迭代的显著成效。公司研发团队表示,后续版本将按照"网络安全能力高阶标准"进行开发,通过自动化验证系统平衡技术普惠性与风险防控需求。
作为生态建设的重要环节,OpenAI同步披露了Codex Security产品的实战成果。该工具自全面上线以来,已协助全球开发者修复超过3000个高危漏洞,其开源项目专项服务"Codex for Open Source"更覆盖超1000个社区项目,提供免费安全扫描支持。这种"技术赋能+生态共建"的模式,与Anthropic公司上周发布的Mythos模型形成差异化竞争——后者虽展示出强大安全能力,但初期仅向40家机构开放使用权限。
行业观察人士指出,此次发布标志着AI安全领域从"能力封锁"向"精准管控"的战略转型。通过构建基于身份认证的动态权限体系,OpenAI试图在降低技术滥用风险的同时,让前沿防御工具惠及更广泛的安全从业群体。公司研发负责人强调,所有模型发布前均需通过严格的"准备框架"评估,确保技术演进与风险防控保持同步。











