ITBear旗下自媒体矩阵:

OpenAI新网络安全模型将分阶段发布 谨慎应对AI安全风险扩散难题

   时间:2026-04-10 05:33:16 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

据行业消息,OpenAI正在紧锣密鼓地开发一款在网络安全领域表现更为突出的新型人工智能模型。有知情人士透露,该模型将采取分阶段发布策略,初期仅面向特定企业开放使用权限。这一模式与Anthropic公司此前推出Mythos Preview模型时的做法颇为相似,均通过有限范围测试来控制技术扩散风险。

随着人工智能技术快速发展,其在自动化攻击与防御领域的潜力引发广泛关注。多位网络安全专家警告称,当前AI模型已具备自动扫描代码漏洞、发现系统薄弱环节的能力,若被恶意利用,可能对供水网络、电力设施、金融系统等关键基础设施构成严重威胁。这种技术能力正接近引发重大安全变革的临界点,促使科技企业重新审视技术发布策略。

今年早些时候,OpenAI在推出GPT-5.3-Codex模型后,同步启动了"网络安全可信访问"试点项目。该项目通过邀请制向特定机构开放模型使用权,并提供千万美元级别的API研究资金支持,重点用于防御性安全研究。参与机构需承诺将技术应用于提升系统防护能力,而非开发攻击性工具。

尽管企业试图通过控制发布范围降低风险,但技术扩散的担忧依然存在。SANS Institute首席AI官罗布·T·李指出,当前AI模型已能自动完成代码枚举、历史漏洞库分析等复杂任务,这些能力本身就具有双重使用特性。帕洛阿尔托网络首席安全情报官温迪·惠特莫尔则认为,即便部分企业暂缓发布,类似技术仍可能在短期内通过其他渠道出现。

这种谨慎发布策略与网络安全领域的"负责任漏洞披露"机制形成呼应。该机制要求发现系统漏洞时,先向受影响方私下通报而非立即公开,为修复工作争取时间。OpenAI的新模型发布计划似乎借鉴了这种风险管控模式,试图在技术创新与安全责任间寻求平衡。

目前尚不清楚这款新模型最终是否会全面开放。Anthropic公司已明确表示Mythos Preview模型将保持有限发布状态,但未来可能推出配备更严格安全管控的升级版本。与此同时,学术界持续关注现有公开模型的安全影响,已有研究表明部分AI工具已能识别常见软件漏洞,这使技术监管成为行业持续讨论的焦点。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version