ITBear旗下自媒体矩阵:

OpenAI启动Safety Bug Bounty计划 邀全球研究者共筑AI安全防线

   时间:2026-03-26 13:34:53 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

OpenAI近日正式启动了一项名为“Safety Bug Bounty”的专项漏洞赏金计划,旨在通过全球安全研究者的力量,挖掘人工智能系统中潜在的滥用风险与安全威胁。该计划特别关注传统网络安全范畴之外的问题,例如模型被恶意操控、数据泄露风险以及代理系统滥用等场景,为AI技术的安全应用提供外部监督机制。

随着生成式AI技术的快速发展,其应用场景日益复杂,安全挑战也随之升级。OpenAI安全团队指出,传统网络安全漏洞(如系统入侵或权限绕过)已通过现有“Security Bug Bounty”计划覆盖,而新计划将聚焦AI特有的风险类型,形成双重防护体系。例如,攻击者可能通过精心设计的文本提示诱导AI代理执行危险操作,或从模型输出中提取未公开的专有信息,这些均属于新计划的覆盖范围。

根据规则,该计划明确三类核心风险类别。其一为“代理型风险”,包括第三方通过提示注入攻击(prompt injection)操控AI行为,研究者需证明攻击在至少半数场景下可复现方能获得奖励;其二涉及专有信息泄露,如模型输出中暴露内部推理逻辑或公司敏感数据;其三聚焦平台完整性,涵盖绕过自动化检测、篡改账户信任评分或规避封禁机制等行为。值得注意的是,单纯绕过内容限制生成粗俗语言或公开信息的“越狱”行为不在奖励范围内,但针对生物安全等高风险领域的专项活动将另行开展。

研究人员需通过OpenAI官方平台提交报告,由跨部门团队联合审核并分类问题性质。安全漏洞将按传统流程处理,而AI特有的风险则纳入专项评估。这一机制既保证了问题处理的效率,也确保了资源向高优先级风险倾斜。OpenAI强调,所有提交内容均受严格保密协议保护,研究者可放心参与。

业内专家认为,该计划的推出标志着AI安全治理从被动防御转向主动协作。通过引入外部研究者视角,企业能够更早发现系统盲区,尤其在模型可解释性、对抗样本防御等前沿领域,外部力量往往能提供独特洞察。OpenAI表示,此举不仅是为了提升自身产品安全性,更希望推动整个行业建立更透明的安全评估标准,为AI技术的规模化应用奠定信任基础。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version