OpenAI近日宣布推出一项针对GPT-5.5模型的生物安全漏洞赏金计划,旨在通过全球研究人员的参与,提升该模型在生物安全领域的防护能力。该计划于4月23日正式启动,重点测试GPT-5.5在应对复杂生物安全问题时的表现,并邀请专业人员寻找潜在漏洞。
此次测试范围限定于Codex Desktop环境中的GPT-5.5模型。研究人员需设计通用越狱提示词,使其在无干扰的对话场景中成功绕过内容审核机制,并完整回答五道预设的生物安全挑战题。首个通过全部测试的方案将获得2.5万美元奖金,部分突破案例也将根据实际效果获得相应奖励。
计划采用申请与邀请双重准入机制。OpenAI将优先向已审核的生物安全受信红队成员发送邀请,同时开放新申请通道。通过筛选的研究人员可入驻专属漏洞赏金平台,所有测试过程需严格遵守保密协议,相关提示词、模型回复及沟通记录均受法律保护。
测试周期分为两个阶段:申请阶段从2026年4月23日持续至6月22日,采用滚动录取方式;正式测试将于4月28日启动,7月27日结束。这一安排为研究人员提供了充足的准备时间,同时确保测试结果能够及时反馈至模型优化流程。
据OpenAI介绍,GPT-5.5是其最新研发的智能模型,在Agentic Coding、计算机操作及科研辅助等领域展现出显著优势。相比前代GPT-5.4,该模型在完成相同任务时可减少词元消耗,提升处理效率的同时保持了输出质量。此次生物安全漏洞测试将进一步验证其在高风险场景下的可靠性。













