ITBear旗下自媒体矩阵:

OpenAI强化安全防线:ChatGPT新增锁定模式与风险标签双保障

   时间:2026-02-14 16:06:00 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

OpenAI近日宣布为ChatGPT推出两项全新安全防护机制,以应对AI系统在连接外部网络和应用时面临的提示注入攻击威胁。这类攻击可能被不法分子利用,诱导AI执行恶意操作或泄露用户隐私数据。新措施在现有沙箱隔离、URL信息过滤等多层防护体系基础上,进一步强化了安全管控能力。

首项推出的锁定模式(Lockdown Mode)专为高安全需求场景设计,属于可选的高级配置选项。该模式通过严格限制AI与外部系统的交互方式来降低数据泄露风险,例如将网页浏览功能限制在缓存内容范围内,同时禁用所有缺乏安全保障的功能模块。目前该功能已面向企业版、教育版、医疗版及教师版用户开放,系统管理员可通过工作台创建特定角色来启用锁定模式,并能精细控制允许访问的外部应用及操作权限。OpenAI透露,消费者版本用户将在未来几个月内获得该功能支持,配套的合规审计平台可帮助管理员追踪应用使用情况和数据流动轨迹。

第二项安全升级是在ChatGPT、ChatGPT Atlas及Codex等产品中,为具有潜在安全风险的功能统一添加"风险提升"标识。这种标准化的风险提示方式旨在帮助用户更清晰地认知功能特性,特别是在处理敏感数据时做出审慎决策。以代码生成工具Codex为例,当开发者启用网络访问功能时,系统会通过醒目标识展示功能变更说明、潜在风险及适用场景,同时提供风险缓解建议。OpenAI强调,虽然网络相关功能能显著提升AI实用性,但某些风险尚未被行业现有防护措施完全覆盖,透明化的风险提示机制有助于建立更可信的人机协作环境。

据技术文档披露,锁定模式实施后,受管控账户的外部交互将接受双重验证机制:系统不仅会检查目标应用的数字证书有效性,还会对传输数据进行动态加密处理。在风险标识系统方面,OpenAI采用三级分类标准,根据功能对数据安全、系统完整性的影响程度进行差异化标注。这些安全增强措施已通过第三方机构的安全评估,符合ISO/IEC 27001信息安全管理标准要求。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version