OpenAI近日发布公告,就青少年安全、用户自由与隐私保护三大核心议题的平衡策略作出详细说明。公司承认,这些领域存在天然的矛盾性,必须在透明框架下寻找动态平衡点。
针对AI对话中涉及的敏感信息,OpenAI将其类比为医疗问诊或法律咨询场景,主张这类数据应享有同等程度的特权保护。公司正推动相关政策立法,同时研发新型加密技术,确保用户数据即便在内部也处于严格隔离状态。不过公告明确,当自动化系统检测到严重滥用行为,或涉及生命安全威胁、网络安全危机等极端情况时,数据将启动人工审核机制。
在用户自由度方面,OpenAI采取分级管理策略。随着技术可控性提升,成年用户将获得更大操作空间:系统默认屏蔽暧昧内容,但经主动请求后可开放;涉及自杀主题时,拒绝提供实施指导,但允许创作虚构作品。这种"成人视作成人"的原则,体现了对用户自主判断权的尊重。
未成年人保护被列为优先级。ChatGPT明确限定13岁以上用户使用,正在开发的年龄识别系统将通过多维度数据判断用户身份。未满18岁者自动启用青少年模式,系统将过滤性暗示内容,并在检测到严重心理危机时启动应急机制,包括联系监护人或通报执法部门。
针对信息模糊的情况,系统默认采取保护性措施,未成年人需通过身份验证才能解锁全部功能。具体规则包括:禁止任何形式的暧昧对话生成;严禁参与自杀/自残话题讨论,包括文学创作场景;发现自杀倾向时优先联系家长,紧急情况下直接上报相关部门。
本月将上线的家长控制功能包含五大模块:通过邮件实现账户绑定;自定义青少年使用规则;管理记忆功能与历史记录;接收心理危机预警(无法联系家长时自动上报);设置"数字宵禁"限制使用时段。所有用户仍保留原有提醒机制,例如连续使用时的休息提示。