在生成式人工智能席卷全球的背景下,如何为未成年人构建安全的使用环境已成为社会各界热议的核心议题。OpenAI近日宣布,其核心产品ChatGPT正式上线“年龄分层识别”系统,通过技术手段优化青少年用户的交互体验。这一举措被视为人工智能治理从粗放管理向精准施策转型的重要标志,为行业树立了新的监管范式。
该系统采用“行为特征分析+第三方核验”的复合验证机制。技术层面,平台运用深度学习算法对用户行为模式进行多维度建模,包括但不限于对话主题偏好、使用时段分布等交互特征。通过机器学习模型对海量数据的持续训练,系统能够识别出具有未成年人特征的交互模式,为后续的分级管控提供依据。
当系统判定用户属于未成年群体时,将立即启动专项保护模式。该模式不仅屏蔽所有商业推广内容,更对输出内容进行严格过滤。具体包括:禁止生成涉及暴力场景、危险行为模仿、恋爱关系模拟等不适宜青少年的内容,同时对极端审美观念、非健康饮食倡导等潜在误导性信息进行拦截。OpenAI技术团队表示,所有过滤规则均基于儿童发展心理学研究成果制定,确保内容符合不同年龄段的认知水平。
为增强身份验证的可信度,平台引入专业身份核验服务商Persona构建双重保障体系。成年用户若需解除限制,须通过生物特征识别或提交法定身份证件完成实名认证。这种设计既符合全球数据隐私保护趋势,又能有效防止未成年人绕过监管措施。技术负责人强调,所有身份信息均采用加密存储,核验完成后系统将自动删除原始数据。
目前该功能已在全球主要市场落地实施,欧盟地区因涉及特殊数据治理框架,预计将在后续阶段完成部署。OpenAI法律团队正与欧洲监管机构保持密切沟通,确保功能上线符合《通用数据保护条例》等相关法规要求。行业观察人士指出,此次升级标志着头部企业开始主动承担社会责任,通过技术创新平衡商业发展与用户保护之间的关系。












