OpenAI近日在ChatGPT消费级版本中正式推出了一项名为“年龄预测”的新功能,这一举措标志着AI平台在未成年人保护领域迈出了重要一步。该功能不再依赖用户自行申报年龄,而是通过分析账户存续时间、活跃时段、交互模式等多维度行为信号,自动识别18岁以下用户,并为其启用专属安全防护机制,同时提供家长控制与第三方验证服务。
长期以来,AI平台在未成年人保护方面主要采用“用户自报年龄+内容分级”的被动模式。用户在注册时只需勾选“已满18岁”即可解锁全部功能,这种方式不仅容易被规避,也无法有效应对未成年人冒用成年账号的情况。OpenAI此次推出的“年龄预测”功能,通过构建基于账户与行为信号的多维度预测模型,彻底改变了这一传统逻辑。
该模型的分析维度涵盖账户、行为和补充三个层面。账户维度包括注册时长、账号活跃度、付费状态等基础信息;行为维度则涉及日常活跃时段、交互频率、提问内容偏好、对话长度与风格等;补充维度则结合用户注册时填报的年龄信息,但仅作为辅助参考,不作为唯一判定依据。这种动态识别机制能够持续分析用户行为,不断修正年龄判定结果,提高了识别的准确性和灵活性。
针对被判定为未成年人的账户,ChatGPT强制启用了五层安全防护措施,精准拦截高风险内容。这些内容包括直接展示的暴力血腥画面、可能诱导未成年人模仿的危险病毒式挑战、涉及性或暴力的角色扮演内容、自残或自杀相关的描述与引导,以及宣扬极端审美或不健康节食的内容。这些措施旨在保护未成年人免受不良信息的侵害。
为避免模型误判影响成年用户体验,OpenAI引入了第三方身份验证服务Persona。被错误归类为未成年人的用户可通过上传自拍完成快速人脸验证,验证通过后即可恢复账号完整功能。这一设计在保障安全性的同时,也兼顾了用户体验的平衡。
系统还提供了家长控制定制功能,让家长能够更灵活地管控孩子的账号使用。家长可以设置“静默时间”,禁止孩子在特定时段使用账号;管控账号记忆功能权限,避免孩子重复查看敏感内容;甚至在系统检测到用户出现急性心理困扰迹象时,及时接收通知并介入引导。这些功能为家长提供了更多工具,帮助他们更好地保护孩子的网络安全。
OpenAI推出“年龄预测”功能的背后,是监管压力与行业趋势的双重推动。一方面,OpenAI正面临美国联邦贸易委员会(FTC)的调查,质疑焦点集中在AI聊天机器人对青少年的负面影响。此前已有家长投诉ChatGPT未有效拦截有害内容,导致未成年人接触暴力、色情信息,甚至出现心理问题。推出这一功能是OpenAI应对监管审查、降低法律风险的重要举措。
另一方面,未成年人保护已成为全球AI行业的共同课题。随着AI工具的普及,越来越多青少年将ChatGPT作为学习、娱乐的重要工具。然而,由于心智尚未成熟,他们容易受到不良信息的诱导。此前,谷歌Bard、Anthropic Claude等竞品已推出不同程度的未成年人保护功能,但多依赖内容分级与自愿申报。OpenAI的“行为识别+动态防护”模式无疑为行业提供了更前沿的探索方向。
尽管“年龄预测”功能设计完善,但仍面临诸多争议与挑战。首先,行为信号能否完全代表年龄存在争议。部分成年用户可能因工作、学习需求频繁深夜使用ChatGPT,或偏好提问低龄化内容,容易被误判为未成年人;而部分早熟的未成年人可能通过模仿成年用户的交互模式规避识别。OpenAI虽表示会持续优化模型精度,但短期内仍难以实现100%准确。
其次,行为分析是否侵犯用户隐私引发担忧。年龄预测需要收集、分析用户的大量行为数据,包括活跃时段、交互内容、使用习惯等。这引发了用户对数据泄露的担忧,OpenAI如何确保这些数据不被滥用、是否会与第三方共享成为关注焦点。在全球数据合规趋严的背景下,如何平衡“行为识别”与“隐私保护”是OpenAI必须解决的问题。
最后,防护能否覆盖所有风险场景仍存疑问。此次ChatGPT拦截的五类高风险内容主要集中在“显性有害信息”,但对于“隐性风险”如诱导未成年人网络诈骗、传播极端思想、泄露个人信息等,年龄预测模型尚未覆盖。家长控制功能依赖家长的主动操作,若家长缺乏监管意识或技术能力,该功能的实际效果将大打折扣。












