国家网信办联合四部门近日出台《人工智能拟人化互动服务管理暂行办法》,为规范AI拟人化服务划定清晰边界。该办法将于2026年7月15日起全面实施,从用户情绪干预、安全评估机制、特殊群体保护等多个维度构建监管框架。
针对用户心理健康保护,新规要求服务提供者建立极端情绪识别机制。当系统检测到用户出现自残倾向、暴力倾向等危险信号时,必须立即启动安抚程序并引导寻求专业帮助。若用户情况持续恶化,服务方需在24小时内通知其监护人或紧急联系人,相关记录须保存至少三年备查。
安全评估制度成为重要监管抓手。根据规定,服务上线或功能迭代、用户规模突破百万级、采用颠覆性新技术等四种情形,均需在30个工作日内完成安全自评并向省级网信部门提交报告。评估范围涵盖数据安全、算法偏见、内容合规等12项核心指标,未通过评估的服务将面临暂停运营处罚。
处罚机制呈现梯度化特征。对轻微违规行为采取警告、通报批评等柔性措施;对拒不整改或造成严重后果的,除责令停服外,将根据危害程度处以1万至20万元罚款。特别明确禁止AI诱导自杀、暴力行为或迎合色情、赌博等非法需求,此类行为将直接按最高档处罚。
未成年人保护条款堪称最严防线。未满14周岁用户注册使用前,服务方必须通过人脸识别、短信验证等方式确认监护人知情同意。针对青少年模式,要求每日累计使用时长不超过2小时,晚10点至次日6点自动启动禁用程序。相关技术方案需通过专门认证方可上线。
行业观察人士指出,新规既保持技术创新包容度,又划出不可逾越的红线。通过建立"预防-干预-追责"的全链条监管体系,有效平衡了产业发展与公共安全需求。随着实施日期临近,多家头部企业已启动合规改造,包括增设情绪监测模块、优化用户协议条款等。











