国家互联网信息办公室近日发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,面向社会公开征集意见。该文件针对人工智能拟人化互动服务提出多项具体管理要求,重点围绕安全保障、用户权益保护、未成年人防护等方面建立规范体系。
在服务安全责任方面,征求意见稿明确要求服务提供者需建立全链条管理制度,涵盖算法审核、伦理审查、信息发布审核、网络安全防护、数据安全保障、个人信息保护、反诈骗措施及应急预案等环节。同时强调技术保障措施必须具备可控性,配备与业务规模相匹配的内容管理团队和技术工具,确保服务全程可追溯、可管控。
针对用户使用时长管理,文件特别规定当用户连续使用拟人化互动服务达2小时时,系统必须通过弹窗等方式强制提醒用户暂停使用。在交互真实性提示方面,要求服务界面显著标识"非自然人交互"信息,并在用户首次登录、重新登录或出现沉迷倾向时,动态提醒交互内容由人工智能生成。对于情感陪伴类服务,明确要求设置便捷退出通道,禁止以任何形式阻碍用户终止服务,包括技术故障导致的服务中断需提前公示处理方案。
未成年人保护成为管理重点。征求意见稿要求服务提供者必须开发未成年人专用模式,提供使用时长限制、定期现实提醒等防护功能。向未成年人提供情感陪伴服务前,需取得监护人书面同意,并开发监护人控制平台,实现安全风险实时预警、使用记录查询、角色屏蔽、时长限制及消费管控等功能。服务提供者需具备未成年人身份识别能力,对疑似未成年人用户自动切换至保护模式,同时开通身份申诉渠道。
文件还强调建立投诉举报快速响应机制,要求服务界面设置明显入口,公示处理流程和反馈时限,确保用户诉求得到及时处理。对于服务功能调整或技术故障导致的服务中断,需通过多渠道提前告知用户,保障用户知情权。











