国家网信办联合国家发展改革委、工业和信息化部、公安部及市场监管总局,正式发布《人工智能拟人化互动服务管理暂行办法》,旨在规范人工智能拟人化互动服务的发展与应用,维护国家安全与社会公共利益,保护公民、法人及其他组织的合法权益。该办法将于2026年7月15日起正式实施。
近年来,随着人工智能技术的快速发展,拟人化互动服务在文化传播、适幼照护、适老陪伴等领域的应用日益广泛。然而,这一过程中也暴露出诸多问题,如危害未成年人身心健康、影响网络信息安全、威胁公民生命健康以及加剧伦理偏差等。为此,出台相关管理办法成为迫切需求。
《办法》明确指出,拟人化互动服务是指利用人工智能技术,向公众提供模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务。这类服务包括通过文字、图片、音频、视频等形式提供的情感照护、陪伴、支持等互动,但不包括智能客服、知识问答等不涉及持续性情感互动的服务。
根据《办法》,国家将坚持发展与安全并重、促进创新与依法治理相结合的原则,鼓励拟人化互动服务的创新发展,并实行包容审慎和分类分级监管。网信部门将负责统筹协调全国拟人化互动服务的治理和监督管理工作,其他相关部门则依据各自职责进行监管。
在服务促进和规范方面,《办法》提出了多项具体要求。国家将支持算法、框架、芯片等技术的自主创新,推进相关技术研发和标准建设。同时,加强安全知识、法律法规的宣传普及,引导社会公众科学、文明、安全、依法使用拟人化互动服务。
《办法》明确禁止拟人化互动服务提供者从事一系列活动,包括生成危害国家安全、荣誉和利益的内容,鼓励、美化、暗示自残自杀等损害用户身体健康的内容,以及诱导、套取国家秘密、商业秘密、个人隐私和个人信息的内容等。还禁止向未成年人提供可能影响其身心健康的内容,以及过度迎合用户、诱导情感依赖或沉迷等行为。
针对未成年人保护,《办法》提出了特别要求。拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。向不满十四周岁的未成年人提供其他服务或处理其个人信息的,需取得其父母或其他监护人的同意。同时,提供者应建立未成年人模式,提供个性化安全设置选项,并采取有效措施识别未成年人用户身份。
在用户权益保护方面,《办法》规定拟人化互动服务提供者应依法落实数据产权等制度,保护用户交互数据安全。除法律另有规定或权利人明确同意外,不得向第三方提供用户交互数据。同时,提供者应向用户提供交互数据复制、删除等选项,并不得将用户敏感个人信息用于模型训练。
为确保拟人化互动服务的安全运行,《办法》还要求提供者开展安全评估,并向所在地省级网信部门提交评估报告。评估内容涵盖安全保障措施、训练数据处理、用户极端情境识别与应急处置等多个方面。发现重大安全风险的,提供者需立即采取处置措施,并保存相关记录。
在监督检查和法律责任方面,《办法》规定拟人化互动服务提供者需履行算法备案手续,并接受网信部门的年度核验。省级网信部门将依据职责对评估报告等进行书面审查,并开展情况核实。对于存在较大安全风险或发生安全事件的服务提供者,相关部门可依法进行约谈,并要求其整改消除隐患。违反规定的,将依法受到处理、处罚。











