工业和信息化部等十部门近日联合发布《人工智能科技伦理审查与服务办法(试行)》,为人工智能领域的科技伦理治理构建起系统性规范框架。该文件通过细化审查程序、明确监管要求、强化协同机制,为人工智能技术的健康发展提供制度保障,标志着我国人工智能治理体系迈入精细化阶段。
在审查程序方面,《办法》创新性地设计了分层分类的审查机制。常规科技活动采用一般程序,涉及重大伦理风险的则需启动专家复核程序,紧急情况下可适用应急程序。申请主体需向单位伦理委员会或指定服务中心提交材料,经形式审查后确定程序类型。对于纳入重点监管清单的项目,需经过单位初审、主管部门复核双重把关,复核意见将成为最终审批的核心依据。
针对人工智能技术特性,《办法》确立了六项核心审查原则:人类福祉优先、公平性保障、技术可控性、算法透明度、责任追溯机制、隐私保护强度。审查机构将重点评估科技人员资质、科研价值取向、风险收益比、应急预案可行性等关键指标。特别要求对算法模型的社会动员能力、人机融合系统对心理行为的影响、自主决策系统的安全风险进行专项审查。
为优化营商环境,《办法》建立差异化监管机制。对已纳入深度合成、算法推荐等领域行政审批的项目,只要符合科技伦理要求即可免于专家复核。同时设定动态跟踪审查周期,常规项目不超过12个月,高风险项目缩短至6个月,确保伦理监管与技术创新同步迭代。对于伦理风险显著变化的项目,强制要求重新启动完整审查流程。
在协同治理方面,《办法》与《科技伦理审查办法(试行)》形成有机互补。前者作为人工智能领域的专项规范,在通用审查框架基础上,针对技术特征细化了23项操作细则,包括申请材料清单、简易程序适用条件等。这种"基础规范+专项规则"的立法模式,既保证了治理体系的统一性,又增强了专业领域的实操性。
文件明确划定三类必须专家复核的高风险领域:影响人类认知决策的人机交互系统、具有舆论引导功能的算法模型、涉及生命安全的自主决策系统。这类项目的审查需组建跨学科专家组,在30个工作日内完成合规性复核。中央企业项目直接报请国家主管部门,地方企业项目由省级部门组织审查,形成分级负责的监管格局。
为保障制度落地,《办法》构建了多维支撑体系。在标准建设层面,推动制定人工智能伦理评估指标体系;服务体系建设方面,鼓励设立区域性伦理审查中心;人才培养机制上,要求科研机构配备专职伦理专员。同时建立违规惩戒机制,对违反伦理规范的行为,将依据网络安全、数据安全等相关法律实施联合惩戒。
据参与起草的专家介绍,该办法在制定过程中广泛吸纳了产学研各方意见,历经12轮修改完善。其核心突破在于将伦理审查嵌入技术创新全流程,既设置安全底线,又预留发展空间。随着文件正式实施,我国人工智能治理将从原则性指导转向精细化操作,为全球人工智能伦理建设提供中国方案。











