工信部等十部门近日联合发布《人工智能科技伦理审查与服务办法(试行)》,标志着我国在人工智能领域构建起覆盖研发、应用全链条的伦理治理框架。该文件首次系统提出人工智能科技伦理原则,要求将伦理审查嵌入技术活动各环节,为技术向善发展提供制度保障。
随着生成式人工智能、脑机接口等前沿技术加速突破,算法歧视、数据滥用、深度伪造等伦理风险日益凸显。某搜索引擎输入"情绪操控"关键词,可检索到大量未经科学验证的"技术指南",部分人机融合技术甚至触及生命健康底线。这些现象反映出,部分研发活动偏离了"科技服务人类"的本质要求,亟需建立伦理约束机制。
《办法》确立了八项核心伦理原则,包括尊重生命权利、保障公平公正、强化责任担当等。针对不同风险等级的科技活动,文件设计了差异化审查程序:常规项目由研发单位自行组织审查,高风险项目则需经国家指定的专家委员会复核。这种分级管理机制既保证了审查效率,又实现了重点领域精准管控。
在审查重点领域方面,文件明确三类技术需接受严格复核。首先是直接影响人类认知与行为的人机融合系统,如脑机接口、神经调控等技术。专家指出,这类技术若缺乏伦理约束,可能导致人类自主性丧失、人格异化等严重后果。某医疗研究机构曾尝试用脑机接口治疗抑郁症,但因未充分考虑伦理风险被紧急叫停。
第二类需重点审查的是具有舆论引导能力的算法模型。当前,部分社交平台利用算法推荐制造信息茧房,甚至出现"算法水军"操纵公共舆论的现象。某深度合成技术曾被用于伪造名人言论,引发社会信任危机。文件要求此类技术研发必须通过伦理复核,从源头防范"算法权力"滥用。
高度自主决策系统的审查被列为第三大重点。在交通、医疗等涉及公共安全的领域,算法错误可能导致灾难性后果。某自动驾驶汽车测试中曾因算法偏见未能识别特定人群,暴露出自主系统存在的伦理缺陷。文件明确要求这类系统必须经过千百次验证才能投入实际应用。
据参与文件起草的专家介绍,此次建立的伦理审查制度具有三大创新:首次将伦理要求贯穿技术全生命周期,首次明确高风险技术清单,首次构建多方参与的审查机制。某人工智能企业负责人表示,伦理审查虽然增加了研发成本,但有助于提升公众对技术的信任度,从长远看利于行业健康发展。
随着全球人工智能竞争加剧,伦理治理已成为技术发展的关键变量。我国此次出台的专项审查制度,不仅填补了制度空白,更为国际社会提供了中国方案。文件明确,违反伦理规范的项目将面临取消资助、限制应用等处罚措施,这标志着我国人工智能治理正从被动应对转向主动引领。











