为促进人工智能技术有序发展,防范潜在伦理风险,工业和信息化部联合九个部门近日联合发布《人工智能科技伦理审查与服务办法(试行)》。该文件明确要求构建覆盖全生命周期的伦理标准体系,鼓励通过技术创新提升审查能力,同时强调运用技术手段筑牢风险防控屏障。
新规将审查重点聚焦于六大核心维度:是否以增进人类福祉为根本目标、是否保障技术应用的公平性、是否确保系统可控可信赖、是否保持算法透明可解释、是否建立责任追溯机制、是否落实隐私数据保护措施。具体审查内容包括技术成果的社会价值评估、训练数据采集标准审查、算法模型设计合理性验证等关键环节。
针对公众普遍关注的算法黑箱问题,办法特别规定开发者需完整披露技术用途和运行逻辑,禁止使用存在歧视性偏见的训练数据。在隐私保护方面,要求建立数据全生命周期管理制度,确保个人生物特征、行为轨迹等敏感信息得到加密存储和授权使用。该文件自发布之日起正式施行,标志着我国人工智能治理体系迈入规范化新阶段。










