在2025年国家网络安全宣传周主论坛期间,一项备受行业关注的重要成果正式亮相——《人工智能安全治理框架》2.0版于9月15日面向全球发布。这一版本由国家互联网应急中心牵头,联合国内多家权威科研机构、人工智能领域专业组织及头部企业共同研制,并获得国家网信办的专业指导,旨在为快速演进的人工智能技术构建更完善的安全治理体系。
自2024年9月《人工智能安全治理框架》1.0版推出以来,人工智能技术呈现爆发式发展,其应用场景从智能医疗到自动驾驶,从金融风控到教育创新,不断突破传统边界。然而,技术迭代带来的数据隐私泄露、算法歧视、模型滥用等风险也日益凸显。为此,2.0版框架在继承1.0版核心原则的基础上,深度融合了近一年来技术发展的新特征与行业实践的新经验,重点优化了风险分类体系,并首次提出风险分级管理机制,通过动态评估技术影响,实现治理措施的精准适配。
据国家互联网应急中心负责人介绍,2.0版框架的制定充分体现了“技术驱动治理,治理反哺技术”的理念。一方面,框架紧跟全球人工智能技术前沿,将生成式人工智能、多模态大模型等新兴领域的安全需求纳入治理范畴;另一方面,通过建立跨国界、跨领域、跨行业的协同治理机制,推动形成全球共识的安全标准。例如,框架明确提出要构建“技术-伦理-法律”三位一体的治理框架,确保人工智能发展既符合技术创新规律,又坚守人类价值观底线。
值得注意的是,2.0版框架特别强调了“普惠共享”的治理目标。通过建立开放透明的风险评估平台,框架鼓励各国科研机构和企业共享安全治理经验,推动技术成果的全球流动。同时,框架还设计了多边合作机制,支持发展中国家提升人工智能安全能力,避免因技术鸿沟导致治理失衡。这一设计得到了国际社会的广泛认可,被视为推动全球人工智能治理体系变革的重要尝试。
目前,该框架的完整内容已通过国家网信办官方渠道对外发布,涵盖风险识别、评估、处置的全流程指南,以及针对不同应用场景的差异化治理方案。业内专家指出,2.0版框架的推出标志着我国在人工智能安全治理领域从“跟跑”到“并跑”乃至“领跑”的转变,其系统性和前瞻性为全球提供了可借鉴的“中国方案”。随着框架的逐步落地,预计将有效降低人工智能技术滥用风险,为构建安全、可信、可控的人工智能生态奠定坚实基础。