2025年9月15日,2025年国家网络安全宣传周主论坛在云南昆明举办期间,《人工智能安全治理框架》2.0版(以下简称《框架》2.0版)正式发布。该框架由国家互联网应急中心牵头,联合人工智能专业机构、科研院所及行业企业共同制定,在2024年发布的1.0版基础上,结合人工智能技术迭代与应用实践,系统性优化了风险分类与治理措施,标志着我国人工智能安全治理进入动态化、精细化新阶段。
《框架》2.0版延续了1.0版"以人为本、智能向善"的核心原则,重点针对生成式人工智能、多模态模型等新技术带来的伦理风险、数据安全威胁及算法偏见等问题,新增了动态风险分级机制。通过建立"技术-应用-产业"全链条风险图谱,将风险等级细分为基础级、关注级和管控级,实现从被动响应到主动防控的转变。例如,针对深度伪造技术滥用问题,框架明确要求建立内容溯源标识体系,并在金融、政务等高风险领域强制实施生成内容合规性验证。
作为全国网络安全标准化技术委员会技术文件,《框架》2.0版创新性提出"三同步"治理路径:技术研发阶段嵌入安全评估模块,产品部署前完成伦理合规审查,运行过程中建立持续监测机制。国家互联网应急中心负责人指出,该框架已在国内20家头部AI企业试点应用,成功将算法偏见率降低37%,数据泄露风险下降52%,为构建安全可信的人工智能生态提供了可复制的解决方案。
在国际协作层面,《框架》2.0版深度对接《全球人工智能治理倡议》,首次将跨境数据流动安全、AI军事化应用限制等议题纳入治理范畴。通过建立跨国界技术标准互认机制,推动形成"技术研发在中国、治理规则全球共享"的新模式。目前,该框架已与欧盟《人工智能法案》、美国NIST AI风险管理框架达成初步互认,为全球人工智能治理贡献中国方案。
随着《框架》2.0版落地,我国计划于2026年启动首批人工智能安全认证工作,重点覆盖自动驾驶、医疗诊断等12个关键领域。首批参与试点的30家企业需在2025年底前完成治理体系改造,通过动态评估获取"AI安全能力星级认证"。行业专家表示,这一举措将加速淘汰落后产能,推动人工智能产业从规模扩张转向高质量发展。