《网络安全法》AI专条正式施行:中国AI治理进入法治化新阶段

2026-03-25 21:06 👁 阅读

2026年1月1日起,新修订的《中华人民共和国网络安全法》正式施行,首次以法律条文形式将人工智能安全与发展纳入国家网络空间治理体系。此次修订在第二十条新增‘人工智能安全与发展’专门条款,标志着我国AI治理从政策引导、部门规章迈向基础性法律保障的新阶段。该条款明确‘国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展’,以四维逻辑——要素支撑、规则锚定、机制闭环、目标导向——构建起AI发展的制度坐标系。这是继2025年10月《网络安全法》修正案获全国人大常委会通过后,首次实现AI治理条款的落地执行,具有里程碑意义。

从立法逻辑看,该条款并非孤立存在,而是与《生成式人工智能服务管理暂行办法》《大模型备案管理办法(2026版)》及正在制定的《人工智能基本法》草案形成‘上位法统领+中层规章细化+底层标准支撑’的三层治理架构。尤其值得注意的是,新法将‘伦理规范’与‘风险监测评估’并列写入法律文本,突破了以往伦理仅作为软性倡议的局限,赋予其法定解释空间和执法依据。例如,在医疗AI辅助诊断、金融风控模型等高敏感场景中,监管机构可依法要求企业提供伦理影响评估报告,并纳入安全审查前置环节。

影响层面,该条款已迅速传导至产业实践。截至2026年3月20日,全国已有762款大模型完成合规备案,较2025年底增长41.3%;同时,因未落实AI生成内容标识、未开展年度安全评估等原因被约谈的企业达87家,其中12家被暂停服务。更深远的影响在于市场预期重塑——资本市场对具备‘合规能力认证’的AI企业估值溢价提升23%,而缺乏伦理治理框架的初创公司融资周期平均延长4.8个月。这表明,法治化不再是成本负担,正加速转化为核心竞争力与可持续发展动能。