我国新修订《网络安全法》正式施行:AI首次入法确立‘发展—治理’双轨框架

2026-04-01 19:52 👁 阅读

2026年1月1日起,新修订的《中华人民共和国网络安全法》正式施行。这是该法实施八年来首次迎来系统性大修,最大亮点在于第二十条首次以法律条文形式将人工智能纳入国家网络空间治理体系,实现AI治理从政策倡导迈向法治化轨道。该条款明确表述:‘国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。’短短百余字,构建起‘供给侧能力建设→规则侧边界设定→风险侧闭环治理→应用侧扩散落地’的四维逻辑闭环,被学界称为中国AI治理的‘宪法性条款’。

此次修法并非孤立动作,而是与《生成式人工智能服务管理暂行办法》《大模型备案管理办法(2026版)》《AIGC数据安全管理暂行规定》等形成‘法律—规章—标准’三级协同体系。尤其值得关注的是,新法将‘运用人工智能提升网络安全保护水平’写入义务性条款,首次赋予AI技术以‘守门人’角色;同时严控非必要权限索取行为,例如用户使用AI头像生成功能时调用通讯录或位置信息,即被认定为超出‘最小必要范围’,网信部门可依法警告、罚款。某通信运营商因所投关键设备未通过国家强制安全认证而致中标无效,凸显新法对‘全链条合规’的刚性要求。

从治理效能看,该条款释放出清晰信号:中国AI监管绝非压制创新,而是以法治稳定预期、以规则降低不确定性。‘支持研发’与‘加强监管’并列出现,体现‘发展是硬道理、安全是硬底线’的辩证统一。未来,算法备案、数据溯源、模型可解释性、深度伪造标识等具体义务,将依托本条授权持续细化。对企业而言,合规不再是成本负担,而是获取市场准入、参与政府采购、吸引国际投资的核心资质。法学界普遍认为,这一立法路径避免了欧盟‘高墙式’规制可能带来的创新抑制,为全球AI法治提供了兼顾效率与审慎的东方方案。