2026年1月20日,经全国人大常委会审议通过,新修订的《中华人民共和国网络安全法》正式发布,并于2026年3月1日起施行。此次修法是我国首次在基础性法律中系统嵌入人工智能治理条款,标志着AI监管从部门规章阶段正式跃升至国家法律体系核心层。新增条文明确指出:“国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。”这一表述虽仅百余字,却以要素—规则—机制—目标四维逻辑,构建起覆盖AI全生命周期的制度坐标系,为后续《人工智能法》专项立法预留了清晰接口与稳定框架。

此次修订并非孤立动作,而是与《数据安全法》《个人信息保护法》《生成式人工智能服务管理暂行办法》形成纵向协同、横向衔接的“法律群”。尤其值得注意的是,修订后的《网络安全法》将AI系统明确纳入‘关键信息基础设施运营者’的安全义务范畴,要求其对模型训练数据来源合法性、算法决策可解释性、生成内容标识完整性承担举证责任,实质上将AI研发部署全过程纳入网络安全审查范围。这意味着,企业若未完成算法备案、未通过生成式AI安全评估、未落实深度合成内容标识义务,将直接触发《网络安全法》第59条至第64条的法律责任链条。

影响层面,该修订正加速推动政企合规范式转型。据2026年1月15日网信办通报,全国已完成备案的大型预训练模型达492款,较2025年初增长217%;同期,超83%的央企已将AI安全评估嵌入研发流程SOP。更深远的是,法律首次将‘算力基础设施安全’列为独立监管对象,要求智算中心、云服务平台建立训练任务级日志审计与异常行为熔断机制。这不仅强化了技术底座的可控性,也为未来应对AI智能体自主攻击、提示词注入等新型威胁提供了法定响应依据。可以预见,2026年将成为我国AI治理从‘立规’迈向‘执规’的关键元年。