中国新版《网络安全法》正式施行:AI安全首次入法,构建‘要素—规则—机制—目标’四维治理框架

2026-04-02 20:00 👁 阅读

2026年1月1日,《中华人民共和国网络安全法》(2025年修订版)正式施行,其中第二十条首次以国家法律形式专设‘人工智能安全与发展’条款,标志着我国AI治理体系从政策引导迈向法治化新阶段。该条款虽仅百余字,却系统确立了‘支持基础理论研究和算法等关键技术研发→推进训练数据资源、算力等基础设施建设→完善人工智能伦理规范→加强风险监测评估和安全监管→促进人工智能应用和健康发展’的五步闭环逻辑,被学界称为‘AI治理四维坐标系’。这一立法设计并非孤立条款,而是与《数据安全法》《个人信息保护法》及正在制定的《人工智能基础条例》形成纵向衔接,构成我国AI法治体系的‘顶层锚点’。

修订内容凸显‘发展与安全并重’的鲜明导向。一方面,法律明确国家支持AI基础理论、核心算法、大模型架构等源头创新,并将训练数据集建设、智算中心布局、高质量语料库开发纳入新型基础设施范畴予以保障;另一方面,首次以法律形式要求‘完善人工智能伦理规范’,授权国家网信部门会同科技部、工信部制定AI伦理审查指南,并对金融、医疗、司法等重点行业建立强制性伦理影响评估机制。尤为关键的是,‘加强风险监测评估和安全监管’被提升至法律责任高度——新法增设AI系统安全事件强制报告义务,规定发生导致人身损害、重大财产损失或公共秩序紊乱的AI异常行为后,开发者、部署者须在24小时内向属地网信部门提交初步分析报告。

该条款的深层价值在于其制度稳定性与延展性。不同于专项立法易随技术迭代而滞后,本条款以‘要素(算法、算力、数据)—规则(伦理)—机制(监测评估/监管)—目标(应用/健康发展)’的结构化表述,为后续部门规章、国家标准、行业评测提供统一解释基准。例如,2026年3月实施的《大模型备案管理办法(2026版)》即严格遵循此框架,将‘训练数据来源合法性’‘算力使用能效比’‘模型幻觉率阈值’等量化指标嵌入备案审核流程。截至2026年3月底,全国已完成合规备案的大模型达762款,违规运营行为同比下降68%,印证了法律框架对产业健康发展的牵引作用。