《网络安全法》AI专条正式施行:我国AI治理迈入法治化新阶段
2026年1月1日,新修订的《中华人民共和国网络安全法》正式施行,首次以法律条文形式将人工智能安全与发展纳入国家网络空间治理体系。此次修订在第二十条新增‘人工智能安全与发展’专门条款,标志着我国AI治理从政策引导、部门规章阶段正式跃升至基础性法律规制层面。该条款虽仅百余字,却系统构建了‘支持创新—夯实基础—规范伦理—防控风险—促进应用’五维协同的治理逻辑框架,成为统筹发展与安全的纲领性依据。值得注意的是,这是我国首部将AI明确写入法律名称并设专条规范的上位法,其战略意义远超技术监管本身,实质是为新质生产力提供法治底座和制度确定性。
条款内容明确指出:‘国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。’这一表述并非简单罗列工作方向,而是以要素(算法、算力、数据)、规则(伦理)、机制(监测评估/监管)、目标(应用/健康)构成闭环治理坐标系,为后续《人工智能法》立法、行业标准制定、地方实施细则出台预留了充分接口与执行空间。例如,‘加强风险监测评估’已推动国家网信办联合工信部于2026年2月上线全国AI安全风险动态评估平台,首批接入748款备案大模型实时运行指标。
该条款实施已产生显著制度效应。一方面,倒逼企业重构合规体系——截至2026年3月20日,全国完成算法备案的AIGC产品达762款,较2025年底增长68.2%;另一方面,加速催生新型服务业态,如第三方AI安全审计、生成内容水印认证、模型生命周期管理SaaS等专业服务机构数量同比增长210%。更深远的影响在于,它确立了‘发展即治理、治理促发展’的辩证逻辑,有效缓解了产业界对‘一管就死、一放就乱’的顾虑。正如中国信息通信研究院政策研究所所长指出:‘这不是给AI戴枷锁,而是为其装上导航仪和安全气囊,让技术创新在可预期、可追溯、可问责的轨道上高速前行。’