我国《网络安全法》正式纳入AI专条:首次以法律形式确立‘发展与安全并重’治理范式
2026年1月1日,新修订的《中华人民共和国网络安全法》正式施行,其中第二十条首次以法律条文形式将人工智能纳入国家网络空间治理体系,标志着我国AI治理从政策引导迈向法治化轨道。该条款明确规定:‘国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。’短短百余字,构建起‘供给侧能力建设—规则侧边界设定—风险侧闭环治理—应用侧扩散落地’四维协同的制度框架,是我国AI治理顶层设计的重大突破。
相较于欧盟《人工智能法案》的强规制路径,我国选择将AI嵌入既有网络安全法律体系,体现‘统筹发展与安全’的基本立场。条文前半段聚焦正向激励:通过支持基础研究、数据与算力基建,夯实AI‘铁三角’要素供给;后半段转向刚性约束:要求完善伦理规范以锚定价值底线,强化风险监测评估以实现动态预警,落实安全监管以压实主体责任。尤为关键的是,该条款同步明确‘国家支持运用人工智能提升网络安全保护水平’,赋予AI双重角色——既是治理对象,也是治理工具,形成‘以智治智’的闭环逻辑。
实践层面,该条款已迅速触发系列配套制度落地。截至2026年3月,全国已有762款大模型完成《大模型备案管理办法(2026版)》合规备案,违规运营企业被责令下架率达100%;《AIGC数据安全管理暂行规定》实施后,首批3200余起AI生成内容版权登记案例完成确权;网信部门依据新法对8家App强制索要非必要权限行为开出罚单,其中3起涉及AI头像生成功能滥用用户生物信息。法学界普遍认为,该条款虽未设立独立AI法,却以‘嵌入式立法’方式实现了制度稳定性与技术适应性的统一,为后续出台《人工智能基本法》预留了充分接口与实践验证空间。