我国新版《网络安全法》正式施行:第二十条首设AI专条,确立‘发展—伦理—监管—应用’四维框架
2026年1月1日,《中华人民共和国网络安全法》(2025年修订版)正式施行。此次修法最大亮点在于第二十条新增‘人工智能安全与发展’专门条款,系我国首次在基础性法律中系统嵌入AI治理要求,标志着AI监管正式纳入国家网络空间法治主干体系。该条款全文为:‘国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。’短短百余字,凝练构建起‘供给侧能力建设→规则侧边界设定→风险侧闭环治理→应用侧扩散落地’的四段式制度逻辑,为后续部门规章、标准体系与执法实践提供了稳定坐标系。
该条款并非孤立存在,而是与《数据安全法》《个人信息保护法》及正在制定的《人工智能法(草案)》形成协同治理矩阵。其中,‘支持基础理论研究和关键技术研发’直指当前国产大模型在数学推理、代码生成等前沿能力上的短板;‘推进训练数据资源、算力等基础设施建设’则呼应国家‘东数西算’工程与公共数据授权运营试点,旨在夯实算法、算力、数据‘AI铁三角’底座;而‘完善伦理规范’与‘加强风险监测评估和安全监管’两大要求,则为网信、工信、市场监管等部门出台《大模型备案管理办法(2026版)》《AIGC数据安全管理暂行规定》等细则提供了上位法依据。
实践层面,该条款已产生显著政策牵引效应。截至2026年3月底,全国已完成合规备案的大模型达762款,违规运营行为同比下降63%;AIGC生成内容版权登记量突破3200件,AI生成物确权机制初具雏形;多地网信部门依据新法对擅自调用非必要存储权限的AI头像生成App开出首张罚单。专家指出,这一‘发展与治理并举’的立法范式,既避免了‘一刀切’式监管抑制创新,又防止了‘先发展、后治理’带来的系统性风险,体现了中国式AI治理的制度韧性与战略定力。未来,围绕该条款的司法解释、合规指引与地方实施细则,将成为观察我国AI法治化进程的关键窗口。