中国《网络安全法》修订施行:第二十条首设AI专条,构建发展与安全并重法治框架

2026-04-02 20:00 👁 阅读

2026年1月1日,《中华人民共和国网络安全法》修订版正式施行,其中第二十条新增‘人工智能安全与发展’专门条款,系我国首次在基础性法律中系统确立AI治理的基本原则与制度坐标。该条款全文为:‘国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。’短短百余字,精准勾勒出‘要素支撑—规则引导—风险闭环—目标导向’四维协同的治理逻辑,标志着我国AI治理从分散式部门规章迈向顶层设计统领的新阶段。此次修法并非孤立事件,而是与《数据安全法》《个人信息保护法》及正在制定的《人工智能法》草案形成制度衔接,共同构筑‘1+N’人工智能法治体系。

新条款的深层价值在于锚定制度稳定性。它未就具体技术细节作出限定,而是以‘算法、算力、数据’为供给侧铁三角,以‘伦理规范’为价值边界,以‘风险监测评估+安全监管’为执行抓手,以‘应用与健康发展’为最终落点。这种框架性表述,既为后续《大模型备案管理办法(2026版)》《AIGC数据安全管理暂行规定》等下位法留足空间,又为企业研发、投资与合规决策提供了长期稳定的政策预期。例如,‘支持训练数据资源建设’直接呼应当前行业对高质量中文语料库、多模态标注数据集的迫切需求;‘加强风险监测评估’则为网信部门建立国家级AI安全风险图谱、开展模型黑箱测试与幻觉率抽检提供了上位法依据。

实践层面,该条款已迅速转化为监管动能。自2026年1月起,中央网信办联合工信部、国家数据局启动‘AI安全护航专项行动’,重点整治三类问题:一是大模型服务未履行备案义务即上线运营;二是AI头像生成、语音克隆等应用违规调用非必要权限采集生物信息;三是未按要求对AI生成内容进行显著标识导致误导传播。截至3月底,全国共约谈企业217家,责令整改139例,开出罚单42笔,其中最高单笔罚款达2800万元。业内专家指出,这一轮执法并非‘运动式’整顿,而是以第二十条为标尺,推动企业将安全内嵌于产品设计、模型迭代与服务交付全流程,真正实现‘发展要安全、安全促发展’的辩证统一。