中国《网络安全法》正式纳入AI专条:首次以法律形式确立‘发展—伦理—监管—应用’四维治理框架
自2026年1月1日起施行的新修订《中华人民共和国网络安全法》,历史性地在第二十条增设‘人工智能安全与发展’专门条款,实现AI治理从政策引导迈向法治化轨道。这是我国首部在基础性法律中系统嵌入AI治理要求的立法实践,虽未单独立法,却以高度凝练的38字表述构建起‘供给侧能力建设→规则侧边界设定→风险侧闭环治理→应用侧扩散落地’的四段式制度坐标系,为后续部门规章、国家标准与地方条例提供顶层锚点。该条款明确‘国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展’,其内在逻辑突破了传统‘先发展后治理’路径,强调创新要素供给与风险防控机制同步演进。
立法背景源于近年来AI深度伪造谣言泛滥、算法歧视引发公共服务争议、大模型幻觉导致医疗误诊等现实挑战。典型案例包括2025年底‘珠峰装电梯’‘长城贴瓷砖’等AI生成虚假图文视频事件,虽内容荒诞却因传播力强迫使十余个省级网信部门联合辟谣。新法据此强化责任穿透机制:不仅要求服务提供者履行内容标识义务(如对AIGC生成物添加不可移除数字水印),更将监管触角延伸至训练数据源头——明确禁止使用未经脱敏的个人生物信息、医疗记录及商业秘密数据开展模型训练,并授权网信部门对违规企业实施‘熔断式处罚’(暂停备案资格最长180日)。
影响层面呈现双向张力:一方面,合规成本显著上升倒逼产业洗牌,截至2026年3月,国内完成备案的大模型数量达762款,但违规运营企业查处率同比提升217%;另一方面,制度确定性增强激发长期投资信心,华为昇腾生态、寒武纪思元芯片等国产算力链企业2026年Q1融资额同比增长340%。尤为关键的是,该条款预留‘运用AI提升网络安全保护水平’的赋能接口,已催生首批‘AI原生SOC’(安全运营中心)产品,实现威胁检测准确率提升至99.2%,响应时效压缩至87毫秒,印证了‘以AI治AI’的治理新范式可行性。