2026年1月1日,修订后的《中华人民共和国网络安全法》正式施行,其中第二十条首次以法律条文形式将人工智能纳入国家基础性法律体系,标志着我国AI治理从政策引导迈向法治化新阶段。该条款明确指出:'国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。'这一表述虽仅百余字,却构建起“供给侧支撑—规则侧约束—风险侧闭环—应用侧落地”的四维治理逻辑框架,成为后续部门规章、标准制定与执法裁量的顶层坐标系。值得注意的是,此次修法并非孤立动作,而是与《数据安全法》《个人信息保护法》形成协同联动,共同织密AI时代数字空间的法治之网。

从立法动因看,本次修改直面全球AI加速演进带来的新型风险:深度伪造滥用、模型偏见引发社会不公、关键基础设施遭AI驱动攻击等现实挑战日益凸显。2025年10月28日,十四届全国人大常委会第十八次会议高票通过修改决定,反映出立法机关对AI技术双刃剑属性的深刻认知——既不能因噎废食抑制创新,也不能放任自流忽视底线。尤其在大模型训练数据权属不清、生成内容责任难溯、智能体行为不可控等前沿议题上,新法为监管部门预留了制度接口,允许通过配套规章细化风险分级分类管理机制。

影响层面,该条款已迅速传导至产业实践。工信、网信等部门正加快制定《生成式人工智能服务安全管理办法实施细则》《AI系统安全评估指南》等配套文件;头部云厂商已启动智算中心合规升级,强化训练数据溯源审计能力;多家AIGC平台于2026年2月上线'AI内容水印+人工复核'双机制。更深远的意义在于,它确立了中国AI治理的范式特征——区别于欧盟《人工智能法》的强规制路径与美国的碎片化监管,我国选择以基础性法律锚定发展与安全的动态平衡点,既保障国家战略科技力量建设,又为中小企业创新留出试错空间。随着'十五五'规划全面铺开,该条款将成为检验各地AI产业生态健康度的核心法治标尺。