欧盟《人工智能法》首次修法启动:程序性减负与风险扩围同步推进
2026年3月,全球首部综合性人工智能立法——欧盟《人工智能法》(AI Act)正式进入首次修法程序,标志着该法从‘立法完成’阶段快速转入‘实施校准’阶段。自2024年8月1日生效以来,仅约1年8个月即启动修订,凸显其在落地实践中遭遇的结构性张力:一方面,高风险AI系统合规工具严重缺位;另一方面,以ChatGPT为代表的大模型迭代速度远超监管适配节奏。欧洲议会于3月26日以569票赞成通过《数字综合方案》‘一读立场’,欧盟理事会亦于3月13日确立谈判方针,三方谈判预计将在2026年8月前完成,以确保法案全面适用不被延迟。
此次修法并非简单放松监管,而是呈现‘双轨并行’特征:程序性层面大幅减负,例如简化高风险系统合规申报流程、延后部分透明度义务指南发布时间;实质性层面则局部扩围,重点强化对通用目的人工智能模型(GPAI)的动态评估机制,拟将模型能力突变触发再评估纳入强制义务,并新增对AI生成内容深度伪造溯源技术的披露要求。值得注意的是,原定2025年8月起施行的GPAI治理规则已出现执行滞后,欧盟委员会官网明确承认多项支持工具(如AI标记行为准则)仍处于编制阶段,预计2026年第二季度方能发布。
修法对全球AI企业影响深远。对于在欧运营的中国及美国AI公司而言,GPAI模型的‘嵌入式部署’合规成本显著上升——不仅需满足基础训练数据版权与偏见审查,还需建立模型能力漂移监测体系,并向欧盟AI办公室定期提交性能衰减报告。中小开发者面临更大压力:原法案豁免的开源模型若具备强迁移能力,可能被重新归类为受监管GPAI。而大型科技公司则加速构建本地化合规团队,Anthropic已在布鲁塞尔设立AI治理中心,谷歌正联合德国TÜV开展GPAI第三方验证试点。
展望未来,欧盟修法路径折射出全球AI治理的深层转向:从静态风险分类迈向动态能力治理。随着多模态大模型与AI智能体技术突破,单纯依赖应用场景划分风险等级已显乏力。欧盟此轮修法或催生‘能力阈值触发机制’——当模型在推理深度、自主规划或跨域协同等维度突破预设阈值时,自动激活更高阶监管义务。这一范式若获成功,或将重塑WTO数字贸易规则中关于AI服务的技术壁垒标准,推动全球AI治理从‘合规竞赛’升级为‘能力可信度竞赛’。