欧盟《人工智能法案》动态调整:聚焦AI智能体治理与中小企业豁免机制

2026-03-29 18:46 👁 阅读

2026年2月,欧盟理事会正式通过《人工智能法案》修订案,首次将‘AI智能体’(AI Agents)纳入高风险系统监管范畴,并针对中小企业(SMEs)增设差异化合规路径。此次调整是继2024年法案生效后最重要的结构性优化,旨在应对Agent技术爆发式演进带来的新型风险——如自主规划、跨平台协作、持续学习等能力已超出传统‘静态模型’监管框架。修订案明确,凡具备目标导向性行动、环境感知反馈、多步骤任务分解能力的AI系统,无论是否联网,均须接受‘高风险’全周期监管,包括强制性基本权利影响评估、实时操作日志留存、人类最终决策权保障等七项新增义务。值得注意的是,该调整并非简单加码,而是通过‘技术中立’原则重构监管逻辑:不再以技术路线(如LLM或Agent架构)划界,而是以实际社会影响为标尺,体现欧盟‘基于风险’治理哲学的成熟演进。

中小企业豁免机制是本次修订另一大亮点。新规创设‘SME合规加速通道’,允许员工少于250人、年营业额低于5000万欧元的企业,在满足三项前提下豁免部分义务:一是仅部署经欧盟AI办公室认证的‘可信组件’;二是不涉足招聘、信贷、司法等敏感领域;三是接入欧盟统一AI安全云平台实现自动合规审计。数据显示,该机制覆盖欧盟83%的AI初创企业,预计可降低其平均合规成本达67%。与此同时,法案强化了‘监管沙盒’扩容计划,新增12个成员国试点,允许企业在真实场景中测试未完全合规的AI智能体,前提是签署《社会影响共担协议》并购买专项责任保险。这种‘严格底线+弹性空间’的设计,既遏制系统性风险,又避免扼杀创新活力。

对中国企业而言,该修订带来双重启示:一方面,出口至欧盟的AI产品需重新评估Agent功能模块的合规等级,尤其关注多模态交互、自主决策等能力的披露完整性;另一方面,欧盟对中小企业的包容性设计,为中国《AIGC产业发展行动计划》中‘普惠性算力补贴’‘轻量化模型认证’等政策提供了国际参照。更深远的影响在于,此次修订推动G7人工智能治理工作组加快制定《AI智能体安全互操作指南》,预示着全球AI治理正从‘单边规制’迈向‘标准协同’新阶段,中国参与规则制定的话语权竞争已进入白热化。