欧盟《人工智能法案》正式生效:全球首部全面AI监管框架进入实施阶段

2026-04-02 19:56 👁 阅读

2026年3月27日,欧盟《人工智能法案》(AI Act)在《欧盟官方公报》正式发布并宣告全面生效,标志着全球首个覆盖全技术生命周期、分层分类的人工智能综合性立法正式进入实施阶段。该法案历经三年多谈判与修订,于2024年12月获欧洲议会和理事会最终批准,2026年2月完成法律文本终校及翻译,3月起分阶段适用。根据法案过渡期安排,禁止性条款(如实时远程生物识别监控、社会评分系统等)即刻生效;高风险AI系统(涵盖关键基础设施、教育、就业、司法、移民管理等领域)须于2026年8月2日起履行合规评估、技术文档、人工监督及CE标志义务;通用AI模型提供者(尤其是基础模型与大型语言模型)则需在2026年11月前完成透明度报告、网络安全测试及系统性风险评估备案。

法案核心创新在于采用‘风险分级治理’范式,将AI系统划分为不可接受风险、高风险、有限风险与最小风险四类,并对应设定差异化义务。尤其值得关注的是,法案首次将‘生成式AI’纳入统一监管范畴,要求模型提供者披露训练数据版权合规性声明、标注AI生成内容、建立防止非法内容生成的防护机制,并对参数量超100亿的模型开展独立第三方安全审计。此外,法案设立欧盟人工智能办公室(AI Office),统筹协调成员国国家主管机构,统一解释技术标准、认证流程与执法尺度,避免监管碎片化。

该法案的落地将对全球AI产业生态产生深远影响。据欧盟委员会预估,首批受影响企业超1.2万家,其中约35%为非欧盟企业(含中美科技公司)。中国工信部已于2026年3月30日发布《关于加强生成式AI跨境服务合规指引》,明确要求境内主体使用境外大模型服务须通过安全评估并接受本地算法备案;美国NIST亦同步更新AI风险管理框架(AI RMF 1.1),强调与AI Act互操作性。专家指出,欧盟正以‘布鲁塞尔效应’推动全球AI治理标准趋同,但其严格合规成本或将加速AI创新资源向监管包容性更强的地区流动,倒逼各国加快构建兼顾安全与发展的地方性AI治理体系。