2026年8月2日,欧盟《人工智能法案》(EU AI Act)将全面正式执行,这是全球首部综合性AI监管法案,明确了AI系统的分类监管规则,对高风险AI应用提出严格要求,全球相关企业进入合规倒计时,我国AI企业出海也面临新的合规挑战与机遇。

欧盟《AI法案》将AI系统分为禁止类、高风险类、一般风险类,实施分级分类监管:明确禁止使用具有社会危害性的AI系统,包括利用AI实施社会监控、操纵人体行为等;对高风险AI系统,包括医疗、教育、金融、自动驾驶、公共安全等领域的AI应用,提出严格的合规要求,包括进行事前风险评估、建立数据追溯体系、确保算法透明可解释、通过第三方认证等;对一般风险AI系统,仅要求企业履行透明度义务,做好风险提示。

该法案适用于所有在欧盟市场销售、部署或使用的AI系统,无论企业是否位于欧盟境内,均需遵守相关规定。对于违反法案的企业,欧盟将处以最高全球年营业额6%的罚款,情节严重的将禁止其进入欧盟市场。目前,欧盟已建立高风险AI系统数据库,要求企业提交相关信息备案。业内人士表示,欧盟《AI法案》的全面执行,将推动全球AI监管走向规范化,我国AI企业出海需提前做好合规准备,对照法案要求完善自身合规体系,同时也为我国AI监管提供了可借鉴的经验。