2026年,我国进一步强化高风险领域AI监管,明确金融、医疗、政务等重点领域的AI应用需实施准入评估制度,对高风险场景实行从严管控,防范AI技术应用对公共利益、人身安全、金融安全造成的风险,推动高风险领域AI应用合规发展。

金融、医疗、政务等领域与公众利益、公共安全密切相关,其AI应用属于高风险范畴,一旦出现违规应用,可能引发严重后果。为此,国家相关部门明确,凡是在上述领域部署的AI系统,必须先通过准入评估,未通过评估的不得投入使用。准入评估重点围绕AI系统的安全性、合规性、可靠性、伦理规范性等核心指标开展,包括算法安全、数据合规、风险防控措施、应急处置能力等内容。

具体来看,金融领域AI准入评估重点关注算法公平性、风险控制能力,防范AI算法导致的金融风险;医疗领域重点评估AI诊断、治疗建议的准确性、安全性,保障患者人身健康;政务领域重点审核AI系统的信息安全、数据保护能力,防范个人信息泄露与权力滥用。同时,监管部门建立动态监管机制,对已通过准入评估的AI系统,开展常态化抽查,对出现违规行为的企业,依法撤销准入资格,予以处罚。业内专家表示,准入评估制度的实施,将为高风险领域AI应用划定安全底线,推动企业强化合规意识,保障公众权益与公共安全。