近年来,我国持续强化AI监管体系建设,2026年以来,国家相关部门密集出台政策,推进AI全生命周期监管,明确算法备案与安全评估成为AI应用的“标配”,推动AI监管从“事后处置”向“事前预防、事中管控、事后追责”全链条延伸。

所谓AI全生命周期监管,涵盖AI研发、训练、部署、应用、退役等各个环节,核心是通过建立全流程监管机制,防范技术应用过程中的各类风险。其中,算法备案与安全评估是关键环节:对于涉及公共利益、人身安全的AI应用,企业需在部署前完成算法备案,向监管部门提交算法原理、应用场景、风险防控措施等相关材料;同时,必须通过第三方机构的安全评估,确保算法安全、合规、可控。

国家网信办、工信部等部门联合明确,自2026年起,凡是涉及高风险场景的AI系统,未完成算法备案与安全评估的,一律不得上线运行;对已上线的AI系统,将开展常态化抽查,对未合规的企业责令限期整改,情节严重的依法予以处罚。此外,监管部门还建立了AI应用风险监测平台,实时跟踪AI系统运行状态,及时发现并处置算法偏见、数据泄露、恶意滥用等问题。业内人士表示,全生命周期监管机制的建立,将推动AI企业强化合规意识,规范技术应用,同时为监管部门提供精准监管手段,实现AI产业发展与风险防控的良性互动。