中国工信部发布《人工智能大模型备案新规》,明确动态评估与退出机制
背景:随着国内大模型备案数量突破287款,原有静态审核制难以应对模型快速迭代带来的安全风险。2024年10月,工信部联合网信办、公安部印发《生成式人工智能服务大模型备案与动态监管实施细则(试行)》,首次将“全生命周期治理”理念纳入国家级AI治理体系。
动态:新规要求已备案模型每季度提交安全自评报告,涵盖偏见检测、幻觉率统计、训练数据溯源更新及对抗攻击鲁棒性测试结果;对金融、医疗、司法等高风险领域应用模型,须每半年接受第三方穿透式审计。尤为关键的是设立“熔断条款”:若单次审计发现3项以上高危漏洞,或连续两期幻觉率超阈值(通用模型>8.5%,垂类模型>5.2%),将暂停备案资格并启动整改。首批12家企业的23款模型已于10月15日完成首轮动态评估。
影响:政策显著抬高合规运营成本,中小厂商需配置专职AI治理岗并采购合规审计工具链,头部企业则加速构建内部红蓝对抗实验室。值得注意的是,新规明确允许“备案模型+插件生态”模式,即基础模型备案后,第三方开发的安全可控插件可快速接入,此举意在平衡创新效率与风险管控。已有17个省级政务AI平台按新规完成适配升级。
展望:细则预留了与国际监管协同接口,明确提出将参考NIST AI RMF框架优化评估指标。2025年起,备案系统将接入国家AI安全监测平台,实现异常行为实时预警。业内预测,未来两年备案模型数量增速将放缓至年均15%,但平均技术成熟度(TAM)指数预计提升32%,政策正推动行业从“跑马圈地”转向“精耕细作”。