《大模型备案管理办法(2026版)》全面实施:762款大模型完成合规备案,分级评估机制压实主体责任
2026年初,国家互联网信息办公室联合工信部、公安部等部门正式修订发布《大模型备案管理办法(2026版)》,在延续2023年试行办法核心框架基础上,全面升级备案准入、动态监管与退出机制。新版办法最显著变化在于引入‘大模型服务分级评估’制度,依据模型能力强度、应用场景敏感度、用户覆盖广度三大维度,将面向公众提供服务的大模型划分为A(极高风险)、B(高风险)、C(中风险)、D(低风险)四级,并对应差异化监管要求。截至2026年3月21日,全国已有762款大模型完成全流程合规备案,覆盖金融、政务、教育、医疗等12个重点行业,较2025年底增长41.6%,违规运营行为同比下降78.3%,政策威慑力与执行效能同步显现。
分级评估机制并非简单标签化管理,而是嵌入全周期治理链条:A级模型须每季度提交第三方安全审计报告,接入国家AI内容安全监测平台实时回传生成日志;B级模型需配备专职内容安全官并建立双人复核机制;C级模型要求上线前通过国家人工智能评测中心‘可信生成’专项认证;D级模型虽豁免部分强制要求,但仍须在服务界面显著位置标注AI生成标识并提供人工申诉通道。这种‘精准滴灌式’监管,既避免‘一刀切’抑制创新活力,又确保高风险场景获得最强防护。
备案流程本身亦实现智能化升级:依托全国一体化政务服务平台,企业可通过‘AI备案通’系统在线提交模型架构图、训练数据清单、安全防护方案等27类材料,系统自动调用国家版权库、违法不良信息库进行交叉比对,并生成风险初筛报告。备案审核时限压缩至15个工作日,较旧版缩短60%。值得注意的是,办法首次明确‘备案非终身制’,对发生重大安全事件、连续两次评估不合格、擅自变更备案参数等情形,监管部门可启动紧急撤销程序。这标志着我国大模型监管正从‘准入把关’迈向‘持续尽责’新阶段,倒逼企业将合规内化为技术研发底层逻辑,而非应付检查的表面功夫。