《智能体规范应用与创新发展实施意见》配套细则落地:国家网信办等五部门联合发布《生成式人工智能服务安全评估指南(试行)》
2026年5月10日20时,国家互联网信息办公室联合工业和信息化部、公安部、国家市场监督管理总局、国家广播电视总局正式印发《生成式人工智能服务安全评估指南(试行)》(以下简称《指南》),作为《智能体规范应用与创新发展实施意见》首个强制性配套技术标准,自2026年6月1日起施行,过渡期仅22天。该《指南》首次明确将AI智能体在政务、金融、医疗、教育等12类高风险场景中的实时交互行为纳入动态安全评估范畴,突破以往以模型备案和内容过滤为主的静态监管范式。
《指南》要求所有面向公众提供生成式服务的智能体运营者,须每季度提交覆盖‘输入扰动测试—响应一致性校验—多模态幻觉识别—跨会话记忆合规性’四大维度的安全自评报告,并接入国家级AI安全监测平台实现API级行为留痕。尤为关键的是,文件首次定义‘智能体人格化越界行为’——即当AI系统在无明确用户指令前提下主动构建身份叙事、虚构组织隶属关系或模拟人类情感依附时,须触发三级人工复核机制。业内专家指出,此举直指当前大模型Agent商业化中普遍存在的‘拟人营销滥用’灰色地带。
据参与起草的中国信通院专家透露,本次《指南》特别强化对边缘侧轻量化智能体的监管穿透力,明确要求终端设备内置AI助手若具备自主联网检索、跨应用数据调用能力,必须通过嵌入式安全沙箱认证。这意味着搭载国产大模型的智能手机、车载OS及工业PLC控制器等设备厂商,将在6月起面临新增合规成本。头部AI芯片企业已启动SDK级适配开发,预计相关安全模块IP授权费用将拉升BOM成本3.2%-5.7%。
行业影响层面,《指南》同步公布首批17家获准开展第三方安全评估的机构名单,其中6家为新设立的混合所有制实体,由地方政府联合央企基金控股,打破此前第三方测评长期由少数民营机构主导的格局。多位券商TMT分析师研判,该安排将加速AI治理基础设施的区域化布局,长三角、成渝、粤港澳大湾区或将形成三大评估服务集群。更深远的影响在于,文件将‘安全评估通过率’与地方新型工业化专项资金拨付挂钩,倒逼地方政府建立AI产业全链条合规辅导体系。
展望未来,网信办在政策吹风会上明确,下一阶段将聚焦‘智能体自主进化行为监管’这一全球前沿难题,计划于2026年Q3启动‘AI自我迭代审计框架’预研。与此同时,《指南》预留了动态更新条款——当单月监测到某类智能体在特定场景下幻觉率连续三周超阈值15%,监管部门有权启动48小时紧急规则修订程序。这标志着我国AI治理体系正从‘事件响应型’加速转向‘风险预判型’,为全球AI治理提供具有实操价值的‘中国方案’。