新加坡发布《智能体人工智能治理示范框架》:全球首个聚焦AI Agent的国家级治理指南
2026年1月22日,新加坡在瑞士达沃斯世界经济论坛期间正式发布《智能体人工智能治理示范框架》(以下简称《框架》),成为全球首个系统性规制AI智能体(AI Agents)的国家级治理文件。该框架由新加坡个人数据保护委员会(PDPC)、资讯通信媒体发展局(IMDA)及人工智能署(AIA)联合制定,摒弃传统‘一刀切’监管思路,创新提出‘能力画像—场景适配—责任锚定’三维治理模型。其核心突破在于首次对AI智能体进行功能性定义:‘具备持续目标设定、环境感知、自主规划、多步执行及动态学习能力的软件实体’,并将治理焦点从‘模型本身’转向‘行为过程’,要求开发者对智能体在真实环境中的决策链路、资源调用权限、跨系统交互协议进行全息建模与风险预演。此举直击当前AI治理最大盲区——当智能体可自主调用API、修改数据库、发起交易时,如何界定开发者、部署者、使用者的法律责任边界。
《框架》最具实操价值的是其‘场景化责任矩阵’设计。针对政务、金融、医疗、教育四大高敏领域,分别设定差异化义务:政务智能体须通过‘公民影响压力测试’,确保政策建议不加剧社会分歧;金融智能体需满足‘资金流动零延迟审计’,所有交易指令须附带可验证的因果推理链;医疗智能体则强制要求‘双轨决策机制’,即AI建议必须同步生成人类医生可理解的循证依据摘要。尤为关键的是,框架明确‘开发者承担设计缺陷责任、部署者承担配置失当责任、使用者承担越权使用责任’的三分法,为司法实践提供清晰归责指引。目前,新加坡已与德国、日本签署谅解备忘录,推动该框架核心条款纳入双边数字贸易协定。
对中国AI产业界而言,《框架》具有重要镜鉴意义。一方面,其‘行为可溯、决策可释、责任可分’理念,与我国《网络安全法》第二十条‘加强风险监测评估’要求高度契合,为国内AI智能体安全标准制定提供技术参照;另一方面,框架中‘可信智能体认证’体系已向中国企业开放申请,首批获证的5家中国AI公司(含2家政务服务商、3家金融科技企业)均通过‘多模态意图识别准确率≥98.5%’‘跨平台指令冲突消解成功率≥99.1%’等严苛测试。这预示着,随着全球AI智能体治理标准加速融合,掌握‘可验证可信能力’将成为中国企业出海的新准入门槛,也倒逼国内加快构建覆盖Agent全生命周期的检测认证体系,抢占下一代AI治理规则制定的制高点。