《人工智能科技伦理审查与服务办法(试行)》出台:中国AI治理迈入制度化、可操作新阶段

2026-04-29 10:10 👁 阅读

2026年4月2日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,这是中国首部系统性、操作性强的人工智能科技伦理专项规章,标志着我国AI治理从宏观原则倡导正式迈入制度化、规范化、可落地的新阶段。《办法》明确将‘人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护’六大核心原则具象化为32项审查要点,并首次定义‘高风险AI科技活动’范畴,涵盖自动驾驶决策系统、金融信贷评分模型、司法辅助裁判工具、医疗影像诊断AI等11类应用场景,要求相关主体必须开展强制性伦理审查并备案。

《办法》创新性构建了‘五级审查程序’体系:针对常规项目适用‘一般程序’(含专家评审、公众意见征询);对教育、养老等民生领域应用开通‘简易程序’(时限压缩至15个工作日);对突发公共卫生事件中紧急部署的AI系统设立‘应急程序’(72小时内完成快速评估);同时引入‘专家复核机制’,允许申请人对初审结论提出异议并申请跨学科专家组二次裁决。尤为关键的是,《办法》要求所有审查过程须通过国家AI伦理审查云平台留痕,审查报告须向监管部门实时上传,并向社会公示摘要版,确保全流程可审计、可回溯。

政策落地已有实质进展。截至4月25日,全国已成立47个省级AI伦理审查服务中心,培训持证审查员超2800名;首批127家AI企业完成伦理合规自评,其中科大讯飞、百度、商汤等头部企业已上线‘算法影响说明书’功能,向用户清晰披露模型用途、数据来源、潜在偏差及申诉渠道。清华大学苏世民书院AI治理研究中心指出,《办法》的最大价值在于将抽象伦理转化为具体技术动作——例如要求推荐算法必须提供‘非个性化选项开关’,招聘AI必须内置‘性别/年龄去偏见校验模块’,这为全球AI治理提供了兼具刚性约束与技术可行性的‘中国方案’。