工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》

2026-04-07 09:20 👁 阅读

2026年4月3日,工业和信息化部、中央网信办、科技部、国家卫生健康委等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,这是我国首部覆盖全链条、全场景、全主体的人工智能科技伦理专项规章,自2026年5月1日起施行。《办法》以‘人类福祉优先、公平公正为基、可控可信为要’为三大原则,系统构建了涵盖研发、训练、部署、应用、退役全生命周期的伦理风险评估框架,并首次明确将‘训练数据选择标准合理性’‘算法偏见检测覆盖率’‘决策可解释性阈值’等量化指标纳入强制审查清单。尤为关键的是,《办法》创新设立‘伦理影响分级分类制度’,依据AI系统对人身安全、社会秩序、经济公平等维度的潜在影响程度,划分为I—IV级,其中涉及公共决策、司法辅助、就业筛选等高风险场景的IV级系统须通过国家级伦理审查中心认证方可上线。

《办法》对当前火热的生成式AI应用提出刚性约束:要求所有面向公众提供文本、图像、音视频生成服务的平台,必须在用户界面显著位置标注‘AI生成内容’标识,并提供一键溯源功能,确保每条输出可追溯至具体模型版本、训练数据集片段及推理参数配置。针对近期频发的‘AI换脸诈骗’‘声纹克隆勒索’等乱象,《办法》明确规定,使用自然人生物特征信息构建数字人模型,须获得本人单独、明示、书面授权,且授权撤回后,服务方须在24小时内完成数据删除与虚拟身份注销,并接受区块链存证审计。

该《办法》的出台,标志着我国AI治理体系从‘原则倡导’迈入‘技术可验证、过程可审计、责任可追溯’的新阶段。国际AI治理联盟(IAIGA)评价称,其‘风险分级+技术嵌入+责任闭环’模式为全球提供了兼具前瞻性与操作性的中国方案。短期看,将加速倒逼企业建设伦理治理中台,催生AI合规咨询、偏见检测SaaS、可解释性增强工具等百亿级新赛道;长期而言,有望推动形成‘伦理竞争力’——即在同等技术性能下,伦理合规水平更高者将获得政府采购、跨境数据流动、保险费率优惠等实质性政策红利,真正实现科技向善的价值转化。