工信部启动AI科技伦理审查先导计划:全国首批伦理委员会将在四大先导区落地

2026-05-11 13:42 👁 30838

2026年5月10日,工业和信息化部正式印发《人工智能科技伦理审查与服务先导计划实施方案》,标志着我国首个国家级AI科技伦理常态化审查机制进入实操阶段。该计划明确以北京、上海、深圳、杭州四大国家人工智能产业创新应用先导区为首批试点,于2026年三季度前完成省级伦理委员会组建、审查中心挂牌及风险监测节点部署,构建覆盖模型研发、数据采集、场景部署全链条的‘前置评估—过程监督—后效回溯’闭环体系。

据新华社5月10日晚权威发布,此次先导计划并非简单增设行政流程,而是深度融合技术治理逻辑:审查标准首次引入‘能力-风险双维矩阵’,将大模型幻觉率、具身系统社会行为可解释性、多模态生成内容溯源强度等12项量化指标纳入强制评估项;同步上线全国统一AI伦理风险直报平台,支持企业、科研机构、公众一键提交高风险应用案例,并由国家级专家库72小时内响应初筛。值得关注的是,方案特别强调‘伦理适配性分级’——对医疗辅助诊断、自动驾驶决策、司法文书生成等高敏感场景实行‘一案一审’,而对教育问答、办公提效等通用型应用则启用白名单快速通道。

行业影响已迅速显现。百度文心5.1团队在5月10日发布会后立即宣布,将主动接入上海先导区伦理审查中心,对其新上线的‘搜索增强推理引擎’开展第三方合规验证;科大讯飞同日披露,其即将发布的星火V4.3医疗大模型已提前完成伦理预审备案。多位参与政策制定的专家指出,该计划实质是将此前分散在网信、卫健、金融等多部门的AI监管要求进行技术语义统合,避免企业重复应对不同口径的合规压力。

未来展望方面,方案提出‘三年三步走’路径:2026年完成四大先导区制度验证;2027年向全部22个国家级人工智能创新应用先导区推广;2028年建成覆盖省、市、重点园区的三级伦理审查网络,并推动形成具有国际互认效力的中国AI伦理认证标准。有分析认为,此举或将加速全球AI治理规则从‘原则宣示’迈向‘技术可验证’阶段,中国有望在算法透明度、人机协作权责界定等关键议题上输出实质性范式。值得注意的是,工信部同步设立10亿元专项引导基金,重点支持伦理审计工具链、可信数据沙箱、人因交互评估平台等底层能力建设,释放出‘以技术治技术’的深层治理信号。