AI 伦理审查成强制要求,公平性与透明度纳入考核
2026年,我国正式将AI伦理审查纳入强制要求,明确所有AI系统在研发、部署、应用前,必须完成伦理审查,同时将算法公平性、透明度纳入审查考核范围,强化AI伦理规范,防范AI伦理风险,推动AI技术“向善”发展。
随着AI技术的广泛应用,算法偏见、隐私泄露、伦理失范等问题日益突出,AI伦理风险已成为制约AI产业健康发展的重要因素。为此,国家相关部门明确提出,AI伦理审查将成为AI系统上线的“必备环节”,未通过伦理审查的AI系统不得上线运行。伦理审查重点围绕AI系统的公平性、透明度、安全性、公益性等核心伦理指标开展,其中,公平性要求AI算法不得存在性别、种族、地域等歧视性倾向,确保不同群体能够平等享受AI服务;透明度要求AI算法具备可解释性,用户能够了解AI决策的依据与过程。
监管部门明确,企业需建立AI伦理审查机制,配备专业的伦理审查人员,制定完善的伦理审查流程;同时,鼓励行业协会制定AI伦理审查标准,推动行业自律。此外,将AI伦理审查结果纳入企业信用评价体系,对伦理审查不合格、存在伦理风险的企业,依法予以处罚,并限制其AI相关业务开展。业内人士表示,AI伦理审查强制要求的实施,将推动企业强化伦理意识,规范AI技术应用,防范伦理风险,让AI技术更好地服务于人类社会,实现“科技向善”的发展目标。
