2026年以来,我国正式强制实施AI系统可测试性认证制度,明确所有拟上线运行的AI系统,必须通过第三方机构的可测试性认证,未通过认证的不得上线,这一举措进一步完善AI监管体系,提升AI系统的安全性、可靠性与合规性。

AI系统可测试性认证,重点围绕AI系统的算法安全性、数据合规性、功能可靠性、风险可控性等核心指标开展检测。认证内容包括:AI算法的公平性、透明度、可解释性,训练数据的合法性、安全性、完整性,AI系统的抗攻击能力、应急处置能力,以及是否符合相关法律法规与监管要求。第三方认证机构需按照统一的认证标准,对AI系统进行全面检测,出具认证报告,确保AI系统上线后能够安全、合规运行。

国家市场监管总局相关负责人表示,实施AI系统可测试性认证强制制度,是防范AI技术应用风险的重要手段,能够从源头遏制不合格AI系统上线运行,保障用户权益与公共安全。对于未通过认证擅自上线AI系统的企业,监管部门将依法予以处罚,责令限期整改,情节严重的吊销相关经营许可。目前,已有多家第三方机构获得AI系统可测试性认证资质,逐步形成完善的认证服务体系。业内人士认为,强制认证制度的实施,将倒逼AI企业提升技术研发与合规管理水平,推动AI产业向规范化、高质量方向发展。