2026年全国两会期间,AI法治建设成为代表委员热议的焦点话题,“加快AI立法进程、划定高风险应用监管红线”成为共识,多位代表委员围绕AI立法、监管机制完善等提出多项建议,推动AI治理迈入法治化轨道。

当前,AI技术的广泛应用带来了一系列法律挑战,AI生成内容侵权、深度伪造诈骗、算法歧视等问题频发,现有法律法规已难以完全覆盖新型纠纷与风险。为此,代表委员们建议,加快推进人工智能专项立法,明确AI生成内容的法律属性、责任主体,规范AI研发、应用、管理全流程的行为边界;同时,划定高风险AI应用监管红线,将医疗、金融、政务、自动驾驶等涉及公共安全、人身健康、公共利益的领域纳入高风险监管范围,实施严格的准入管理与动态监测。

最高人民法院相关负责人在两会期间表示,人民法院对于AI深度伪造诈骗等新型犯罪风险已有研判,将会同相关部门完善法律适用标准,依法从严惩处利用AI实施的违法犯罪行为。此外,代表委员们还建议,建立跨部门协同监管机制,加强网信、工信、司法等部门的联动配合,推动形成AI法治监管合力。业内专家认为,两会聚焦AI法治建设,标志着我国AI治理从政策引导向法治保障转变,加快立法进程、划定监管红线,将为AI产业健康发展提供坚实的法律支撑。