2026年3月12日,司法部部长贺荣在十四届全国人大四次会议‘部长通道’答记者问时明确表示:‘今年将加快人工智能相关立法研究和推进,适时启动《人工智能法》草案起草工作,力争年内形成基础性制度框架。’这一表态标志着我国AI立法进程正式从‘分散规制’迈向‘体系建构’新阶段。当前,我国AI治理虽已形成以《网络安全法》为龙头、《生成式人工智能服务管理暂行办法》《科技伦理审查办法》等为骨干的规章体系,但缺乏一部统摄全局、权责明晰、技术友好的基础性法律。《人工智能法》将聚焦三大核心命题:一是明确AI系统全生命周期主体责任,界定开发者、部署者、使用者、监管者的法律边界;二是构建风险分级分类管理制度,对自动驾驶、医疗诊断、金融决策、司法辅助等高风险场景实施许可准入与动态评估;三是确立AI基本权利保障机制,包括人类最终决定权、算法解释请求权、自动化决策异议权及AI致损救济途径。

立法思路体现鲜明‘中国路径’:既不同于欧盟《人工智能法案》的‘高风险清单’刚性管制模式,也区别于美国行政命令主导的柔性治理路径,而是坚持‘发展与安全并重、创新与规范协同、效率与公平兼顾’的治理哲学。草案将专章规定‘AI创新保障条款’,设立国家人工智能创新试验区制度,对符合伦理规范、通过安全认证的前沿探索项目实行‘监管沙盒’包容审慎管理;同时,设立‘AI安全发展基金’,支持开源模型、可信计算、内容溯源等底层安全技术研发。值得注意的是,立法将特别关注‘具身智能’(Embodied AI)这一新兴领域,针对机器人、自动驾驶车辆、无人机等物理交互型AI系统,建立‘环境感知—行为决策—后果反馈’三位一体的责任认定模型,破解传统法律对‘机器自主行为’归责难的困境。

司法部已联合科技部、工信部、网信办成立跨部门立法专班,并委托中国法学会、清华大学智能法治研究院等机构开展21项专题研究。首批调研覆盖北京、深圳、合肥等AI创新高地,重点听取大模型企业、智能驾驶公司、三甲医院AI辅助诊断平台等一线主体诉求。业内专家普遍认为,《人工智能法》不会是‘紧箍咒’,而是‘导航仪’——它将通过划定清晰的‘可为’与‘不可为’边界,为技术创新提供稳定预期,为企业投资布局提供法律确定性,为公众权益保障提供坚实后盾。按照立法规划,草案初稿预计将于2026年12月前完成,并向社会公开征求意见。