法学界发布《人工智能法治研究十大议题(2026)》:聚焦智能体行为边界与幻觉致损责任
2026年3月19日,由中国政法大学人工智能法研究院牵头,联合最高人民法院咨询委员会、浙江大学数字法治研究院等十余家权威机构,在线上召开‘探寻人工智能法治研究的真问题(第二季)’研讨会,并正式发布《人工智能法治研究十大议题(2026)》。与2025年侧重宏观框架不同,本年度议题坚持‘小切口、深挖掘’原则,首项即为‘智能体的行为边界、授权机制与竞争治理’,直指当前火爆全球的OpenCLaw(中文圈称‘养龙虾’)等本地化智能体所引发的系统性法律挑战。这些智能体可自主调用邮件、文件系统、浏览器甚至API接口执行复杂任务,其行为链条远超用户预期,传统‘知情—同意’框架已彻底失效。
议题二至四项分别聚焦‘拟人化互动的法律风险’‘生成式AI幻觉致损风险防范与责任承担’及‘人机协同下知识产权归属规则’,构成智能体落地的‘合规铁三角’。例如,当OpenCLaw因错误理解用户模糊指令而误发商业敏感邮件导致合同违约,责任应由用户、开发者还是模型提供方承担?当智能体基于幻觉生成虚假法律条文并被律师采纳致败诉,是否适用产品责任法?中国政法大学张凌寒院长指出,现有民法典、电子商务法与数据安全法均未预设此类‘非人格化行动主体’,亟需建立‘行为可追溯、授权可分层、责任可切割’的新规制范式。
值得注意的是,本次议题首次纳入‘人工智能企业出海的法律冲突’与‘芯片等基础设施安全保障的法治进路’,体现治理视野从应用层向上游延伸。四川大学左卫民教授特别呼吁引入公众视角——消费者不关心技术原理,只关注‘我的数据是否被智能体越权使用’‘它犯错我能否一键追责’。学界共识是:法治不能滞后于技术,但也不能脱离产业现实;唯有打通智能体的‘任督二脉’(即行为合法性与责任确定性),这一新兴业态才能真正释放生产力价值。