杭州互联网法院首判AI幻觉侵权案:开发者责任边界与合规框架加速成型

2026-04-02 20:11 👁 阅读

2026年4月1日,杭州互联网法院审结全国首例因生成式AI‘幻觉’引发的侵权纠纷案,判决被告科技公司赔偿原告梁先生经济损失及合理维权费用共计8.6万元。该案源于2025年6月,原告使用被告研发的大语言模型APP查询云南某职业高校信息时,AI错误生成该校‘已获教育部批准升本’‘开设量子计算本科专业’等完全虚构内容,导致原告放弃报考真实存在的同类院校,造成升学决策重大偏差。法院认定:被告未履行《生成式人工智能服务管理暂行办法》第十二条规定的‘显著标识风险’义务,且其模型未部署基础事实核查模块,主观存在重大过失,构成对原告一般人格权中‘知情同意权’与‘自主决策权’的侵害。

判决书首次系统界定AI服务提供者的责任边界:第一,‘幻觉’非技术中性免责事由,开发者须证明已采取‘合理必要措施’降低错误率(如接入权威数据库、设置置信度阈值拦截、提供溯源链接);第二,面向公众的通用型AI服务,不得以‘免责声明’免除基本注意义务;第三,若AI输出内容涉及特定主体(如院校、企业、个人),应触发强制事实核验流程。此案直接推动行业合规升级:百度文心、讯飞星火等头部平台已于3月下旬上线‘教育信息专用核验通道’,对接教育部阳光高考平台;而虎博科技等GEO服务商同步推出‘AI内容可信度评估报告’,为企业客户提供幻觉率、事实偏差指数等量化指标。

更深远的影响在于制度建构。国家网信办牵头制定的《生成式AI内容安全强制性国家标准(征求意见稿)》已于3月31日公开,拟要求所有月活超500万的AI应用必须:1)对高风险领域(教育、医疗、金融、法律)输出实施100%人工复核或权威信源交叉验证;2)用户界面显著位置标注‘本内容由AI生成,可能存在不准确信息’;3)建立7×24小时幻觉投诉响应机制。专家指出,此案标志着AI治理从‘原则倡导’进入‘司法裁判’新阶段,开发者不能再以‘技术不可控’为托辞,而必须将合规能力内化为产品研发核心环节——唯有构建‘技术可控、过程可溯、结果可验’的全链条责任体系,生成式AI才能真正赢得社会信任,释放长期价值。