杭州互联网法院首判AI幻觉侵权案:开发者须为生成内容准确性承担合理注意义务

2026-04-02 20:08 👁 阅读

2026年4月1日,杭州互联网法院审结全国首例因生成式人工智能提供不实信息引发的侵权纠纷案,判决被告科技公司就其自研大语言模型输出的错误高校信息向原告梁先生赔偿经济损失及合理维权费用共计8600元。该案源于2025年6月,原告在检索云南某职业高校招生信息时,使用被告运营的AI应用程序提问,模型却虚构该校‘设有量子计算本科专业’并编造不存在的师资名录与录取分数线。原告据此填报志愿未果后起诉,法院经技术鉴定确认该信息系模型‘幻觉’产物,且被告未在产品界面设置风险提示或事实核查机制。

判决书首次系统界定生成式AI开发者的法律义务边界:法院认为,开发者虽不承担内容‘绝对真实’的担保责任,但须履行‘合理注意义务’,包括建立基础事实校验层、设置显著风险提示、提供人工复核通道等三重保障。尤其强调,当AI应用于教育、医疗、金融等高敏感领域时,注意义务标准应显著高于通用场景。本案中,被告未对院校类权威信息源(教育部官网、阳光高考平台)进行API对接或缓存校验,亦未在输出结果旁标注‘AI生成,仅供参考’,构成重大过失。

该判决具有行业风向标意义。中国人工智能产业发展联盟随即发布《生成式AI内容安全合规指引(试行)》,要求2026年Q3起所有面向公众的生成式AI产品必须嵌入‘三层过滤机制’:第一层为实时知识图谱比对(接入国家公共数据平台),第二层为置信度动态标注(对低置信度答案强制折叠并提示),第三层为用户反馈闭环(一键举报触发人工审核)。工信部亦透露,《人工智能法(草案)》征求意见稿中将专章规定‘生成内容责任认定规则’,拟确立‘开发者—运营者—使用者’三级责任体系。可以预见,AI企业的合规成本将结构性上升,但也将加速行业从‘粗放生成’向‘可信生成’进化。