杭州互联网法院首判AI幻觉侵权案:开发者须对生成内容准确性承担合理注意义务
2026年4月1日,杭州互联网法院审结全国首例因生成式AI‘幻觉’(Hallucination)导致的侵权纠纷案,引发学界与产业界高度关注。该案原告梁先生于2025年6月使用某款国产大语言模型APP查询云南某职业高校信息时,AI错误生成该校‘已获教育部批准升格为本科院校’等完全失实内容,致其误报志愿并错过正常录取流程。法院经审理认定,被告公司作为模型研发与服务提供方,未建立有效的内容真实性校验机制,亦未在显著位置提示生成信息可能存在偏差,违反《生成式人工智能服务管理暂行办法》第十二条关于‘采取措施提高生成内容准确性’的强制性规定,判决其赔偿原告经济损失及精神抚慰金共计8.6万元。
判决书核心逻辑具有开创性意义:法院并未采用‘技术中立’传统免责路径,而是确立‘合理注意义务’裁判标准。即开发者需根据模型应用场景风险等级,采取与之匹配的风控措施——教育、医疗、法律等高风险领域,必须部署事实核查API、权威信源标注、置信度阈值拦截等多重保障;而娱乐、创意等低风险场景,可适用相对宽松标准。本案中,高校招生信息属典型高风险公共事务,被告仅依赖静态知识库更新,未接入教育部官网实时接口或设置人工复核环节,被认定为未尽到合理注意义务。
该判例将深刻重塑AI产品开发范式。短期看,头部企业已紧急启动‘幻觉防御’专项升级:百度文心一言上线‘教育垂类事实盾’,科大讯飞星火增加‘政策文件原文锚定’功能;长期看,将加速推动‘AI内容责任保险’落地,人保财险、平安产险已于4月初推出首款覆盖模型幻觉赔偿责任的专属险种。更深远的影响在于,它倒逼行业建立‘风险分级—技术适配—责任界定’的完整治理体系,为即将出台的《人工智能法》提供关键司法实践样本。当技术狂奔遇上法律理性,这场判决昭示:AI的边界,不在算力峰值,而在责任底线。