维基百科全票通过禁令:全球首个主流知识平台全面禁止LLM生成内容
2026年3月25日,维基百科基金会正式宣布,经全球志愿者编辑群体投票表决,以40票赞成、2票反对的压倒性结果,通过《禁止使用大语言模型生成或重写条目内容》政策修正案。该禁令即日起生效,适用于所有语言版本维基百科,明确禁止编辑者利用ChatGPT、Claude、Qwen等任何LLM辅助撰写、润色、翻译或重写百科条目正文,违者将触发自动回退机制并计入信用档案。此举被业界视为知识平台AI应用史上的分水岭事件,标志着全球最权威的众包知识库正式划出AI介入的‘红线’。
禁令出台背景源于持续恶化的事实性危机。2025年第四季度审计显示,约17%的新建条目存在LLM幻觉导致的史实错误,尤以冷门科学概念、地方历史人物与非英语文化条目为重。例如,某德语维基新增的‘19世纪立陶宛气象学家’条目,竟虚构了不存在的学术期刊与获奖记录;西班牙语版关于‘安第斯山脉古灌溉系统’的段落,将现代工程术语错误映射至前哥伦布时期。更严峻的是,LLM生成文本常隐含不可追溯的价值判断与文化偏见,违背维基‘中立观点’(NPOV)核心原则。编辑社区共识认为:知识生产必须保有‘人的在场性’——从信息溯源、证据权衡到语义校准,每个环节都需可问责的主体。
该政策并非否定AI价值,而是重构人机协作边界。维基百科同步推出‘AI辅助工具白名单’,允许使用经审核的查重插件、语法检查器与多语言对照工具,但严禁内容生成。同时,基金会正联合MIT媒体实验室开发‘可信度增强模块’(Credibility Augmentation Module),通过区块链存证+人工复核双轨机制,为每段引文标注原始来源可信等级。此举将倒逼AI厂商转向‘可解释、可验证、可追溯’的技术路线,也为中国正在推进的《人工智能生成内容标识管理办法》提供重要实践参照——当知识主权回归人类编辑,AI才能真正成为照亮真理的灯,而非模糊边界的雾。