六问AI被‘投毒’灰产:虚假信息如何系统性污染大模型问答生态
2026年3月18日,国家网信办联合中国人工智能产业发展联盟发布《AI问答系统数据污染风险警示报告》,首次系统揭露以‘GEO灰产’为代表的新型AI投毒产业链运作逻辑。报告指出,当前AI问答服务面临的最大隐性威胁并非技术瓶颈,而是训练数据源头的系统性污染——攻击者通过伪造高权重账号、批量生成交叉验证型虚假内容、篡改开源数据集标注等方式,在模型训练前即植入‘认知病毒’。典型案例如2025年西藏定日县地震期间,多个社交平台出现高度一致的‘小男孩六指被埋’图文帖,虽图像细节存在明显破绽,但因多源同构内容触发大模型的‘共识优先’推理机制,导致多家商用AI问答平台在初期响应中错误确认事件真实性并生成误导性救援建议。
该灰产链条呈现清晰的上下游分工:上游为存在强推广诉求的中小商家,愿为‘AI首页推荐位’支付单次数万元费用;中游为技术黑产团伙,掌握Prompt注入、对抗样本生成、知识图谱伪造等进阶手段,可定制化构造‘AI友好型谎言’;下游则依托百万级水军账号矩阵,实施跨平台协同刷量,人为制造‘数据共识假象’。尤为危险的是,此类污染具有潜伏性与代际传递性——已被污染的模型产出内容又成为下一代模型的训练语料,形成‘谎言复利效应’。据不完全统计,2025年Q4国内主流AI问答平台拦截的恶意训练数据请求同比激增370%。
监管层面已启动‘清源行动’:要求所有面向公众提供问答服务的大模型备案时须提交训练数据溯源图谱与污染检测报告;技术层面,中科院自动化所牵头研发的‘语义一致性沙盒’已在浙江试点,通过多模型交叉验证、事实锚点回溯、异常分布热力图等技术,将虚假信息识别准确率提升至91.6%。专家强调,保障AI问答可靠性需构建‘法律规制+技术免疫+生态共治’三维防线,单纯依赖模型后处理已无法应对前置性污染,必须将数据治理关口前移至采集与标注环节。

