由2018年图灵奖得主Yoshua Bengio领衔、OECD与全球32家顶尖AI安全研究机构联合编制的《2026国际AI安全报告》于2026年2月7日正式发布。与2025年版相比,本年度报告显著收窄研究范围,聚焦‘新兴风险’(Emerging Risks)这一最紧迫议题,并首次引入OECD情境化建模框架,基于计算能力(compute)、算法效率(algorithmic efficiency)与数据规模(data scale)三大变量,推演出直至2030年的四种AI能力发展路径:进展停滞、进展放缓、持续进展与加速发展。报告强调,当前风险已从理论推测进入实证阶段——过去一年中,AI辅助漏洞挖掘工具在CVE-2025-XXXX系列高危漏洞发现中贡献率达64%,国家级APT组织利用LLM自动生成免杀恶意代码的案例同比增长310%,证实AI正成为网络攻防的‘双刃剑’。

报告首次提出‘能力参差不齐’(Jagged Capabilities)现象的系统性评估。领先AI系统在化学合成路径规划、法律条文溯因推理等复杂任务中已达人类专家水平(准确率>90%),但在基础空间推理(如‘杯子倒置后水是否流出’)、多步骤物理因果追踪等任务上错误率仍超45%。这种‘强复杂、弱简单’的能力分布,导致AI在无人监督下执行跨系统、长周期任务时存在不可控失效风险。报告援引欧盟某银行真实案例:其信贷审批智能体因未能识别抵押物照片中阴影异常,误判房产真实性,造成单笔损失2300万欧元。

治理策略随之升级。报告呼吁各国建立‘AI能力透明度登记制度’,强制披露模型在关键安全维度(如幻觉率、对抗鲁棒性、偏见指数)的第三方测评结果;推动成立‘全球AI安全协调中心’(GASC),统筹红蓝军对抗演练、漏洞共享响应与跨境执法协作。尤为关键的是,报告提出‘风险适配型监管’原则——对用于医疗诊断、电网调控、自动驾驶等高风险场景的AI系统,实施全生命周期可追溯审计;对办公助手、内容生成等低风险应用,则采用沙盒监管与敏捷迭代机制。这标志着全球AI治理正从原则倡导迈向精准施策与实操落地的新阶段。