《2026年国际人工智能安全报告》发布:通用AI能力‘参差不齐’跃升,新兴风险证据确凿
2026年3月25日,由蒙特利尔大学教授约书亚·本吉奥(Yoshua Bengio)担任主席、30余位全球顶尖专家联合撰写的《2026年国际人工智能安全报告》正式发布。该报告由英国科学、创新与技术部牵头,获OECD、联合国及30余国政府代表组成的专家咨询小组指导,旨在为全球决策者提供应对AI风险的‘共同科学认知基准’。报告明确指出:通用AI能力已超预期跃升,但风险证据正在加速累积,而现有治理手段明显滞后,未来关键不在于是否发展,而在于能否在不确定性中建立有效防线与全球协同规则。
报告最大突破在于将研究焦点精准收窄至‘新兴风险’——即通用AI前沿能力被恶意滥用、系统性故障失控及对社会经济结构的深层冲击。与2025年版相比,2026年版首次引入OECD情境化建模,基于算力、算法效率、数据规模三大变量,推演出至2030年的四种发展路径:进展停滞、进展放缓、持续进展(AI成为‘专家级协作者’)、加速发展(AI参与自身研发,形成正反馈闭环)。尤为警示的是,报告强调‘现实证据已确凿’:过去一年,国家级黑客组织利用AI自动化发现零日漏洞、编写高隐蔽性攻击代码的案例频发,AI驱动的网络威胁已从理论推演进入实战阶段。
报告还首次系统定义‘参差不齐的能力’(Jagged Capabilities)现象:当前领先AI系统可在奥数竞赛中斩获金牌、法律考试得分超90%,却在基础空间推理、图像计数等简单任务上频繁出错,且严重依赖人类干预才能完成多进程项目。这种能力分布的非线性,极大增加了风险预测难度。为此,报告呼吁构建‘纵深防御’体系——从数据过滤、模型鲁棒性增强、到社会复原力建设,需技术防护与制度韧性双轨并进。报告最终结论振聋发聩:我们正站在一个历史性岔路口,选择权不在技术本身,而在人类集体的治理智慧与协作意愿。