美国白宫发布新版《国家人工智能研发战略计划2026》,强化基础研究与可信AI协同布局
2026年3月18日,美国总统科技政策办公室(OSTP)联合国家科学基金会(NSF)、国家标准与技术研究院(NIST)等12个联邦机构,正式发布《国家人工智能研发战略计划2026》(National AI R&D Strategic Plan 2026),这是继2016、2019、2023版后的第四次全面更新。新版战略以‘构建可信赖、公平、安全且以人为本的AI未来’为愿景,首次将‘基础模型系统性风险防控’列为六大核心战略方向之首,并单列‘负责任的基础模型开发与部署’行动路线图。计划明确未来五年联邦政府将在AI基础理论(如神经符号融合、因果推理建模)、可信AI技术栈(含可验证鲁棒性、可解释性量化工具、对抗攻击防御框架)及开放基准建设(如扩展MLCommons Trustworthiness Benchmark)等领域投入超127亿美元。
尤为关键的是,新版战略要求所有接受联邦资助的AI项目必须遵循NIST最新发布的《AI风险管理框架1.1版》(AI RMF 1.1),该框架于2026年2月正式定稿,新增‘生成式AI生命周期映射表’与‘高影响力AI系统影响评估矩阵’,首次将模型蒸馏、提示工程、RAG增强等新兴实践纳入风险识别节点。同时,战略授权NIST牵头组建‘联邦AI安全实验室网络’(FAISLN),整合洛斯阿拉莫斯、橡树岭等国家级实验室算力资源,为中小AI企业提供免费红队测试与漏洞扫描服务。
分析指出,该战略释放出美国政策重心从‘追赶算力规模’转向‘夯实可信根基’的明确信号。与2023版强调‘保持全球领导地位’不同,2026版更注重‘可持续竞争力’——即通过提升模型可靠性降低部署成本、通过标准化降低跨部门协作摩擦、通过开放基础设施缩小产学研能力鸿沟。不过,由于国会两党在AI监管立法上仍存分歧,《人工智能问责法案》等核心立法进程持续延宕,使得该战略更多依赖行政协调与标准牵引,其实际效力高度依赖后续预算拨款落实进度与跨部门执行力。