美国国防部系统性收编全球顶尖民用AI:SpaceX、OpenAI、谷歌等八家巨头接入IL-6/IL-7军事网络
2026年5月2日,美国国防部宣布与SpaceX、OpenAI、谷歌、英伟达、微软、亚马逊云服务(AWS)、Reflection及甲骨文(Oracle)等八家全球顶尖AI企业达成历史性协议——其先进人工智能技术将被正式部署至国防部的IL-6(机密级)和IL-7(最高机密级)安全网络,直接服务于‘合法的作战行动’。这一举措标志着民用AI能力向国家战争机器核心神经中枢的首次系统性、制度化嵌入,远超以往零散的技术合作或国防合同范畴。
该决策背景源于美军在‘马赛克战’与‘算法战’转型压力下的紧迫需求:面对多域协同、实时OODA闭环与海量异构战场数据处理挑战,传统指挥链路已逼近效能极限。而上述企业在大模型推理、多模态感知、自主代理编排及边缘智能调度等领域积累的工程化能力,正成为弥补军事AI‘最后一公里’落地的关键拼图。值得注意的是,OpenAI虽长期标榜‘非武器化’原则,但此次协议明确将其技术纳入作战支持体系,引发内部伦理委员会激烈分歧。
此举带来的地缘与产业影响深远。一方面,它加速催化全球AI军备竞赛——中国、欧盟、韩国均已启动类似‘国防AI适配计划’;另一方面,也触发科技界对‘技术中立性’神话的集体反思:当GPT-5级模型可生成战术推演脚本、Claude-4能实时解析卫星图像并标记高价值目标时,‘民用’与‘军用’的技术分野正在消融。更严峻的是,商业公司需在合规审查、模型可解释性、对抗鲁棒性及责任归属等维度重构研发范式,部分初创企业已暂停面向国防客户的API开放。
展望未来,这一整合并非终点而是起点。五角大楼透露,首批试点项目将于2026年Q3在太平洋联合演习中启用,聚焦无人集群协同与认知电子战场景。与此同时,联合国《人工智能军事应用治理框架》谈判进程骤然提速,多方呼吁建立‘高风险AI军事用途白名单’与第三方审计机制。真正的挑战在于:如何在保障国家安全与技术优势的同时,守住人类对致命性自主系统的最终控制权?这场始于代码的权力再分配,或将重新定义21世纪的战争伦理与科技文明边界。