美国国防部近日与国内七家顶级科技与基础设施企业签署人工智能协议,计划在涉密网络中部署前沿 AI 模型。
签约企业包括 SpaceX、OpenAI、Google、NVIDIA、Reflection AI、微软以及亚马逊云服务(AWS)。根据协议,这些公司的 AI 技术将被授权应用于 Impact Level 6 与 Impact Level 7(分别对应机密与绝密级)的作业环境,用于任何合法业务场景。
国防部 AI 协议内部细节
国防部首席技术官于 5 月 1 日宣布该协议,并表示这是构建“AI 优先”国防体系的重要进展。IL6 和 IL7 级别针对机密及绝密级别业务,AI 模型未来将直接与敏感情报及作战数据协同处理。
“这是我们推进 AI 优先型国防部使命的最新举措。” 国防部研发与工程副部长办公室官方账号 发布声明称。
官方强调,选择多家供应商是有意为之。国防部通过与多家美国本土企业合作,旨在避免对单一厂商的依赖,并同时布局闭源与开源模型,保持弹性选择空间。
NVIDIA 方面主要提供其开源 Nemotron 系列,而由前 Google DeepMind 研究员创立、并获得 NVIDIA 投资的初创公司 Reflection AI,将为国防部再度引入开放权重系统。
Google 将其 Gemini 系列用于任何合法的政务用途,SpaceX 则预计为 xAI 旗下 Grok 模型提供相应基础设施。
微软与 AWS将继续承担云和基础设施主力,为 AI 部署提供后端支撑。
目前内部使用已颇为广泛。据 5 月 1 日公布的数据,国防部旗下GenAI.mil 平台上线仅五个月,用户数量已突破 130 万,总调用次数达数千万。
Anthropic 因“安全底线”分歧无缘合作
值得注意的是,AI 公司 Anthropic 并未出现在此次合作名单中。今年 2 月,国防部长 Pete Hegseth 曾将 Anthropic 定性为“供应链风险企业”。原因在于,Anthropic 拒绝撤销其 AI 系统针对自动化致命武器及大规模国内监控的限制政策,最终导致双方分道扬镳。
“我们绝不会允许任何公司左右我们对具体运营的决策。”美国国防部发言人 Sean Parnell 在公开声明中如是表示。
随后,一名联邦法官叫停了该禁令的执行,目前相关法律诉讼仍在进行中。
与其他竞争对手相比,OpenAI 选择了更为谨慎的路线。该公司强调,与国防部的合作协议坚持三项承诺:
- 其模型不得用于大规模国内监控,
- 不得用于自动武器的指挥和控制,
- 始终保持现有的安全防护机制。
而其他企业则接受了“用于任何合法目的”的广泛条款,并未公开声明类似限制。
开源战略将塑造后续行业格局
上述合作均纳入了国防部于 2026 年早些时候发布的《人工智能加速战略》。该战略重点推动在作战、情报和企业管理等环节实现模块化开源架构。
官方表示,该战略更为支持本土供应商,倾向于采用透明开放的权重模型,并重视快速原型验证,而不是对封闭模型形成依赖。
接下来值得关注的是,哪些模型能够率先通过 IL6 级别的部署审核,以及 OpenAI 所承诺的防护机制在涉密场景下能否真正落实和维持。





