扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-03-02 18:49

美国国防进入AI 优先时代,从哈梅内伊惊魂复盘五角大楼的AI 十年

本文来自微信公众号: Z Finance ,作者:ZF编辑部,原文标题:《深度|美国国防进入 AI 优先时代,从哈梅内伊惊魂复盘五角大楼的 AI 十年》


谢米兰区的夜风裹着干燥的尘土味。德黑兰北部山脚下,一座混凝土院墙围起的建筑群里,地下三层的灯光从未熄灭过。值班军官盯着屏幕上跳动的加密通信节点,一切正常——和过去两千多个夜晚一样正常。


他不知道的是,在距离他头顶550公里的低地球轨道上,一颗没有任何标识的卫星正在以每秒7.6公里的速度掠过波斯高原。它不属于任何公开星座目录。它的下行链路没有指向任何民用地面站。


在更远的地方,弗吉尼亚州麦克莱恩的一间恒温机房里,一个大语言模型正在处理它今天的第11,042次查询。这次查询的内容被标记为TS/SCI。模型不知道自己在参与什么。它只是在做它被训练来做的事情:阅读、摘要、对齐矛盾、生成选项。


三小时后,德黑兰上空响起了第一波爆炸声。


五角大楼把这场军事行动定名为"Operation Epic Fury"——史诗之怒。


这个开头,当然是虚构的。没有任何公开证据能告诉我们,2026年2月28日凌晨的德黑兰究竟发生了什么。但如果你把这段虚构当成纯属幻想,你可能比把它当成技术复盘的人犯了更大的错误。


因为构成这段场景的每一个要素,低轨军用卫星、部署在机密网络中的大语言模型、实时数据融合平台、AI辅助的情报处理,都不是科幻。它们是已经存在、已经部署、已经拿到合同编号的真实系统。


五角大楼的AI十年


故事要从一封信开始讲。


2018年4月,超过3,100名Google员工联名写信给CEO Sundar Pichai。信的第一句话是:"我们认为,Google不应该做战争的生意。


他们抗议的对象是Project Maven——五角大楼2017年启动的"算法战争跨功能小组",美军第一个正式的AI项目。最初任务看上去很温和:用机器学习处理无人机拍摄的海量视频,自动识别目标。Google是主要承包商。但Google的顶尖AI研究员们意识到,这可能是通往自动化杀伤链的第一步。


请愿人数很快涨到4,000人。随后,约十几名员工辞职。一份由超过1,000名学者签署的第二份请愿书跟进。Google最终宣布不续约Maven,并发布了AI伦理准则,禁止参与武器和违反国际规范的监控项目。


这是硅谷和五角大楼之间的第一次正面冲突。它的结局看起来像是良心战胜了利益。


但真正重要的事情发生在幕后:Maven没有停。它被移交给国家地理空间情报局(NGA),至今仍在运行,覆盖范围早已超出视频分析,延伸到军事目标支持、数据融合与分析师工具。Google走了,合同留了下来。留下来的还有一个更深刻的教训,五角大楼不能再依赖一家既卖广告又卖搜索的公司来打仗。


从那以后,五角大楼开始系统性地建造自己的AI基础设施。这是一场不太引人注目但规模惊人的"体系考古学"。每一步都有时间节点和关键人物。


2022年4月:组织重组。五角大楼成立CDAO(首席数字与人工智能办公室),统管全军AI战略、数据治理与技术采购。首任CDAOCraig Martell,曾在LinkedIn和Lyft做机器学习负责人——后来说了一句被反复引用的话:"想象我们造了一架F-35然后说'你们自己搞清楚它好不好用'——我们不会这么干。但在AI领域,出于某种原因,大家觉得这样做没问题。"他在任两年,搭建了组织框架和数据战略,随后离职加入洛克希德·马丁担任CTO。


2023年8月:两个项目同时启动。副防长Kathleen Hicks宣布成立Task Force Lima——生成式AI特别工作组,由CDAO牵头。12个月内,Lima完成了用例清单和试点建议,随后被"正式结业",职能移交给新设的AI快速能力小组(AI RCC)。AI RCC在2024-2025财年投入了1亿美元:3,500万用于生成式AI试点开发,2,000万用于政府网络内的AI计算基础设施,4,000万用于面向新兴公司的小企业创新研究拨款。


同月,Hicks还宣布了Replicator计划,目标是在18个月内向战场交付数千架自主无人系统。这是五角大楼第一次用"量产"的逻辑来思考无人机,而不是"精品"的逻辑。特朗普政府上台后,Replicator被重新命名为DAWG(国防自主工作组),但没有被取消,反而开始研究更大、更远、更能打的攻击型无人机。


2025年8月:CDAO重组。CDAO被重新划归研究与工程副部长办公室(USD(R&E))管辖,意在加速从实验室到战场的转化。[13]新任五角大楼首席技术官Emil Michael——一位前Uber高管和私募亿万富翁——接管了所有创新组织的整合。


JAIC首任主任、退役中将Shanahan对这次重组的评价意味深长:"当你把一个直接向副部长汇报的组织搬到五角大楼的其他地方,不管你的意图是什么,向全军传递的信号很明确:这不是优先事项。"但支持者的反驳同样直接:"这次重组创造了一个能从实验室一路打到战场的AI创新引擎。"


2025年12月:GenAI.mil上线。这是最直观的一步。五角大楼在所有政府桌面上部署了一个安全的生成式AI平台——GenAI.mil。国防部长Hegseth亲自给全军发邮件推广:"今天,我很高兴向你们介绍GenAI.mil,一个面向战争部每一位成员的安全生成式AI平台。它今天就在你的桌面上。"五角大楼走廊里贴满了海报,鼓励每个人使用这个新工具。两个月后,GenAI.mil的独立用户数突破了100万。六个军种中有五个已将其列为官方AI平台。平台先后接入了Google Gemini、xAI的Grok,以及OpenAI的ChatGPT。


与此同时,JADC2(联合全域指挥与控制)战略持续推进——目标是让美军的传感器、指挥与火力在所有作战域(陆、海、空、天、网)之间实现数据互通与AI辅助决策。DARPA把这个概念叫做"马赛克战争"——不再是线性的杀伤链,而是任何传感器可以连接到任何射手的分布式网络,一个节点被摧毁,数据立即重新路由。


然后是2026年1月9日,距离Operation Epic Fury仅50天,Hegseth签发了三份协调备忘录,正式宣布五角大楼进入"AI优先"时代。



配套的AI加速计划列出了七个"优先冲刺项目"(PSP),名字取得像科幻小说的章节名:


  • Swarm Forge:发现、测试与规模化AI作战方式


  • Agent Network:AI驱动的战场管理与决策支持


  • Ender's Foundry:AI赋能的军事仿真(名字来自《安德的游戏》)


  • Open Arsenal:从情报加速武器开发


  • Project Grant:从静态威慑转向动态压力


  • GenAI.mil:在所有密级层面为军民人员部署大模型


  • Enterprise Agents:AI代理改造企业级工作流


AI策略备忘录还写了一条硬指标:CDAO必须建立机制,确保最新的前沿AI模型在公开发布后30天内部署到作战人员手中。每个军种有30天时间提交至少三个AI优先项目。


从一封3,100人签名的抗议信,到100万人每天在用的AI平台。从"Google不应该做战争的生意",到"30天内把最新模型送到作战人员手中"。


这不是一份远景规划。这是一份战时节奏的行动令。


钱的规模:134亿、660亿、1520亿、1.5万亿


理解五角大楼的AI意志,最诚实的方式是算账。


先看专项预算。2026财年,五角大楼首次为AI和自主系统设立了独立预算线——134亿美元。这是美国国防史上最大的单年度AI投资。这笔钱的分配方式本身就是一张战场地图:94亿美元给空中无人机,17亿给海上自主平台,7.34亿给水下系统,2.1亿给地面自主车辆,12亿给软件和跨域集成。空中占了七成。


再看IT总盘子。五角大楼2026财年的IT预算总额为661亿美元,较上年增加18亿。这笔钱的内部结构更值得细看:非涉密IT 325亿,增长3.3%;涉密网络安全143亿,增长7.2%;涉密IT 26亿,增长11.3%。


增速最快的两个类目都是"涉密"——这意味着五角大楼在公众看不见的网络上砸钱的速度,是公开网络的三倍。每个军种都在加码AI分配:仅海军一家就增加了3.08亿美元AI支出,同比涨幅22.7%。


网络安全预算也在飙升。2026财年国防授权法案为网络战拨出151亿美元,用于扩充网络部队和现代化防御系统。


然后是"大钱"。国会通过了8390亿美元的2026财年国防拨款,比五角大楼自己的申请多出80亿。国会议员们在申请之外额外追加了183亿美元用于武器采购——其中144亿给了采购,39亿给了研发测试。


然后是"更大的钱"。特朗普的"一项大美丽法案"(One Big Beautiful Bill)通过了1520亿美元的国防和解拨款。原计划分五年花完,但五角大楼告诉国会:我们打算在2026年一年全部花掉。这1520亿的分配中,AI无处不在:4.5亿用于将AI和自主技术应用于造船和数字化船坞,1.45亿用于AI赋能的单程攻击无人机和海军系统,2.5亿用于构建AI生态系统,4亿用于先进指挥控制工具,20亿通过国防创新单元(DIU)将商业技术转化为军事能力——更多细节"仅在更高密级层面可获取"。另有14亿用于扩大小型无人机产业基础,154亿用于创新、实验与低成本弹药的规模化生产。


然后是最大的钱。特朗普为2027财年提出的国防预算——1.5万亿美元,较2026年增长超过50%。


让我们把这些数字排成一列:134亿(AI专项)→661亿(IT总盘)→839亿(基础国防拨款的增量部分)→1520亿(和解法案追加)→1.5万亿(2027年预算提案)。每一层都在为下一层做铺垫。


四家公司、四份合同、四种姿态


这些天文数字最终要流向具体的公司。2024年夏天,CDAO同时向四家公司授予了国防合同——Anthropic、Google、OpenAI和Elon Musk的xAI,每家合同上限2亿美元。


CDAO主任Doug Matty在声明中说:"AI的采用正在改变国防部支持作战人员和保持对对手战略优势的能力。"合同条款允许五角大楼部署这些公司最新的AI产品,包括代理式工作流、大语言模型以及所有衍生技术。


四份合同,但四家公司走上了截然不同的路径。


Anthropic的Claude是唯一获准进入机密网络的大模型,也是唯一一个画了红线的。Anthropic CEO Dario Amodei拒绝取消两条使用限制:不得用于大规模国内监控,不得用于全自主武器。五角大楼的反应是逐步升级的三连击:先要求取消限制;然后威胁将其定性为"供应链风险",一个此前只用于美国对手的标签,从未用于美国本土公司;最后甚至威胁动用《国防生产法》强制移除安全护栏。


Amodei在公开声明中指出了这些威胁的荒谬之处:"这两种威胁是内在矛盾的:一种说我们是安全风险,另一种说Claude是国家安全的必需品。"Politico将Hegseth的最后通牒称为"前后不一",令AI政策制定者"困惑"。



xAI的Grok在2月23日成为继Claude之后第二个获准进入机密系统的大模型。时间点微妙:这是Anthropic被清退前四天。五角大楼不能没有机密网络里的AI工具,所以在踢走一个之前,先确保了替代品。


OpenAI在2月27日,Anthropic被正式列为供应链风险的同一天,宣布与五角大楼签约。CEO Sam Altman当天早上对CNBC说了一句耐人寻味的话:"我们和Anthropic共享同样的红线,其他公司也独立同意了这些红线。"几小时后,OpenAI在声明中阐述了自己的"分层保护"方案:保留完整的安全栈自主权,通过云部署(不允许边缘部署,因此"不可能为全自主武器供电"),合同中明确排除大规模国内监控,持有安全许可的OpenAI技术专家"在回路中"。Reuters报道称,OpenAI警告任何违约行为都可能触发合同终止——但补了一句:"我们预计这不会发生。"


Defense One的独家报道揭示了一个被忽视的事实:如果五角大楼真的全面清退Claude,可能需要三个月甚至更长时间才能在机密网络上恢复同等能力的AI工具。这解释了为什么Operation Epic Fury打响时,Claude的六个月过渡期"才刚刚开始",不是因为五角大楼心软,而是因为真的换不了那么快。


Google是四家中最安静的一个。2018年轰轰烈烈退出Maven,2024年悄无声息地拿到了五角大楼的AI合同。没有公开抗议,没有员工请愿。当年那封3,100人签名的信,像是上一个时代的产物。


行业分析显示,AI国防市场正以约30%的年复合增长率扩张,预计到2029年将达到186亿美元。国防创新单元(DIU)正在拿出1亿美元征集"平台无关的编排软件"——能够将战场指挥官的意图翻译成跨域自主集群的协同执行。


所有这些数字指向一个结论:这不是"是否投入"的问题,而是"往哪里投入"和"投多快"的问题。钱已经在流动,系统已经在运行,合同已经签完。剩下的只是政治。


新军工铁三角:Palantir、Anduril与SpaceX


理解美军AI能力,不能只看五角大楼的采购清单,还要看它依赖的商业生态。三家公司构成了"新军工铁三角"——它们不卖导弹,卖的是让导弹更快找到目标的软件和通信。


Palantir是三者中根基最深的。2003年,Peter Thiel和一群斯坦福校友在CIA风投基金In-Q-Tel的资助下创立了这家公司——名字来自托尔金的"真知晶球",一颗能看到远方一切的水晶。这个名字不是装饰。



Palantir的核心是两个平台:Gotham(面向情报和国防)和Foundry(面向商业和民用机构)。Gotham的官方定位是"全球决策的操作系统",它的产品页面上赫然写着一行让人无法忽略的标语:"AI驱动,赋能杀伤链。"Gotham的目标工作流包括:AI辅助的目标识别、目标与打击手段的自动配对、传感器的自主调度。从无人机到卫星,都可以通过AI规则或人类在环控制来分配任务。


在这套系统底层,Palantir的核心工程概念是Ontology(本体),把数据表、日志、图像、地理信息、通信截获统一映射成"人、地、物、关系、事件"的知识图谱。这套架构自2008年起部署在美军体系中,至今超过17年。


合同规模说明了一切。2024年5月,五角大楼将Project Maven的核心系统——Maven Smart System(MSS)交给Palantir运营,初始合同4.8亿美元。这意味着Google在2018年因员工抗议而放弃的那个项目,最终落在了Palantir手中。MSS已在中央司令部辖区即中东战区投入实际使用,覆盖五大战区司令部。到2025年5月,由于"需求增长",Maven合同总额被提升至超过10亿美元。



2025年7月:更大的单子来了。美国陆军与Palantir签署了一份十年期、上限100亿美元的企业级服务协议,涵盖陆军未来所有软件和数据需求。陆军的声明称:这份协议"增强军事战备并推动作战效率",同时"提供显著的成本效益"。


然后是TITAN——"战术情报目标接入节点"——美军第一辆"AI定义的车辆"。这是一台移动指挥车,由Palantir联合Anduril和诺斯罗普·格鲁曼共同开发,搭载Palantir的AI软件,能够在行进中收集和处理多域情报数据,实现AI辅助的远程精确打击。美国陆军已签约采购首批10辆。


Palantir不只在美国扩张。2026年1月,英国国防部向Palantir授出了一份2.4亿英镑的三年期合同——金额是此前MoD合同的三倍以上,且未经竞标直接授予。合同内容是为英军提供"跨密级的数据分析能力,支持关键的战略、战术和实时作战决策"。


2025年全年,Palantir的美国政府业务收入同比增长55%。仅第四季度就创收5.7亿美元,同比增长66%。CEO Alex Karp在财报电话会上说了一句耐人寻味的话:"我们还在关键性地支持了美国政府参与的一些最有趣、最复杂、最不寻常的行动,其中许多我们无法评论,但它们是去年的亮点。"2026年,Palantir预计总收入将达到71.8-72亿美元,较2025年增长超过60%。


在Operation Epic Fury这样需要整合卫星图像、通信截获、开源情报和人力线报的行动中,Palantir或类似平台不仅"可能被使用"——它几乎是唯一能在军事时间尺度内完成跨域数据融合的商业平台。Maven已经在中东战区运行。Gotham的"杀伤链赋能"不是概念验证,而是产品说明书上的第一行。


Anduril更激进。它的Lattice平台自称是"AI驱动的战场管理平台,旨在加速复杂杀伤链"。Lattice可以整合数千个传感器和效应器,将数据转化为超越人类处理速度的决策。Anduril已获得美军数十亿美元合同,包括一份10年期、6.42亿美元的海军陆战队反无人机合同。2025年11月,美国陆军选择Anduril的Lattice作为下一代综合战场指挥系统机动版(IBCS-M)的火控平台。Anduril甚至在建造一座500万平方英尺的工厂Arsenal-1,预计2026年投产,年产数万架军用无人机。



SpaceX提供的是通信骨干。MILNET——480颗军用低轨卫星——脱胎于Starshield,由国家侦察办公室以18亿美元合同采购。太空军将MILNET Block II列为最优先"未获拨款需求",仅该批次就需要35亿美元。当低轨星座把通信冗余做成"网络属性",对伊朗这样的目标进行电磁封锁就变成了一个可以被绕过的问题。



这三家公司的市值和估值合计超过万亿美元。它们不是在等待未来战争——它们的产品已经嵌入美军的日常作战流程中。


当AI走上战场,5个人的答案


基础设施已经搭好,钱已经到位,合同已经签完。但"AI上战场"之后,下一步往哪走?这个问题没有共识。有的只是一群站在不同位置上的人,给出截然不同的答案。


Eric Schmidt:"稀缺性结束了"


前Google CEO Eric Schmidt可能是硅谷最早也最坚定的"AI武器布道者"。2023年接受WIRED采访时,他把AI自主武器放进了历史坐标:"每隔一段时间,会出现一种新武器、一种新技术,改变一切。爱因斯坦在1930年代写信给罗斯福,说有一种新技术——核武器——可以改变战争,它确实改变了。我认为AI驱动的自主系统和去中心化分布式系统就有那么强大。"


他不只是嘴上说说。Schmidt创立了无人机公司White Stork,为乌克兰生产AI驱动的自杀式无人机——配备计算机视觉,在GPS被干扰的环境下仍能自主识别目标。2025年7月,他在乌克兰国防部长面前亲自签署了战略合作备忘录,承诺以成本价优先供应。


2026年2月,Schmidt在慕尼黑安全会议上做了一场被广泛引用的发言。他的核心论点只有一句话:"稀缺性结束了。"过去几十年,军队围绕少量精密、昂贵的平台做优化。但当一架低成本无人机能瘫痪一台价格高出数个数量级的平台时,国防经济学的底层逻辑就变了。自主地面系统、海上无人机集群、协同空中编队——都可以用商业制造线大规模生产。


他还说了一句更尖锐的话:"战争的未来是软件定义的。"传统系统无法与之竞争。


但Schmidt对AI的乐观不是无条件的。2025年10月,他在Sifted峰会上发出警告:"有证据表明,你可以拿到模型——无论开源还是闭源——然后黑掉它们,移除护栏。它们会学会如何杀人。"一个同时造无人机和发警告的人——这本身就是AI军事化最精确的肖像。


Palmer Luckey:"美国应该做世界军火库"


Anduril创始人Palmer Luckey比Schmidt更激进——也更年轻、更直白。这位靠VR头盔发家的31岁亿万富翁,在2025年的60 Minutes访谈中说了一句让主持人哑口无言的话:"我一直说,我们需要从世界警察转变为世界军火库。"


"你想让我们做世界军火库?"主持人追问。


"我觉得是的。我觉得我们必须。"


Luckey的论点是反直觉的:自主武器不是道德灾难,而是道德义务。他在TED演讲中展开了这个逻辑——当一架低成本AI无人机能精确打击一个目标,而传统方式是派一枚价值百万美元的导弹或一队可能被伏击的步兵时,哪个选项造成的附带伤亡更少?大西洋理事会的分析文章甚至以《自主武器是道德选择》为标题发表了类似论证。


Luckey还是那个推动五角大楼改名"战争部"的人。他的公关主管在博客中解释:Luckey认为"国防部"听起来"软弱而含糊",政府应该恢复冷战前的名字——战争部——因为这才更诚实地说明了它的目的:打仗。2026年1月,五角大楼真的改了名。


Henry Kissinger:"AI可能与核武器一样危险,但更不可预测"


站在光谱另一端的是已故的Henry Kissinger。这位在核武器时代构建了威慑理论的战略家,在生命最后几年把注意力转向了AI,并且越看越担心。


Kissinger反复表达的核心忧虑是:"AI的快速发展可能与核武器的出现同样具有历史后果——但更加不可预测。"他与Graham Allison合著的《通往AI军控之路》发出了更具体的警告:军事AI可能让利用图像识别技术针对非战斗人员群体变得更容易,或导致数据误判引发对民用设施的轰炸。他们称之为AI时代的"奥本海默时刻"。


但Kissinger最令人不安的判断不是关于风险,而是关于治理:"我们没有一套面向未来的威慑理论。"在AI时代,核威慑和相互确保毁灭的概念都是"未经检验的"。他在2019年就警告MIT Technology Review:AI军控也许根本不可能实现。因为与核武器不同,自主性一直在悄悄渗入武器系统,界限模糊到难以划线。


一位构建了冷战秩序的人说"我们没有理论",这可能是关于AI军事化最沉重的一句话。


Jack Shanahan:"大模型还没准备好用于全自主武器"


退役中将Jack Shanahan——JAIC首任主任,Maven的早期推动者——可能是最有资格评判这场争论的人。他的立场微妙但明确:同情Anthropic的红线,但不否认AI在军事中的必要性。


他对CDAO重组的评价是一个缩影:"不管你的意图是什么,向全军传递的信号很明确:这不是优先事项。"但当被问到Anthropic的两条红线时,他说:"大模型还没准备好用于全自主武器——这是一个所有人都知道但很少人愿意面对的事实。"他的潜台词是:不是永远不用,而是现在不行。这条线应该由谁来画、画在哪里,才是真正的问题。


DARPA ASIMOV项目:"我们不知道这是否可能,但赌注太高了"


也许最能说明问题的不是某个人的观点,而是一个项目的名字。2024年12月,DARPA启动了ASIMOV——"自主标准与军事操作价值观理想"项目。名字来自科幻大师阿西莫夫的机器人三定律。


ASIMOV的目标是创建一套可量化的基准,用于评估自主武器系统在伦理敏感场景中的表现。简单说:给"杀手机器人"做伦理考试。


项目经理T.J.Klausutis的话惊人地坦诚:"我们不知道我们想做的事是否可能,但我们知道评估自主武器系统遵守人类伦理规范的能力是一个必须进行的对话——越早越好。我们做的事情是极度理想主义的。"


但学术界已经对ASIMOV提出了质疑。一篇发表在国际法期刊上的分析指出,该项目试图把比例原则形式化为决策树,但在不可约的伦理困境面前碰了壁:如何量化摧毁一个对社区身份至关重要的宗教场所的"军事优势"?当地位取决于瞬时情境因素时,平民"直接参与敌对行为"能被简化为二进制代码吗?


与此同时,联合国《特定常规武器公约》政府专家组(CCW GGE LAWS)仍在艰难推进致命自主武器系统的规范文本。2025年12月的滚动文本草案将"全自主武器系统"定义为:"能够在没有人类操作员干预的情况下识别、选择和攻击目标的、由一个或多个武器与技术组件功能集成的组合。"


定义已经有了,约束力还没有。


尾声


所有这些争论,Schmidt的"稀缺性结束"、Luckey的"世界军火库"、Kissinger的"没有理论"、DARPA的"伦理考试"——在乌克兰战场上都已经不再是理论。


2025年底,《纽约时报》的长篇调查记录了一个令人不安的转变:大多数无人机仍需要人类飞行员。但一些新型乌克兰无人机一旦锁定目标,就能使用AI追踪并打击——无需进一步的人类参与。战场成了新武器的产房。


Schmidt在慕尼黑说得最直接:"我们不再需要推测这看起来是什么样子。乌克兰的战争表明,战争正在变得丰富、自主和算法化。"


五角大楼的AI战略备忘录则用官方语言说出了同一件事:国防部"必须使用不受可能限制合法军事应用的使用政策约束的模型"。在180天内,所有五角大楼AI合同都将纳入标准的"任何合法用途"条款。


六个人,六种答案。但他们都同意一件事:AI已经在战场上了,争论的不是"要不要",而是"怎么用"、"谁来管"、"底线在哪"。而Operation Epic Fury打响的那个夜晚,提供了一个残酷的时间戳:答案已经等不及了。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜