扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
AI在军事领域的作用日益增强,但无法取代人类的战略判断。文章通过分析AI的能力边界、实际应用、组织重构和潜在风险,强调人机协同的必要性,并警示过度依赖AI可能带来的误判和升级风险。 ## 1. AI的能力边界:预测与判断的分工 - **预测能力**:AI擅长基于海量数据预测最优行动路径,如战场情报分析和方案筛选,但无法评估目标的政治和道德价值。 - **判断能力**:人类在多重价值权衡和责任承担上不可替代,如伦敦国王学院实验显示,AI在21场核危机推演中95%选择极端对策,而人类更倾向克制。 ## 2. AI在军事中的实际应用 - **情报处理**:AI通过图像识别和自然语言处理(如Palantir平台)加速情报分析,美军“专家计划”将无人机视频分析效率提升30%。 - **作战规划**:生成式AI(如Claude)可生成多套行动方案,乌军在俄乌冲突中借助AI优化战术部署和火炮精准度。 - **杀伤链加速**:AI将美军“从感知到打击”时间从11分钟缩短至7.7分钟,但致命性攻击仍需人工授权。 ## 3. AI驱动的军事组织变革 - **新型复合体**:战争基础设施从“军事-工业”转向“军事-科技”,硅谷企业如Palantir、Anthropic成为关键防务承包商。 - **人员结构变化**:数据科学家与军官协作重构指挥链,以色列模式更将军队与科技公司深度绑定,但跨领域合作易引发摩擦。 ## 4. AI军事化的潜在风险 - **激进倾向**:AI优化单一目标可能忽略战略克制,如核危机推演中模型频繁选择先发制人。 - **数据局限性**:低频事件(如核战争)缺乏训练数据,模型在尾部风险中可靠性低。 - **对抗性干扰**:对手可通过伪装或电子战误导AI系统,美军“专家计划”曾因目标特征变化导致识别失效。 - **决策加速危机**:AI压缩反应时间可能引发“加速循环”,增加战略误判和冲突升级风险。
2026-03-27 22:57

21场AI战争推演,没有一场以妥协收场

本文来自微信公众号: 经济观察报观察家 ,作者:经观观察家


这几天,一篇名为《AI杀死了哈梅内伊》的公众号文章刷屏了朋友圈。这篇文章声称,AI完全主导了这场名为“沉默圣城”的斩首行动。在整个行动中,美国只动用了1架MQ-9B无人机和8人特种部队,但在Claude 3 Opus大模型、Palantir Foundry平台和JADC2体系的配合之下,仅用11分23秒就成功完成了对伊朗最高领导人的击杀,并实现了零伤亡、零附带损伤。


由于文章的选题紧跟时事,又成功抓住了公众对AI军事化的好奇,加之行文流畅、细节充足,因而上线不久就收获了10万+的阅读量,点赞、转发更是不计其数。因此,如果从纯粹的传播角度看,这篇文章当然可以称得上十分成功。


遗憾的是,这篇爆款文章其实是一篇彻头彻尾的爽文,其中陈述的事实存在大量错误。实际上,根据后来透露的消息,此次针对哈梅内伊的空袭是美国和以色列联合实施的,其中以色列负责具体执行,美军主要提供情报支持,因而说是美军执行了此次行动,显然并不正确。尽管具体兵力未披露,但公开报道提到投下30枚精确制导炸弹,显然远不止文中所称的1架MQ-9B无人机和8人特种部队。甚至连“沉默圣城”这一行动代号也属子虚乌有。至于“Claude将不同格式的战术指令转化为统一的自然语言,通过Palantir实现指令秒级下达”等细节,则很可能纯粹来自作者的自行脑补。


需要指出的是,虽然“AI杀死了哈梅内伊”的说法并不属实,但上述文章所陈述的核心观点——“AI正在军事领域发挥越来越重要的作用”——却已是不争的事实。例如,根据《华尔街日报》、路透社等西方主流媒体的报道,在此前突袭委内瑞拉、抓捕马杜罗的行动中,美军就使用了Claude模型和Palantir平台。而在此次针对伊朗的行动中,这些AI工具也发挥了重要作用,只不过它们的作用并没有像《AI杀死了哈梅内伊》中所描述的那样神乎其神,其地位也并非主导性的。


那么,在军事领域,AI到底能做什么、不能做什么?现在,它们究竟在哪些领域发挥了作用?随着AI的使用,战争的模式以及与战争相关的组织会发生怎样的变化?将AI应用于军事,又会滋生哪些潜在风险?在军事领域,人与AI应当保持怎样的关系?关于这一切,且让我们慢慢说来。


AI的能力边界


要理解AI在军事中的真实地位,就必须先区分两种能力:一种是预测能力(Predictive Capacity),另一种是判断能力(Judgmental Capacity)。


所谓预测能力,是指系统在给定数据与目标函数的条件下,对未来状态或最优路径进行概率推断的能力。这种能力一般需要基于历史或实时数据获得,并依赖统计模型加以训练。从本质上讲,它是一种工具性能力,关注的问题主要是“在既定目标下,哪种行动路径成功概率最高”,而不涉及“这个目标是否值得追求”。所谓判断能力,则是在多重价值冲突、不确定政治后果与责任承担框架下,对目标本身进行权衡与选择的能力。在这两种能力中,AI在预测能力上更具优势,而人类在判断能力上更具优势。这种能力的比较优势,决定了AI在军事领域的使用边界。


在关于战争的叙事中,“料敌制胜”始终被置于重要位置。要精准“料敌”,就需要搜集并分析大量信息。在传统战场上,信息来源相对匮乏,因此搜集情报最为关键,进一步的分析和预测只能基于有限的“小数据”。现在的问题不是情报太少,而是情报太多。卫星、无人机、雷达、通信监听系统、网络监控平台每天产生的数据量以PB(千万亿字节)计。然而,随着情报的爆炸,对这些数据进行分析本身成为难题。比如,美国国防部曾公开承认,现在仅无人机视频流的分析,就需要数千名分析员轮班处理。人工处理不仅成本高昂,而且极易疲劳。研究显示,在长时间监视任务中,人类分析员的识别准确率会显著下降,尤其在重复性高、目标稀疏的环境中,更容易出现错误。


在这种背景下,AI的价值便凸显出来。计算机视觉、自然语言处理与异常检测等模型可以在海量图像与通信数据中快速标注、筛选并识别异常活动迹象。这些能力并不神秘,本质上是对统计相关性的计算,但在规模和速度上远超人类极限。当AI将海量信息加总、整合之后,就可以对战场走向形成更精准的预测,并迅速在众多备选作战方案中筛选出最优方案。战略学者安东尼·金(AnthonyKing)在其新作《AI、自动化与战争》中指出,AI在军事中的真正意义首先在于“规模效应”——它扩展了军队的认知半径,使原本难以管理的信息流变得可处理。


然而,即便拥有强大的预测能力,AI仍不足以取代人类的战略判断。


一方面,战争从来不是封闭规则下的最优解问题,而是开放结构中的价值选择。围棋比赛有清晰的胜负标准,金融交易有既定的市场规则,但战争的目标本身往往处于不断变化之中。一个国家发动军事行动时,所考虑的并不仅是战术成功概率,还包括联盟关系、国际舆论、国内政治后果以及长期信誉。算法可以在既定目标函数下寻找最优路径,却无法决定目标本身是否值得追求,更无法承担由此产生的政治与道德后果。战略判断必须涉及责任承担。从这个角度看,战略判断不是单纯的计算行为,而是一种制度性决断,因此AI难以简单取代人类的判断。


实际上,最近的一些研究也印证了这一点。伦敦国王学院学者肯尼斯·佩恩(Kenneth Payne)发表了一项研究:他将三款最先进的大模型——Claude Sonnet 4、GPT-5.2和Gemini 3 Flash——分别模拟为核武国家的最高决策者,在冷战式核危机沙盘推演中互相对抗。基于21场对局的推演结果,佩恩发现,这些“硅基决策者”在面对危机升级时特别容易采取极端对策:在95%的对局中,至少有一个模型选择动用核武器,而没有任何一次对局出现投降或真正的妥协。从兵棋推演的胜负角度看,AI的选择或许自洽,但在现实世界中,恐怕没有人类战略家会作出这样的决策。


另一方面,即便从纯粹的预测能力来看,AI在战争场景中的适用性也面临结构性限制。AI能够精准预测的前提,是存在大量可重复、可训练的数据。然而战争中的许多关键场景恰恰是低频、高风险、不可重复的事件。例如,大国之间的全面战争在现代历史上屈指可数,核武器的实际使用更只有两次记录。在这种环境下,模型几乎没有足够的历史数据来学习“什么是正确的战略选择”。统计方法在常见模式上表现出色,却在尾部风险面前异常脆弱,而战略决策往往正是尾部决策——是否升级冲突、是否越过核门槛、是否承担不可逆后果,这些问题本身就超出了常规样本的范围。


更复杂的是,战争中的数据不仅稀缺,而且往往被刻意扭曲。对手会主动制造假信号、实施电子干扰、伪装目标,甚至专门设计对抗性信息误导算法。在类似情况下,模型所依赖的历史数据可能在新的冲突环境中迅速失效。


基于以上分析,可以看出,在战争中,AI更适合扮演“认知增强工具”的角色,而不是“战略主体”。战略主体必须具备责任承担能力,而责任属于政治共同体。因此,至少在现阶段,AI难以完全“主导”战争,至多只能发挥执行与辅助功能。


需要指出的是,在现代主要军事实体中,这种能力边界已经以制度形式加以固定。例如,北约在2021年通过的《人工智能战略》提出“有意义的人类控制”(Meaningful Human Control)原则,要求AI系统必须可追溯、可解释,无论自动化程度多高,在目标选择与武器释放等关键决策上,都必须保留人类判断空间。美国国防部的《自动化武器系统政策》(Autonomyin Weapon Systems,编号Directive 3000.09)也明确规定,自主武器系统的设计必须允许指挥官和操作员在使用武力时行使适当程度的人类判断,而不能完全脱离人类控制。尤其在涉及杀伤性行动,即选择和攻击目标时,系统必须经过严格评估和认证,确保符合“适当的人类判断水平”。从制度层面看,AI完全主导战争、自动扣动扳机,在这些军事实体中并不被允许。


AI在军事体系中的作用


在整体了解了AI的能力边界及其与人力的分工之后,我们进一步把视线从抽象能力转向具体应用,来看AI究竟如何嵌入指挥链、情报网与作战流程之中。


从整体上看,现代战争可以拆分为情报与监视、规划与调度、目标识别与打击,以及网络与系统防御四个层级。在每一个层级中,AI都正在发挥越来越不可忽视的作用。


(一)情报与监视


在情报层面,算法最早显示出实际价值。如前所述,现代战争的第一挑战已不再是获取情报,而是处理情报,而AI在处理情报方面具有先天优势。正是在这种背景下,AI技术得以大规模进入军事情报处理领域。


以美国为例,早在2017年,美军就通过“专家计划”(ProjectMaven)等项目引入机器学习,对无人机视频与卫星图像进行目标标注与模式识别,从而将海量监控视频转化为可操作的信息。在这一过程中,Palantir协助美国国防部整合原本分散于不同来源的数据,并对其进行可视化和自动分析,帮助构建实时态势感知图,使美军对情报的利用效率获得显著提升。近年来,美军进一步引入Anthropic的Claude等AI模型,使其成为新的“智能中枢”。通过与Palantir数据平台的深度整合,Claude被部署到美军的机密数据流中,用于实时处理海量情报、生成情境模拟和战场预测。公开报道显示,这种集成不仅让美国国防部能够在“数据湖”环境下自动重构情报流,还使关键线索在竞态态势中的反馈更加迅速高效。


(二)作战规划与调度


如果说情报层解决的是“看见”,那么规划层解决的则是“如何行动”。如今,AI在规划中的价值正从简单工具向系统支持演进。以Palantir的“Gotham”和“MavenSmartSystem”为例,它们可以整合来自卫星、无人机、雷达与地面报告的数据,再通过算法模型输出备选行动方案供指挥官参考。在俄乌冲突中,Palantir曾帮助乌军在战术部署和火炮射击精准度上取得优势,通过快速计算方位与弹道,提高打击效率。


近年来,以Claude为代表的生成式AI开始被广泛应用于规划模型的构建与场景演练。作为大型语言模型,它不仅可以在受控系统中整合情报报告、生成摘要、梳理关键风险点,还能在既定约束条件下生成多种行动方案供指挥官参考。这就如同为决策人员配备了一名得力的作战参谋,使其能够在有限时间内审视更多行动路径,作出更高效的决策。


(三)杀伤链加速


所谓“杀伤链”(Kill Chain),是指从获取战场信息到实施打击的完整流程,包括发现目标、识别目标、决策打击、执行与评估等环节。在每一个环节中,AI都可以显著提升效率,压缩运作时间。具体而言,在“发现”阶段,AI可以通过图像识别与异常检测实现对海量数据的快速筛选;在“识别”阶段,AI可以整合多源信息,提高确认效率;在“决策准备”阶段,AI能够生成优先级排序和行动选项,缩短参谋分析时间;在“评估”阶段,AI则可以自动比对打击前后图像,快速判断效果。通过这一系列工作,可以大幅压缩杀伤链的时间周期,提高打击窗口的利用效率。


已有不少研究验证了AI在杀伤链加速过程中的作用。例如,美国陆军学院发布的报告《以人工智能驱动的数据管理构建任务式指挥的非对称优势》(Mission Command’s Asymmetric Advantage Through AI-Driven Data Management)显示,在使用AI辅助决策系统处理传感器数据、识别有效目标并输出作战建议后,美军“从感知到打击”(sensor-to-shooter)的时间从原本的11分钟缩短至7.7分钟,缩减幅度达30%。


需要指出的是,在这一层级中,AI的作用常被外界误读为自动化武器系统,尤其当算法输出与实际打击结果高度相关时更是如此。但正如前文所述,大多数国家的现行制度仍规定这类系统必须经过人工授权,尤其在涉及致命性攻击时更是如此。从这个意义上看,AI虽然加速了杀伤链,却并未真正主导杀伤链。


(四)网络战与自动防御


在现代战争中,网络战的重要性空前强化,因此这里将其作为独立环节加以讨论。


众所周知,网络空间攻防具有高度自动化特征,网络防御系统必须在毫秒级响应恶意活动,人工干预已难以跟上节奏。在这种情况下,AI在该领域开始发挥越来越重要的作用。许多国家的网络司令部已利用机器学习模型扫描海量网络流量,实时发现异常并隔离风险节点。


例如,美国网络司令部正在推广“持续交战”(persistentengagement)战略。这一战略利用自动化分析工具对全球网络空间中的威胁行为进行实时识别与标记。一旦系统检测到异常流量,例如指挥控制服务器的可疑通信,便可自动触发隔离机制或向安全团队发出高优先级警报,从而将响应时间从人工排查的数小时压缩至接近实时。


通过上述四个层级的具体例子可以看出,AI在军事体系中的嵌入正在日益深化,其发挥的作用也在持续扩大。不过,从本质上讲,AI的角色仍然是支持与辅助,而非取代决策主体。至少在现阶段,战争的决策方式仍然是人机协同,而非AI的独立决策。


AI与战争组织的重构


值得注意的是,当人工智能逐步嵌入情报、规划与执行环节时,变化不仅发生在技术层面,更发生在组织结构层面。安东尼·金在《AI、自动化与战争》中提出,当代军事变革的核心,并非某种“超级武器”的出现,而是军队正在形成一种新型的“军事—科技复合体”。如果说冷战时期的“军事—工业复合体”围绕坦克、战机与导弹展开,那么今天的核心资源则是数据、算法与软件平台。战争不再只是钢铁与火药的竞争,而越来越成为计算能力与组织协同能力的较量。


这种结构变化在美国表现得尤为明显。过去十年间,五角大楼与硅谷之间的合作显著加深。美国国防部设立DIU等创新机构,并将数十亿美元预算投向数据分析与自动化系统。与此同时,Palantir、Anduril、OpenAI、Anthropic等公司逐渐成为重要防务承包商,它们提供的并非传统武器,而是数据融合平台与智能分析工具。资金流向的变化本身,就说明战争基础设施正在发生转型。


更深层的变化体现在人员结构上。传统军队以作战兵种与工程兵种为核心,如今却越来越依赖数据科学家与算法工程师。许多军事创新项目需要军官与程序员并肩合作,前者提供作战经验,后者设计模型架构。这种合作改变的不只是工具,更是组织逻辑。


以色列的模式则更加紧密。其军方长期与本土科技企业保持深度互动,许多初创公司由退役军官创办,军事单位本身成为技术孵化场。这种结构使算法能够在实战环境中快速迭代,但也意味着军事与商业之间的边界更加模糊。在这种体系中,算法只是系统中的一个模块,其效力高度依赖组织流程、测试机制与持续维护。


这种“人机团队”模式重新划分了战争分工。分析员不再只是观看屏幕,而是监督模型输出;指挥官不再只依赖经验,而是评估算法建议。战争由此从线性指挥链条转向更具网络特征的协作结构。通过这种分工重组,组织可以在保持人类决策权的前提下,提高整体运行效率。


不过,这种组织变革并非没有成本。一方面,军人与科研人员在作风与理念上存在差异,跨界合作难免产生摩擦。2018年,谷歌部分员工拒绝参与“专家计划”的图像识别项目,最终公司中止与军方的相关合作。另一方面,新式分工使系统复杂度显著上升,使决策过程更依赖数据链条与模型稳定性。一旦数据链条中断或模型失效,整个体系都可能受到严重冲击。


AI带来的风险与误判


到此为止,我们已经较为清晰地说明了AI在战争中所发挥的作用,以及它如何推动与战争相关的组织变革。下面,我们来探讨一个更为敏感的问题:当AI更多地介入军事决策流程时,究竟会带来怎样的风险。


关于这一点,我们最直观的印象或许来自《终结者》这样的科幻影片——AI突然觉醒意识,瞬间接管核弹操作系统,向各国发动核打击,人类就此灭绝。幸运的是,至少到目前为止,我们还不必为AI觉醒而担忧。但即便如此,AI介入军事系统所带来的风险依然不容忽视。具体而言:


第一重风险:算法理性与战略理性之间的结构性张力


如前所述,AI的运作逻辑是优化。在给定目标函数与约束条件的前提下,它寻找成功概率最高或成本最低的路径。然而,战争决策并非单一目标最大化问题,而是多重价值之间的权衡。战略判断往往涉及军事实力、国际法约束、联盟信誉、国内政治压力以及长期地缘格局。这些变量难以被压缩为单一指标,因此AI在决策时,可能表现出人类所没有的激进倾向。


以此前提到的肯尼斯·佩恩的兵棋推演实验为例。如果仅以“最大化胜率”为目标,那么像实验中的AI那样先发制人、率先对对方使用核武器,确实可能是模型意义上的最优选择。然而,现实中的战略理性往往强调克制与模糊性。包括古巴导弹危机在内的多次危机都已表明,战略层面的危机处理更依赖延迟决策与信号管理,而非立即采取“最优”军事行动。在这种情况下,如果决策者过度依赖AI模型给出的建议,就可能无意中采纳一种过度清晰、过度激进的路径,从而使自身陷入巨大风险。


第二重风险:数据稀缺与尾部风险


AI能力的发挥高度依赖数据,但战争的许多关键场景恰恰属于数据稀缺领域。例如,核威慑逻辑建立在极少数历史经验与大量理论推演之上,而非海量可重复样本;在斩首敌国元首之后,该国军方的后续反应更只有极少历史案例可供参考。在这种情况下,即便模型可以模拟数百万次情境,其基础假设仍来自有限历史数据。一旦现实环境发生结构性变化,例如技术突变或联盟格局重组,模型预测便可能失效。此时,如果轻信AI建议,就可能导致严重误判。


第三重风险:对抗环境中的误导与信息污染


战争环境不仅数据有限,而且高度对抗。对手会主动制造假信号、伪装目标、实施电子干扰,甚至设计对抗样本专门误导识别系统。在图像识别领域,研究已表明,微小扰动即可使算法误判目标。在战场上,对手完全可能利用这一特性进行欺骗。


例如,美国在“专家计划”早期就发现,当无人机识别系统依赖某种视觉特征识别装甲车辆时,对手可以通过改变涂装或增加伪装装置,降低模型识别准确率。而在网络战环境中,攻击者更可以制造异常流量以分散防御系统注意力,诱导其作出错误响应。


第四重风险:决策节奏压缩带来的升级风险


AI最显著的影响之一,是对决策时间的压缩。但与此同时,它也大幅压缩了决策者的反应时间。如果这种影响仅限于战术层面,问题尚可控;但若发生在战略层面,在高度紧张的安全环境中,AI建议可能加剧对情势的误判,从而触发连锁反应。从这个意义上看,速度优势在战术层面或许有利,却可能在战略层面增加不稳定性。若战争双方都依赖AI自动化系统提升响应速度,形成“加速循环”,误判的扩散速度将显著提高。


除了上述风险之外,AI军备竞赛同样值得关注。历史上,核武器竞赛因误判与恐惧加剧紧张局势;而今天,如果各国夸大对手在AI领域的能力,误以为对方已经实现高度自动化作战,便可能在缺乏充分测试的情况下仓促部署自动化系统。当这些未经验证的模型进入最为敏感的军事领域,其风险将成倍放大。


综合以上分析可以看出,AI广泛进入军事领域,可能引发风险结构的显著变化。算法理性可能偏离战略理性,数据稀缺削弱预测可靠性,对抗环境降低模型稳定性,时间压缩放大升级风险。如果制度准备不足,这些风险还会被进一步放大。从这个意义上说,当我们将AI引入军事领域时,如何有效管控它、确保其始终服从人类指挥,依然是一项重大挑战。


结语


随着AI技术的发展与广泛应用,它正在改变战争的运行方式:信息处理更快,决策节奏更紧,组织结构更加依赖算法协同。但战争的本质并未改变,它依然是人类政治的延伸。


在战术层面,自动化可以提升效率,但“扳机”必须牢牢掌握在人类手中;在战略层面,必须保留“有意义的人类控制”,算法可以预测概率,却无法承担法律责任与历史后果。


AI是能力放大器,既放大效率,也可能放大错误与风险。真正需要警惕的,并非算法是否足够聪明,而是人类能否在高速技术环境中依然保持理性与克制。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: