扫码打开虎嗅APP
本文来自微信公众号: 数字经济发展评论 ,作者:数字经济发展评论
人工智能不仅是产业议题,也是国家安全与国际权力的关键变量。各国在高度不确定的技术与地缘政治环境中,试图确立战略定位与竞争优势。
美国拜登政府时期的国家安全顾问沙利文撰文认为,人工智能发展并非只有“唯一未来”,而应基于“超级智能或有限智能”、“技术易被追赶或难被追赶”、“中国竞速或不竞速”这3大维度,构建8种“可能世界”的分析矩阵。他认为,美国制定人工智能战略时,既要关注前沿能力建设、能源与制造基础等长期竞争力,也要强调风险管理、盟友协同等工具组合运用,使美国相关战略在高风险世界中保持韧性。
作者:Jake Sullivan|美国前国家安全顾问;Tal Feldman|耶鲁大学法学院博士研究生
原文标题:Geopolitics in the Age of Artificial Intelligence
原文来源:外交事务
原文编译:数字经济发展评论
每个人对人工智能都有自己的判断。有人认为,人工智能正朝着超级智能方向发展,这种超强AI将带来前所未有的颠覆性变革。也有人认为,AI虽能提升生产力、推动科学发现,但其发展路径可能更加不均衡,效果也未必那么戏剧化。
人们对于技术突破的可复制性也存在分歧。一些人认为,竞争对手会迅速跟进、快速模仿。另一些人则认为,后续追赶会变得更慢、成本更高,先发者将获得持久优势。
许多人确信,中国决心在前沿领域赶超美国。但也有人认为,中国更专注于现有技术的落地应用,同时借鉴、复制美国的尖端创新成果。
每一个看似笃定的政策主张,背后都隐含着对上述趋势的某种预设。强调前沿创新的人,通常认为技术突破具有累积性且难以复制;而主张向海外推广美国体系的人,则往往持相反观点。一旦这些前提假设出错,以此为基础制定的战略就会浪费资源,甚至可能让美国丧失领先地位。
把所有赌注押在单一情景上看似诱人,实则十分危险。美国不需要再多一个关于人工智能时代的预言,它需要一套在不确定性中做决策的方法——一套能让美国在多种可能的未来中保持优势,并随AI时代演进动态调整的方案。
八种“可能世界”
无论人工智能最终走向何方,美国战略都应先明确成功的定义:利用人工智能强化国家安全、实现广泛繁荣,并在国内外维护民主价值观。当AI发展与公共利益保持一致时,便能推动科技进步、改善民生,助力应对公共卫生、发展议题与气候变化等全球性挑战。美国完全可以在负责任地管控AI真实风险的同时,实现这些目标。
关键在于如何实现这一目标。为了厘清隐含假设、针对不同未来情景检验策略,研究AI战略的人可以借助一个简洁框架。
它围绕三个核心问题展开:
人工智能的发展是会加速迈向超级智能,还是长期处在有限、渐进的水平?
技术突破容易被复制,还是追赶难度大、成本高?
中国是真正在争夺前沿领先地位,还是基于“后续可模仿、可商业化”的思路,将资源投向其他领域?
每个问题都存在两种合理可能,将其组合便形成一个三维矩阵——一个包含八种可能世界的2×2×2分析框架。
第一个维度,是人工智能发展的本质特征。
一端是超级智能:远超人类水平、能够递归自我优化、持续自主学习、不断创造新事物的人工智能。
另一端则是有限且不均衡的智能:这类AI在科研、经济、军事等领域仍有亮眼应用,但不会带来历史性的彻底断裂。说它“有限”,是因为其进步最终会遇到瓶颈,至少在一段时期内如此;说它“不均衡”,是因为它在数学、编程等领域表现突出,却在判断力、创造力或部分物理应用上存在短板。
如果发展方向是超级智能,哪怕微弱的领先都可能成为决定性优势,足以支撑对前沿领域的大规模投入;如果AI发展是有限且不均衡的,那么把无限资源投入“登月式”项目,就不如优先推动技术落地与普及更有意义。
第二个维度,是追赶难度,也就是“快速跟进”问题。在一种情景中,追赶十分容易:通过间谍活动窃取模型参数、在普通硬件上复现创新或采用模型蒸馏(让小模型模仿大模型)等方式,都能快速复制突破成果。
在另一种情景中,追赶则极为困难:前沿能力依赖完整技术栈——专用硬件、机构经验、庞大且独特的数据集、活跃的人才生态,以及诸多难以预见的结构性条件。
模型或软件层面或许容易复制,但训练与推理所依赖的硬件、基础设施和人力资本的质量与规模,却很难复刻。当追赶容易时,竞争重心更多转向扩散:抢先把美国体系嵌入海外,阻止对手推广其体系。
当追赶困难时,扩散依然重要,但战略会更强调守护前沿能力的根基——即那些能让技术进步持续累积的要素与专业能力。贯穿这一维度的核心问题,并非AI是否会扩散,而是扩散速度、扩散对象与扩散条件。
第三个维度,是中国的战略取向。一端是中国积极争夺前沿地位,投入巨资开展大规模模型训练、建设竞争型实验室。另一端则是中国并未全力竞速,而是优先推动技术应用与普及,偶尔推出大模型展示进展,以此引导美国聚焦前沿。
中国未必有一套完全连贯的国家计划,国内不同机构行为也存在差异,但从体制层面看,其整体行为仍更接近“竞速”或“不竞速”中的一种。本框架以中国为焦点,是因为中国当前是美国在前沿领域的主要竞争对手。若其他重要力量出现,矩阵也需相应调整。
现实当然比任何图表都更复杂。我们可以加入更多维度,每个维度也可视为连续光谱。中国可能在前沿研发上采取中间路线,追赶难度也可能处于中等水平,AI能力可能极强但仍有边界。
尽管用二元结果便于战略规划,但决策者仍可以概率视角沿各维度思考,兼顾中间状态。例如,中国部分投资策略,提升了其紧随美国甚至意外缩小差距的可能性。
最后,决策者自身的选择,至少在一定程度上会影响AI未来的走向。美国的行动可以让追赶变得更难或更容易,尤其体现在出口管制的收紧或放松上。
中国是加速还是放缓步伐,一定程度上取决于其对AI发展速度与追赶难度的判断。不过,将不确定性纳入政策框架,至少能迫使决策者直面自身假设,为多种未来做准备,而非只押注单一情景。
发展的政策工具与作用机制
在展开具体规划之前,有必要先厘清两个问题:究竟是谁在制定美国的人工智能战略?美国又拥有哪些工具,能够塑造人工智能的发展方向?毕竟,美国政府并不掌控国内顶尖实验室,也不决定其研发方向;它无法像中国那样设定生产目标、引导投资流向。但即便如此,美国的政策选择与政策信号,仍会对AI生态产生显著影响,哪怕这种影响是间接的。
美国的许多政策,实际上构成了对国内AI产业的隐性补贴。出口管制与投资限制,阻碍了中国获取先进芯片与美国资本,通过限制美国及其盟友企业的最强竞争对手、引导私人资本流向,间接提升了本土企业的价值。
市场预期会进一步放大这种影响。当高层官员将AI领导力列为国家优先事项时,企业与投资者便会预期未来将出现更有利的规则、更简化的行政流程,以及与政府更紧密的协作。这些预期会影响企业的风险承担水平与投资者的布局方向,其作用甚至可能比国会拨款更为关键,毕竟拨款落地往往更为缓慢。
美国的直接支持则进一步强化了这些信号。研发税收抵免、基础设施投资、联邦研究资金,以及行政部门在许可、移民等方面的一系列决策,共同影响着AI能力的发展地点与方式。
与此同时,随着各部门大规模测试与采用AI系统,联邦采购与合作本身,也成为一种重要的需求信号。如果技术扩散与前沿突破具备同等战略意义,美国可能需要动用更多现有工具,为合作伙伴提供可替代中国AI体系的可信方案,并通过开发金融公司等机构,向市场机制难以覆盖的地区提供资金支持与部署服务。
这也包括思考美国AI体系应当保持多大程度的开放与封闭:美国必须在严格管控的专有模型,与推广开源方案之间做出选择,以此影响全球技术采纳格局。
尽管如此,私营部门仍是这场竞争的核心引擎,但其激励目标并不总是与国家利益完全一致。美国许多顶尖实验室将重心押在超级智能上,把资源大量投入大规模训练,而非安全部署或广泛普及。部分机构更愿意在海外建设和运营大规模训练基础设施,以利用更宽松的监管、更低廉的能源与额外资金。如何平衡这种张力,将是美国面临的最艰巨任务之一。
美国的优势从来不在于中央计划,而在于运用多种工具,将分散化的体系导向共同目标:创造政策激励、引导市场预期、推动资本服务国家战略。如何利用这些工具维持美国在AI领域的领先地位,取决于最终出现的未来图景。
在一种情景下合理的政策,在另一种情景下可能适得其反。但大多数未来情景都存在几项共同优先事项——构成国家实力的核心要素,这些要素在绝大多数AI未来中都不可或缺,只是重要程度有所不同。
领先的基础与关键问题
算力仍是人工智能能力的基础。对芯片、数据中心及其运行所需能源的掌控,决定了谁能训练和部署推动技术进步的核心系统。机器人技术与先进制造,则将这种数字能力延伸至物理世界,把智能转化为生产能力。
没有坚实的工业与科研基础,这一切都无从谈起。美国需要基础研究,既要支撑现有技术发展,也要探索AI开发的新路径;需要本土人才,也需要吸引全球人才;需要大规模制造能力,也需要保障系统运转的能源供给。尤其值得注意的是,一旦AI企业面临电力供应不足,这一瓶颈就可能限制整体发展进度。
风险管理常被看作一种约束,因为它可能放缓部署速度、限制试验空间,但它实际上能带来稳定性与合法性,避免竞争因事故、AI被恶意滥用,或部署人类难以可靠控制的系统而走向失控。同样重要的是,确保安全机制与国内政治支持能够快速跟进,与技术能力提升保持同步。
另一个关键问题是扩散——人工智能系统在海外的传播与应用。广泛落地的系统,将决定由谁的价值观与治理理念定义数字秩序,哪个国家能从中获得最大经济与战略收益。中国已将AI治理视为一项战略出口,借助自身系统、标准与监管模板,影响其他国家的技术使用与监管方式。美国在理念上认同扩散的重要性,却尚未在实践中充分证明这一点。
美国的盟友与伙伴,是拼图中最后也是关键的一环。与可信伙伴携手合作,可以放大美国的能力,提升由民主体系而非威权体系塑造AI时代格局的可能性。
第一世界
这三大维度分别是:超级智能与有限智能、技术易被追赶与难以追赶、中国全力竞逐前沿与发展停滞。三者组合可形成八种未来情景,政策制定者需要为矩阵中的每一种情景,匹配相应的合理政策方案。
首先来看一种情景:超级智能可以实现、技术难以快速模仿且中国正高速追赶前沿。这一世界类似军备竞赛与太空竞赛的叠加:一场争夺先发优势的激烈博弈,赌注极高。
率先开发并掌控最先进系统的一方,将获得持久的技术、经济与军事优势。极端观点认为,一旦递归自我优化启动,领先优势会自我强化,后续追赶不仅困难,甚至几乎不可能实现。本框架将这种可能性视为“难以追赶”的极端情况,而非基准情景,并以此检验策略。
在这种情况下,美国可能不得不考虑推行“曼哈顿计划2.0”:动员公共资源、强化政府与产业界高度协同、采取类似军工项目的保密措施,甚至可能需要授予新权限或扩大1950年《国防生产法》适用范围——该法案赋予总统为国防目的规范工业活动的广泛权力。
这类举措将迫使决策者做出选择:是将研发集中于单一主体以实现严格安全监管,还是保留多个前沿实验室之间的竞争,依靠并行试验更快取得成果。
在此情景下,美国会将出口管制收紧到可执行的极限。半导体供应链的每一层都将受到更严格监管,与盟友的协调对规避行为至关重要。模型参数(决定系统行为的数值)、训练数据与数据中心,都需要加强防盗与防破坏保护。
中美在风险管理上的合作,将围绕“避免人类失去对超级智能控制”这一共同利益展开。技术进展越快,事故与意外升级的风险就越高,自主系统之间可能出现双方都无法完全预判的互动。
一个合理举措是达成相互克制协议,在限制技术开发的同时,中美各自建设能够跟上节奏的安全系统。但鉴于双方互信不足、核查难度高,且打破协议加速推进存在潜在收益,这类安排十分脆弱,难以持续。
由于追赶难度大,且中国未必能成功,美国可能迎来一个短暂的时间窗口,率先实现超级智能。届时美国将面临抉择:是否采取措施阻止其他国家达到同等水平。
相反情景同样重要:如果中国率先突破,美国需要做好应对与止损准备。如果两大国先后跨过门槛,则需要通过明确的防护措施、沟通机制与行为克制降低风险,避免局面失控。
第二世界
在另一个世界里,超级智能仍可实现,追赶新技术依旧困难,但中国并未在前沿领域全力竞速。这一情景将让美国迎来单极AI时刻,核心问题不再是如何赢得竞赛,而是如何掌控与管理自身领先优势。
在产业层面,人工智能可以更稳健地发展。研发投入虽需保持高位以实现超级智能,但不必启动曼哈顿计划式的举国动员。美国必须维护前沿安全,保护模型参数、算力与关键人才,同时保持创新生态的动态活力。值得注意的是,随着市场成熟、部分AI企业倒闭,美国应禁止中国收购其知识产权。
这种未来会让其他许多国家感到不安。如此巨大的变革力量集中于一国,会引发外界对美国是会负责任地领导,还是追求狭隘国家利益的质疑。美国的任务是建立并维护民主AI秩序,塑造外界对美国前沿领导力的信任。
这与1945年美国面临的任务相似,但在当前政治与地缘格局下难度更大。在超级智能边缘没有直接对手的情况下,美国可以更自主地实施单方面克制,在确保安全的前提下加快前沿发展。技术扩散将具有战略性与选择性:在防止无序扩散的同时,扩大盟友与伙伴的安全接入权限。
在国内,美国可以专注于构建新的社会契约。如果AI带来巨大的生产力与能力提升,挑战将转向如何将成果转化为广泛繁荣,同时增强社会对AI冲击的适应力。合理监管将在保障安全与问责的同时,不阻碍技术进步。
当然,这种单极时刻并非永久。如果美国实现超级智能,中国很可能瞬间转入竞速模式,其他大国也不会长期置身事外。美国必须决定如何应对,如何利用自身地位塑造技术扩散的方式与范围。
第三世界
第三种可能是全面扩散的世界:超级智能可以实现,追赶容易,且中国正快速追赶前沿。突破会快速出现,也会快速被复制。在这样的世界里,美国的核心任务不再是遏制,而是韧性建设——提升国家网络、生物安全、基础设施与防御系统,抵御各类AI威胁。
“全力竞速”还是“快速跟进”,将成为战略选择。如果突破不断涌现,率先抵达前沿的优势可能短暂,但哪怕只是短时间落后,也会形成显著脆弱窗口。如果技术持续快速迭代,先发优势会更加重要,因为先行者能率先登上能力曲线。最优路径可能是防御性竞速:保持高研发投入与前沿能力,同时叠加新的安全层级与韧性建设。
创新生态本身将面临压力。单一“国家冠军企业”几乎没有安全价值,因为其成果会迅速被复制;而如果投资者看到创新快速被模仿、利润消失,就难以维持大量私营企业投入尖端技术。
随着超级智能走向商品化,许多企业将会倒闭,那些通过创新构建更好商业模式的企业能够存活,而单纯追求更好AI模型的企业则可能失败。
风险管理的重要性进一步提升,不仅要应对技术失控与误判,还要管控扩散风险。为减轻非国家行为体与流氓国家无序扩散带来的威胁,美国必须与盟友及中国建立新的全球合作层级,遏制或阻止不负责任的主体获取相关技术。尽管中美联合克制协议仍难以执行,但双方对这一情景危险性的共识,可能让协议更具可行性。
出口管制仍有一定作用,但其效果取决于“追赶容易”的具体原因。如果中国开发出可行的算力替代方案,芯片管控基本失效,竞争将转向全球部署。如果追赶容易源于模型蒸馏、技术窃取或新算法快速传播等其他因素,芯片管控的效果会弱于其他情景,但仍可作为拖延时间、减缓扩散的工具。
第四世界
如果超级智能可以实现、追赶容易、且中国不参与前沿竞争,美国将迎来一个短暂的单极窗口。美国可以率先实现超级智能,但其他国家一旦启动竞速,也可能迅速跟进。不过这条路风险很高:中国可能秘密竞赛,或其他行为体可能超越美国能力。
如果美国继续参赛,就必须决定如何利用领先优势。它可以借助这一狭窄窗口,阻止其他国家进入前沿领域;也可以利用这段短暂的绝对领先期,强化自身与盟友防御,推动建立保障机制,避免技术失控与无限制扩散。
由于中国不参与前沿竞速,它很可能采取另一套策略:将美国突破商品化,通过低成本AI出口把中国系统嵌入全球,并借助机器人技术实现AI与现实世界的连接,这会让扩散成为核心竞争。
美国需要投资机器人与先进制造,把数字突破转化为实体与工业应用,并在中国填补空白之前,果断向海外推广安全、民主的系统。
第五世界
在接下来一组情景中,超级智能不再是现实目标。在这些情景里,技术突破难以追赶,且中国正快速迈向前沿。美国与中国将陷入一场激烈的创新竞赛,赌注虽高,但低于超级智能情景。研发投入虽不必达到紧急动员水平,但依然重要,并需通过长期产业政策支撑,打造耐用的机器人与先进制造能力。
决策者必须注意:市场常常误判转折点——投资者可能在AI释放全部潜力前就恐慌性宣称“泡沫破裂”,也可能在技术成熟后仍过度投入。风险管理应减少对“失控”的担忧,更多聚焦生物、网络或军事领域的滥用风险。
扩散与部署的重要性将显著提升。美国必须推动AI在国内工业与军队的积极应用,并迅速向海外推广美国及其盟友的系统。即便是非前沿模型,只要整合度高、成本低、配套基础设施完善,也能占据巨大市场份额,这一点中国早已深有体会。
模型与数据中心的安全依然重要,因为追赶困难,前沿模型对保障美盟系统安全仍有关键作用,但首要任务是尽早让强大系统广泛落地,建立用户熟悉度与依赖性,抢占中国替代方案之前的市场。出口管制仍有价值,可以放缓中国进度,但美国必须谨慎,避免阻碍海外部署。
第六世界
在一个没有超级智能、追赶困难、中国不参与前沿竞速的世界里,美国将保持稳固领先,并拥有一段宝贵窗口期来巩固优势:利用AI开发新药、扩大教育供给、振兴滞后产业。
中国未必完全退出AI领域,但会大幅削减对前沿模型开发的投入,实际上退出前沿能力竞赛,转而专注于应用落地与美国技术突破的商业化。与此同时,美国可以专注于安全、问责,确保AI发展成果转化为广泛繁荣。
在国际上,美国将有空间塑造一个充满AI技术的积极世界愿景,邀请合作伙伴加入其AI生态,提供模型、数据与基础设施访问权限,但核心要素仍保留在国内。目标不是尽可能快、尽可能广地分散美国系统,而是确保扩散的系统安全、符合民主价值观。
第七世界
倒数第二种情景:AI发展有限且不均衡、追赶容易、中国全力竞速前沿。在这个世界里,中美陷入一场扩散竞赛。由于突破容易被模仿,没有国家能长期垄断智能优势,胜负取决于谁比对手更快开发与商业化的技术。
私人资本将更难引导。如果技术容易复制,投资者很可能因看不到可保障的回报而投入不足。但美国仍必须参赛:最先广泛传播的系统将塑造全球环境,并体现美国价值观。而且由于中国处于竞速状态,美国需要以同等甚至更快速度创新。
扩散不仅是AI战略的组成部分,更将成为美国外交政策的核心支柱。中国已系统性地将技术推向海外市场,常常与融资、大型开发项目捆绑。美国不能允许全球数字基础设施建立在可能泄露数据、监控通信、开展大规模影响力行动的中国系统之上。
美国需要将AI扩散纳入治国方略,扩大开发金融公司等机构的权限与可调度资金,帮助美盟企业在全球建设数据中心、通信网络与区域定制系统。这要求美国领导层不追求短期利润,而是致力于构建一个更多依赖美国系统而非中国系统的世界。
如果复制容易、扩散不可避免,保密带来的回报微乎其微。更合理的做法可能是开源或广泛授权关键系统的安全版本,确保它们运行在美盟平台而非敌对平台之上。在这种世界里,出口管制收益有限,在极端情况下甚至可能削弱美国在扩散竞赛中的地位,因为中国可以通过快速复制美国技术有效绕过管制。
第八世界
在最终世界中,人工智能将类似历史上许多重要技术:美国在创新上领先,但突破很容易被模仿。这种“搭便车”现象,会让私人资本更难投入大型前沿项目;而在中国不竞速的情况下,公共支出的国家安全理由也不再全面。相反,AI投资将围绕扩散带来的预期收益展开,开源模型很可能成为主流。
AI领导权的竞争,也将主要变成扩散的竞争,类似早年5G竞赛,由部署速度与规模驱动。美国的任务是确保可信的美盟系统成为全球产业的默认基础设施,压缩中国低成本可行方案的空间。
从情景到战略
人工智能时代的战略,不再是预测单一结果或唯一正确政策,而是转向概率化思考。要使用这一矩阵,决策者应先选定一个基准情景——即他们认为最可能出现的世界。
每一项重大政策提案,都应在基准情景中接受检验:这项政策在你认定的世界里是否合理?决策者还必须确定,如何避免或减缓美国最脆弱、风险最高的情景(如世界一)出现最坏结果,即便他们认为这些情景概率不高。
在此基础上,采取策略对冲:让政策与基准情景保持一致,同时提升其在高挑战情景中的韧性。这意味着要识别哪些政策在多个世界中都有效、哪些政策在未来预判出错时可以逆转、哪些政策一旦基准假设错误就会产生危害。
针对八种世界中的每一种,政府都应准备一套可随时调整的方案。这要求各部门以概率视角思考问题:国家安全委员会应利用这一矩阵,对美国政策进行替代未来压力测试;情报界应沿三大维度追踪动态信号(如前沿进展速度、新能力复制速度、中国投资方向变化),并相应更新各情景的概率;高级国家安全官员应准备好在另一情景更有可能出现时,提出政策调整建议。
核心任务不是做出完美预测,而是平衡风险与收益,随概率变化调整优先级,根据环境需要重新绘制矩阵,并建立实现这些目标的机制与流程。

这一框架不只适用于政策制定者,它也为所有参与AI与地缘政治辩论的人提供了一种实用方法。很多争论最终沦为各说各话,如果参与者能明确自己预设的未来,讨论效率会高得多:人工智能是会走向颠覆性突破,还是渐进发展?技术会快速传播,还是难以复制?中国是在争夺前沿,还是布局跟进与商业化?
提出这些问题,并将双方论点映射到矩阵中,往往能揭示分歧本质——究竟是政策主张不同,还是底层未来假设不同。
这一框架的意义,不在于预测最终会走向哪个世界,而在于在不确定性中规范战略:明确假设、用替代方案检验政策。框架本身也在不断演进:AI的发展维度远不止本文列出的三个,一些看似重要的问题最终可能得到解决,新问题也会出现。
例如,如果超级智能近在咫尺,有限进步的可能性就不再重要,矩阵可能会出现新维度,区分“有益的超级智能”与“危险的超级智能”。随着技术格局变化,除中国以外的其他参与者也可能变得更加重要。关键在于拥有一套能随证据积累而调整的政策框架。
人工智能时代的地缘政治绝不简单。但如果缺乏严谨思维,战略就会被隐含假设与各种议程压垮。通过描绘可能世界及其所需的政策选择,这一框架提供了穿透迷雾的路径。决策者的任务很明确:不要把人工智能看作单一故事,而要视为不断变化的图景。如果美国领导人学会这样思考,他们就能定义未来的AI时代。如果不能,就会由别人来定义。