扫码打开虎嗅APP
本文来自微信公众号: 心智观察所 ,作者:心智观察所
美国人工智能公司Anthropic最近成为华盛顿政治与军方争议的中心。美国总统特朗普公开指示所有联邦机构立即停止使用该公司开发的AI技术,并允许包括国防部门在内的机构有六个月的逐步退出期,这一极为罕见的举措引发了全球关注。
不久前,Anthropic公开指控DeepSeek、MiniMax等中国AI对其模型进行“工业级蒸馏攻击”时,很多人第一反应是:这是一家典型的“对华强硬派”公司。然而,仅仅几天后,特朗普却宣布要求联邦机构停止使用Anthropic的模型。
一个一边高举“国家安全”大旗、攻击中国AI模型的公司,为何反而遭到美国政府的禁用?如果简单贴上“反华”标签,反而会错过这场冲突真正的逻辑。
能力扩散焦虑
Anthropic的创始人阿莫迪出身于OpenAI早期核心团队,是硅谷“AI安全主义”思潮的代表人物之一。他长期强调高能力模型存在系统性风险,主张在能力扩散之前建立严格的安全护栏。
他的核心论点并不是“某个国家危险”,而是“高能力AI本身危险”。在他看来,无论模型落入谁手,只要缺乏约束,都可能被用于大规模监控或自主武器系统。
这种思想源头可以追溯到有效利他主义与长期风险主义的影响圈。其逻辑是:人工智能能力一旦达到某种临界点,可能带来结构性风险,因此必须在部署前设置约束。
Anthropic提出“宪法式AI”,本质是试图用内置规则来约束模型输出。这套理念在对华问题上也体现为一种“能力扩散焦虑”——它强调对前沿芯片、模型能力进行出口管制,担心技术被用于军事与监控场景。但这种表达更多是安全逻辑,而不是民族主义逻辑。
这正是复杂性所在。Anthropic在对中国企业的指控中使用了国家安全话语,客观上参与了美国对华技术竞争的叙事。但它的根本出发点,是对“能力扩散”的担忧,而不是对某个国家的敌意。它既可以批评中国公司蒸馏,也可以拒绝美国军方在军事用途上的“无限授权”。它在两个方向上都划红线。
对于五角大楼而言,AI已是战略核心能力。当军方要求模型“用于任何合法用途”时,企业如果在合同层面设定绝对禁区,就会被视为削弱国家行动能力。
西方主流媒体普遍认为,这次的禁用,既不是简单的商业合同纠纷,也不仅仅是意识形态口水战,而是美国政府在AI国家安全体系内重新划定技术与权力边界的表现。
这场对抗的导火索,是Anthropic在与美国五角大楼谈判中拒绝接受对其AI模型“Claude”在军事上的无限制使用要求。
美国政府希望AI技术在所有“合法用途”上为军方提供支持,包括可能涉及大规模监控或无人监督的自主武器。而Anthropic则拒绝在其安全规范之上无条件移除限制,将AI用于这些潜在高风险应用。多数报道指出,这一根本分歧最终导致了政府的强硬回应。
美国国防部对于AI技术在未来战争中的潜力视作国家安全核心资产,因此在合同条款上要求完全开放的技术访问权限。作为曾与国防部签署价值数亿美元合同的AI公司,Anthropic坚持其模型不能被用于大规模监控美国公民或具有完全自主致命行动的武器。这一立场在公司创始人长期倡导的“安全优先”哲学中一贯体现。
在美国政府看来,这种“技术上的自我禁锢”有可能限制战争效率、危及军人安全,甚至被视为对军方权威的挑战。五角大楼和国防部长公开将Anthropic列为“供应链风险”,表明这种观点已经不再是单纯的商业争论,而被纳入国家战略与安全范畴。如此的风险分类往往用在与外国竞争者相关的技术公司上,这显示了政府对Anthropic的强硬态度。
既是“左翼疯子”,又是“反华右翼”?
特朗普政府对于Anthropic的批评并不局限于合同细节。他在社交媒体上使用了情绪激烈的措辞,把公司高层称为“左翼疯子”,暗示其价值观与政府定位的国家利益不一致。
一些政治人物认为拒绝开放AI用于全部军事用途的企业行为等同于削弱国家在全球竞争中的技术优势。美国国内对于“AI安全主义”是否意味着战略软弱存在争议,部分政界人士认为这种立场可能阻碍整体防务能力。与此同时,国会内部也有声音呼吁建立明确的法律框架来规范军用AI,而不是通过政治压力迫使企业妥协,这是另一种不同于行政命令的治理思路。
Anthropic此前曾公开声称某些中国AI公司可能对其模型数据进行大规模“蒸馏”,引发了西方技术界关于训练数据与技术保护边界的争论。西方媒体对此报道普遍带有嘲讽意味,批评者认为Anthropic的说法缺乏足够技术证据,更多是在迎合美国国内政治审查和安全氛围。
从全球视角看,这反映了东西方在AI安全与开放政策上的差异。不同于中国高举开源大旗的策略,一方面,美国部分AI公司和政府官员呼吁强化技术保护措施,防止核心能力外泄;另一方面,这种策略也不可避免地带有阻碍中国等技术竞争者发展的逻辑。
在这场复杂的国际竞争中,技术伦理、国家利益和意识形态因素交织在一起,难以简单归结为“反华”。
这场冲突还引发了科技行业内部的强烈反响。一些AI研发人员和公司员工公开签署联名信,表达对政府做法的担忧,认为强制性解绑合同和政治化标签可能破坏政府与科技界之间原本的合作关系。
与此同时,一些竞争对手企业被认为更愿意在军用合同中妥协,从而可能借此获得更有利的市场与合作位置。OpenAI创始人奥尔特曼已经表示,与美国国防部达成协议,将OpenAI的模型部署到美国国防部的机密网络中。
这种分裂表明,当前AI产业并非在全部层面与政府利益一致。企业在追求技术发展与商业利益的同时,也试图维护一定的伦理底线。在未来,这种企业内部对于伦理与国家安全的拉锯可能成为规范AI治理的重要参考。
不可回避的制度冲突
把这几条线索拼在一起,逻辑就清晰了不少。
Anthropic对中国AI模型的指控,是商业竞争、知识产权争议与地缘政治叙事交织的产物;其创始人的思想源头,则是深度安全主义与能力扩散焦虑;美国政府对其禁用,则源于对军用AI完全控制权的需求。三者交叉,构成了一个复杂的结构。
这家公司既不是简单的“反华企业”,也不是纯粹的理想主义者。它一方面通过国家安全叙事强化自身市场地位,另一方面又试图在军用场景中维持伦理底线。正是这种双重姿态,使它既能攻击中国AI模型,又会被美国政府视为不完全可靠的战略工具。
归根结底,这揭示了人工智能在现代社会中不可回避的制度冲突。
一方面,国家希望通过控制先进技术来强化战略地位和安全优势;另一方面,一些科技公司试图保留对技术应用边界的定义权,尤其是在涉及伦理风险的领域。当前的对立恰恰体现了这一矛盾:技术发展速度远远超过了现有政策制定与伦理规范的更新速度。
特朗普政府此次动用总统权力强硬制裁Anthropic,既有对国家安全的具体考量,也反映出政治力量对技术伦理主张的抵触。背后更深层次的问题是:当AI技术成为未来战争和国家竞争的核心资源时,私人企业在多大程度可以坚持其价值边界?政府又该如何制定有效而不致过度干预的治理框架?
这场冲突远未结束,随着诉讼、行业反击以及全球技术竞争的加剧,它可能成为未来几年AI治理格局的重要转折点,影响不仅限于美国国内,更将波及全球AI政策制定与国际力量对比。