扫码打开虎嗅APP
本文来自微信公众号: 硅星GenAI ,作者:大模型机动组,题图来自:视觉中国
2026年2月27日(美东时间),美国总统特朗普在Truth Social上宣布,向所有联邦政府机构下令:即刻停止使用Anthropic的一切技术。
国防部长皮特·赫格斯(Pete Hegseth)随即把Anthropic列为“国家安全供应链风险”,并宣布所有与军方有业务往来的承包商,即日起禁止与Anthropic合作。
这是美国政府对本土科技公司动用的最强硬手段之一。
起因,是Anthropic的一个拒绝——而且不是第一次。
一、事情是怎么开始的:2亿美元合同埋下的伏笔
2025年7月14日,美国国防部(现改称“国防战争部”)与Anthropic签署了一份上限为2亿美元的“原型过渡协议”,目标是在国家安全领域推进前沿AI能力。
Anthropic的Claude模型由此被实际部署在美国政府的涉密网络上,用于情报分析、作战规划模拟、网络作战支援等任务。Anthropic自称是硅谷主要AI公司中第一家把模型部署进涉密政府网络的企业。
看起来是一桩双赢生意:政府获得前沿AI能力,Anthropic获得政府合法性与收入。
但2026年1月,矛盾首次浮出水面。
国防部长赫格斯签署了一份AI战略备忘录,要求所有国防部AI合同必须包含“任何合法用途”(Any Lawful Use)条款——承包商不得对军方使用场景设置任何限制。
Anthropic的AI系统本身内嵌了若干使用限制。这份备忘录,正面要求Anthropic拆除这些限制。
谈判由此进入僵局。
二、Anthropic的两条红线:原则还是边界
2026年2月26日,距国防部最后期限不足24小时,Anthropic CEO Dario Amodei在公司官网发布了一封约800字的公开信。
信中,他划出了两条Anthropic拒绝放开的使用限制:
红线一:不得用于大规模监控美国公民。
Amodei写道:“大规模的国内监控与民主价值观根本不相容,会对我们的基本自由构成严重的、全新的风险。”
红线二:不得用于完全自主决策的致命性武器。
Amodei的解释是技术层面的:“前沿AI系统根本还不够可靠,无法独立运作致命性武器。在这类决策上让AI系统拥有完全自主权,会让作战人员和平民都面临不可接受的风险。”
这两条限制,听起来都有道理。
但五角大楼的反驳同样不是没有依据。
军方的立场是:美国现行法律已经明确禁止针对本国公民的大规模监控;完全自主武器的使用,同样受《武装冲突法》约束。这些限制不需要由一家私营AI公司来单独设定和执行。
换言之,政府的逻辑是:已有法律在管,不需要你来管。
而Anthropic的逻辑是:法律管不到的地方,我们先管。
这两种立场,反映的是一个根本性的权力归属争议:在AI被滥用的风险面前,谁是最后一道门?
三、五角大楼的反击:威胁升级的三步棋
面对Anthropic的立场,国防部发出了强硬回应,设定2026年2月27日为最终期限,威胁逐级升级:
第一步:终止价值2亿美元的国防合同。
第二步:将Anthropic列为“供应链风险”。这意味着Anthropic将被禁止参与所有联邦政府和国防项目,且其技术被整合进Palantir、亚马逊AWS等国防承包商业务的部分,也将面临连锁拆解。
第三步:援引《国防生产法》(Defense Production Act)——一部冷战时期授权总统在国家安全紧急状态下强制企业服从命令的法律。
Anthropic在公开信中不无讽刺地指出:“我们被告知,我们是构成国家安全风险的威胁——同时又被告知,我们的技术对于国家防御是不可或缺的。这两件事,不可能同时为真。”
四、最后期限:各家的不同选择
2026年2月27日,最后期限到来。Anthropic没有妥协。
特朗普随即在Truth Social上点名Anthropic为“激进左派AI公司”,下令全联邦机构立即停用。赫格斯正式宣布供应链风险定级,现有合作方获得6个月过渡期以切换供应商。
与此同时,其他AI公司做出了截然不同的选择:
谷歌、xAI已接受了“任何合法用途”条款,配合军方要求。
OpenAI走了第三条路:在Anthropic遭封禁的几小时后,宣布与国防部达成新协议。OpenAI CEO Sam Altman表示,他们的协议以书面形式写入了类似的安全原则——但同时他们拿到了合同。
这就产生了一个值得思考的问题:如果OpenAI能在书面上保留安全条款、同时接下政府生意,那Anthropic的“原则性拒绝”,究竟是更高的道德底线,还是一种谈判策略的失败?
没有明确答案。但不同的市场选择已经摆在那里。
五、Anthropic自己的权力问题:谁授权了这道门?
这场争端最值得深思的部分,不是Anthropic输了还是赢了,而是它所揭示的一个更根本的问题:
Anthropic凭什么决定,AI的使用边界在哪里?
Anthropic对所有用户设置同样的限制,包括企业、政府、军方。他们不给任何人后门。这是一种彻底的“一视同仁”。
但这种“一视同仁”,本身是否也是一种权力的行使?
在传统的武器行业,枪械制造商不会对警察和军队的使用方式设置道德条件——那是法律和民主制度的工作。AI的特殊性在于:它的限制不嵌在硬件里,而嵌在代码里。这让AI公司天然成为“规则的制定者”,而这个角色,从来没有经过任何民主程序的授权。
Anthropic的立场,可以被解读为负责任:他们在试图防止最坏的场景,哪怕为此付出商业代价。
它同样可以被解读为傲慢:一家私营科技公司,单方面决定什么是一个主权国家的军队可以做、什么不可以做。
这两种解读,都有充分的理由。
Amodei在公开信中承认了这个张力:“我们相信,是否以及如何使用Claude做出军事决定,应由美国国防战争部而非我们来决定。但在某些极端情况下……我们认为,我们有必要划出不可逾越的底线。”
“某些极端情况”——这个边界,是Anthropic自己划的。
写在最后:一个没有好答案的问题
Anthropic称供应链风险定级“法律上站不住脚”,并宣布将以法律手段提出挑战。理由是:此类工具历史上仅用于应对华为等外国实体,从未被用于制裁本土企业。
这场法律角力,最终可能会为AI公司与政府之间的权力边界写下某种意义深远的判例。
但在那之前,有几个悬而未决的问题值得每个关注AI发展的人去思考:
AI公司设置“使用护栏”,是在保护用户,还是在扩大自己对技术的控制权?
当政府与AI公司的标准出现冲突,谁的判断应当优先?
如果Anthropic的做法是对的,那么接了合同的OpenAI意味着什么?如果OpenAI的做法是对的,那拒绝的Anthropic又意味着什么?
Anthropic用商业损失换了一个它认为重要的立场。或许它是对的。或许它高估了自己对这个边界的判断能力。
但无论如何,这场对决所暴露的矛盾,并不会随着Anthropic的失败而消失——它只是被推迟到了下一次,由另一家公司、在另一个政府面前重新上演。
核心事实速览
合同金额:2亿美元上限,2025年7月14日签署
合同内容:情报分析、作战规划、网络作战支援(涉密网络)
五角大楼诉求:“任何合法用途”条款,移除所有使用限制
五角大楼立场:现行法律已有约束,无需企业单独设定
Anthropic红线:禁止大规模监控美国公民;禁止完全自主致命武器
最后期限:2026年2月27日(星期五)
结果:Anthropic拒绝 → 特朗普封禁令 → 供应链风险定级
过渡期:现有机构获6个月切换期
Anthropic回应:称定级“法律上站不住脚”,将提起法律挑战
OpenAI动向:同日与国防部达成协议,声称书面写入安全条款
谷歌/xAI:已接受“任何合法用途”条款
Dario Amodei声明:2026年2月26日,约800字,发布于Anthropic官网
参考资料:
Statement from Dario Amodei on our discussions with the Department of War, Anthropic (Feb 26, 2026) https://www.anthropic.com/news/statement-from-dario-amodei-on-our-discussions-with-the-department-of-war
Pentagon designates AI firm Anthropic a 'supply chain risk', Washington Post (Feb 27, 2026)
Anthropic refuses DOD demand for unrestricted AI access, Breaking Defense (Feb 27, 2026)
其他综合来源:CBS News, The Guardian, PBS 等。
(注:本文根据以上英文资料综合编译,内容旨在呈现事件全貌,文中涉及的任何主观判断与结论均不代表硅星人官方立场。)