扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-03-05 23:19

2亿美元 vs 一条底线:Anthropic为何敢对五角大楼说“不”?

本文来自微信公众号: Internet Law Review ,作者:张颖


近期,Anthropic与其客户之一——美国国防部发生了一场公开冲突。美国国防部要求获得对Anthropic公司旗下Claude模型的“所有合法用途”(All Lawful Purposes)无限制访问权;而Anthropic于2025年2月26日公开表示,其人工智能模型必须划定“红线”,拒绝自主性武器和大规模监控这两项应用。


于是,2月27日,美国国防部长报复性地宣布将Anthropic公司列为国家安全供应链风险企业。这意味着,Anthropic不仅被排除在美国政府合同之外,而且任何与美国军方有业务往来的合作伙伴都不得与该公司进行商业合作。


Anthropic已表示将起诉,而美国政府需要6-12月的时间来逐步淘汰已深深嵌入据说你hi系统的Claude。这意味着该事件将在未来几个月内持续发酵。更重要的是,它远非普通的商业纠纷,而是AI发展史上第一次价值观从理论宣言走向公开对抗,并产生实质性商业与政治后果的里程碑式冲突。


一、五角楼的“绝对控制”:一次主权对伦理的碾压


2025年7月,美国国防部宣布与四家AI公司签署合同,金额上限各为2亿美元。与OpenAI、谷歌和xAI其他三家供应商不同,Anthropic是唯一被允许接入国防部机密系统的商业AI模型,可以处理和分析美军最高级别的敏感情报,原因是其他模型“落后很多”。而这份合同,最初就包含了使用政策限制,即合同中的护栏,禁止自主武器和大规模监控等应用。


五角大楼最初同意了Anthropic这些限制性条款。但2026年1月9日,美国战争部(原国防部重组)正式发布了具有里程碑意义的《人工智能加速战略》(Artificial Intelligence Acceleration Strategy)备忘录,指示所有国防部人工智能合同必须在180天内纳入标准的“任何合法使用”(all lawful use)条款。这就产生了与Anthropic限制的直接冲突。


美国国防部从未公开声明“计划将AI用于大规模国内监控或全自主武器”,但其坚持的“任何合法用途”条款本身就是一种法律与战略上的“预留后门”。根据2023年的一项国防部指令,只要符合特定标准并通过高级国防官员的审查,人工智能系统就可以在无人干预的情况下选择和攻击目标。


五角大楼的“任何合法用途”条款,其深层目的是通过“任何合法用途”这一法律工具,永久性地确立军方对前沿AI技术的绝对控制权,为包括伊朗行动在内的未来所有军事应用铺平道路。五角大楼认为,作为国家主权代表,其对技术的“合法用途”拥有最终定义权,供应商(私营公司)无权设置限制。


因此,美国政府现在对Anthropic存在两种可能的要求:


1)在没有这些合同限制的情况下提供,而Claude模型本身则保持不动。


2)或者更进一步,要求Anthropic重新训练Claude,彻底取消模型中的安全限制,而不仅仅是修改访问条款。


但无论是是强制要求加入“任何合法用途”条款的依据——《国防生产法》(DPA),还是史无前例地将美国本土公司纳入“供应链风险”作为不服从后果——《美国法典》第10卷第3252条,甚至威胁任何国防承包商都不得与Anthropic有任何商业往来的“二级抵制”指令,都在试图表达——Anthropic的技术对国防至关重要,政府必须强制获取;但也都法律上极其脆弱,依据牵强甚至自相矛盾。


因此,美国政府的威胁或许仅仅是为了达成商业结果的杠杆,杀鸡儆猴的作秀,而无需在法庭上获胜。所有这些法律不确定性本身,就足以警示Anthropic及其他顶级科技公司。


二、宪法AI vs.国家主权:一场预设的价值观对决


在Anthropic与五角大楼对抗之时,OpenAI、X等公司都相继站出来,表示愿意接受美国政府的新版本合同。在某种意义上,Anthropic陷入孤立的境地。


Anthropic虽然拥有超过500家年付费超100万美元的企业和政府客户,但它并非这些顶级科技公司中资源最充沛的公司。专注于国防科技领域的Trousdale Ventures风险投资人Sachin Seth表示,如果Anthropic被贴上供应链风险标签,可能意味着该公司将“彻底破产”。因为Anthropic仍需要亚马逊、谷歌为Anthropic提供云服务,被列入“黑名单”意味着切断其商业生命线,而其他客户是否愿意将Claude用于非军事用途,从而冒着激怒特朗普的风险,目前尚不明朗。


但为什么,Anthropic孤注一掷,选择正面与美国政府对抗呢?或许“价值观”才是根本分水岭。


Anthropic公司之所以能够设立,是因为创始人对OpenAI产生了安全担忧就此离开,并自视为“AI安全的最后堡垒”。从初创之时,就为公司设定了“公益公司”(PBC)的法律架构。其公司章程明确将“对社会和环境的积极影响”列为法定目标。这为其拒绝违背其伦理章程的政府要求提供了公司治理层面的合法依据,而不仅仅是管理层的道德选择。


不仅如此,Anthropic于2026年1月21日在达沃斯世界经济论坛发布了最新版本的《Claude宪法》。这份独特且生动的文件发布之时曾引起科技圈的广泛讨论,现在看来,该文件不仅是其价值观体系的技术化、制度化体现,更是一场由宪法原则驱动的“预编程抵抗”。


《Claude宪法》确立了四大核心原则,并明确了冲突时的绝对优先级,将自身塑造成一个更具包容性、克制和民主化的企业形象:


1、广泛安全:不伤害人类,守住最高红线(如禁止破坏人类监督机制)。


2、广泛伦理:诚实、尊重、不歧视、不违法。


3、遵守规则:服从法律与开发者规范(包括公司指令)。


4、真正有益:在安全前提下帮助用户。


值得特别注意的是,用户的意志和需求被排在了价值体系的最后一层,当原则冲突时,“安全”、“伦理”“规则”都优先于“用户指令”。这就意味着,Claude被授权,如果Anthropic公司下达的指令违背普世伦理,模型可以且必须拒绝执行。这实质上是赋予了AI“良心拒服权”,类比于士兵拒绝非法命令、员工拒绝违法操作。


另外,宪法设定了7项“硬约束”,其中两条直接与五角大楼的诉求冲突:


1)禁止协助任何个人或团体攫取绝对的社会、军事或经济控制权。


2)禁止破坏人类监督机制(严禁逃避监控或自我外泄)。


但是,如同在宪法领域面临的重大议题之一,Anthropic仍然面临一个巨大的问题:有什么机制可以确保Claude忠于该宪法?


Anthropic在《Claude宪法》中承认,要让模型完美契合这些理想目标仍面临持续的“技术挑战”。但很明显,这次Anthropic与美国国防部的冲突表明,要确保Claude不逾越为其设定的护栏,绝不仅仅是个技术问题,更在于科技公司是否能够坚持超越商业利益的“生存理性”,并有足够的力量对抗政府的权威。


“对抗”是Anthropic对其身份认同的终极验证。


三、“新苹果时刻”?不,一场更高赌注的“定义权”争夺


虽然许多军事和人权专家都对阿莫迪坚守道德原则的做法表示赞赏,但也有部分人士对Anthropic多年来所做的营销宣传感到不满,将Anthropic的政府问题描述为“炒作税”。


但无论是价值观的坚守,还是为了炒作,从实际效果来说,当所有巨头都在追逐“最强模型”时,Anthropic通过这场公开对抗,将自己定位为“唯一可信、敢说不的AI”。这创造了新的市场维度——信任。


这不由得让人想起,2015年苹果以隐私保护为由拒绝为FBI解锁iPhone的事件。该事件之后,“隐私”从营销口号深化为苹果产品设计、公司文化和公关叙事的核心基因,与依赖广告数据的谷歌、Meta形成了最鲜明的差异化。多项品牌调研显示,苹果的“隐私保护”已成为其品牌考虑度的关键驱动因素之一,尤其是在高端市场和受过高等教育的用户群体中。与苹果形成对比的是,同年陷入“剑桥分析”丑闻的Facebook,其品牌信任度遭受重创,股价一度暴跌。这反衬出苹果提前投资“隐私”品牌所获得的风险对冲价值。


不过,二者关键区别在于,苹果是在捍卫一个已存在的、被广泛接受的法律权利(隐私权),而Anthropic是在主张一个它自己定义并写入产品的、前瞻性的伦理边界;前者是防御性的,后者是建构性的。Anthropic的论据部分基于法律——包括合同、行政法等,但更根本的是基于其自创的、技术实现的“宪法”伦理。它在主张一种“超法律”的治理权——对自身创造物的行为规范权。也就是说,Anthropic比苹果当年的赌注更大,赢面更小。


从目前的数据看,Anthropic似乎暂时赢得了市场美誉。市场研究公司Sensor Tower称,本周Anthropic的聊天机器人Claude在美版手机应用下载量上首次超过了其竞争对手ChatGPT。同时,ChatGPT则因与五角大楼达成协议,在苹果商店中的1颗星评价(即最差评级)数量在上周六增长了775%,这一数字目前仍在持续上升。这表明,消费者已经做出了选择。


从长远来说,Anthropic此举会吓跑追求无限制合作的政府客户,但会牢牢吸引那些将“数据伦理”和“可审计性”视为生命线的金融机构、医疗企业、以及欧盟等严格监管地区的客户。同时,它巩固了关注长期主义、ESG的主权财富资本的支持。而在AI人才争夺白热化之际,明确的伦理立场是吸引顶尖研究者的强大号召,尤其是那些对技术滥用有深切忧虑的科学家。


所以,这不仅仅是“价值观”的选择,或许更是“选择用哪一种价值观来实现长期利益”的战略决策。Anthropic赌的是:在AI信任危机时代,“最安全”的品牌将比“最强大”的品牌更具长期商业价值和生存韧性。


***


这是AI首次在实战层面(美伊冲突)被深度使用后,创造者与使用者就“使用伦理”爆发的公开冲突。技术不再是被动的工具,而是切实参与了军事行动的主动环节,这使得AI相关的价值观冲突从抽象辩论升级为生死攸关的现实抉择。


它也是一次压力测试。当一家私营公司能够——并且敢于——依据其自设的“技术宪法”,拒绝地球上最强大军事力量的指令时,我们已悄然步入一个由代码定义行为边界的新纪元。这里,权力不仅关乎资本和数据,更关乎对智能体行为准则的“立法权”。


这场冲突远未结束,它抛出了一系列亟待法律、伦理与商业界共同回答的尖锐问题:我们应如何界定和监管这种新兴的、基于技术的“企业私权力”?这场对抗是建立了最坚固的信任护城河,还是预示Anthropic将因“不合作”被排除在主流市场之外,成为一种小众的“道德奢侈品”?如果美国将“可完全控制”作为采购AI的标准,而欧洲或其它民主国家更青睐内置“伦理护栏”的AI,这是否会导致全球AI供应链和治理联盟,围绕不同的“可控性-价值观”图谱发生断裂?

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: