扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-03-02 14:26

OpenAI 与五角大楼签约48小时:三条红线、一场争议,以及Altman 的"观感不好"

本文来自微信公众号: 硅星GenAI ,作者:大模型机动组,原文标题:《OpenAI 与五角大楼签约48小时:三条红线、一场争议,以及 Altman 的"观感不好"》


2026年2月27日至3月1日,美国国防部(后改称「战争部」Department of War)与两家头部AI公司的关系在两天内彻底改写:与Anthropic的谈判破裂后,特朗普下令联邦机构在过渡期后停用Anthropic技术,国防部长将Anthropic列为「供应链风险」;OpenAI则迅速宣布与五角大楼达成协议,允许在机密环境中部署其模型。OpenAI CEO萨姆·奥尔特曼(Sam Altman)在X上公开承认:「节奏确实仓促,观感也不好。」但他强调,协议设有多层技术与管理保障,并已请求政府将同等条款开放给所有AI公司、化解与Anthropic的僵局。


这不是一场单纯的商业签约。它牵涉三条红线——禁止大规模国内监控、禁止自主武器、禁止无人类监督的高风险自动决策(如「社会信用」式系统);也牵涉一家坚持红线的公司被列为「供应链风险」的争议,以及合同条款是否真的堵死了国内监控的质疑。Techdirt等媒体指出,协议中关于情报活动须符合《行政命令12333》等法律的表述,可能为NSA式监控留下解释空间;OpenAI则反驳:「部署架构比合同措辞更重要」,云上部署、自有安全栈与人员在场,才是真正的护栏。


最关键的争议是:在「降级冲突」与「守住红线」之间,OpenAI选了一条什么路?Altman在X上坦言:若此举真能缓和国防部与行业的关系,「我们会看起来像天才」;若不能,「我们会继续被说成仓促、不谨慎。」以下是整场风波的核心内容编译。


一、从谈崩到签约:五角大楼与AI公司的48小时


2月27日(周五),国防部与Anthropic的谈判破裂。国防部长皮特·赫格塞斯(Pete Hegseth)宣布将Anthropic列为「供应链风险」(supply-chain risk to national security)——这是美国首次将本国AI公司列入此类designation,且被广泛解读为对「谈不拢」的报复。同日,特朗普要求联邦机构在六个月过渡期后停止使用Anthropic的技术;受影响的还包括与国防部有往来的军事承包商,他们若继续使用Anthropic产品,将难以再与国防部合作。


几小时后,OpenAI宣布已与五角大楼达成协议,允许在机密环境中部署其模型。奥尔特曼强调,OpenAI与Anthropic一样坚持两条红线:禁止大规模国内监控、禁止在无人类责任的情况下将AI用于自主武器;此外OpenAI还多了一条:禁止用于高风险自动决策(如「社会信用」式系统)。但既然Anthropic谈崩、OpenAI谈成,舆论自然追问:OpenAI是否在条款上做了妥协?红线是否只是「写在纸上的政策」?


OpenAI在2月28日发布博客《我们与战争部的协议》,详述了协议框架与三条红线,并称其保障「比此前任何机密AI部署协议(包括Anthropic曾讨论的)都更多」。3月1日,TechCrunch等媒体综合该文、Altman在X上的AMA以及国安合作负责人卡特里娜·穆里根(Katrina Mulligan)在LinkedIn的说明,将「为什么能签成」「红线如何落地」的争议推到台前。


二、三条红线:不能用于监控、自主武器与「社会信用」


OpenAI在官方说明中明确列出与国防部合作的三条红线:


  1. 禁止将OpenAI技术用于大规模国内监控(mass domestic surveillance)。


  2. 禁止用于操控自主武器系统(direct autonomous weapons systems)。


  3. 禁止用于高风险自动决策(high-stakes automated decisions),例如「社会信用」类系统。


公司强调,与其他一些在国安场景中「削弱或移除安全护栏、主要依赖使用政策」的AI公司不同,OpenAI通过「更广泛、多层」的方式保护这些红线:保留对安全栈的完全裁量权、仅通过云部署、有获得许可的OpenAI人员参与、并在合同中有强约束;此外还有美国既有法律与政策的约束。


合同正文中约定:战争部可将AI系统用于「一切合法用途」,但须符合适用法律、作战要求及既有安全与监督规范;不得在法律规定需人类控制的场景中独立操控自主武器,也不得替代需人类决策者批准的高风险决策。对于情报活动,对私人信息的处理须符合第四修正案、《1947年国家安全法》《1978年外国情报监视法》、行政命令12333等,且不得对美国公民进行无约束的私人信息监控,也不得用于国内执法(除非符合《地方武装法》等规定)。正是「合法用途+12333」的表述,引发了后续关于「国内监控是否被默许」的争议。


三、「云上部署」为什么是关键:不能直接上武器与边缘设备


OpenAI和穆里根多次强调:「部署架构比合同措辞更重要。」


在LinkedIn上,穆里根写道:很多人假定「站在美国人与大规模国内监控、自主武器之间的,只是一份合同里的一条使用政策」——「现实不是这样运作的。」通过将部署限定在云API,可以确保模型无法被直接集成进武器系统、传感器或其他作战硬件;自主武器通常需要在边缘(edge)做推理,而云上部署在架构上就排除了这类用途。


官方博客也写明:这是仅限云端的部署,由OpenAI运行包含上述原则在内的安全栈;既不是「无护栏」或未做安全训练的模型,也不会把模型部署到边缘设备上——后者一旦允许,就可能出现用于自主致命武器的可能。部署架构使OpenAI能够独立核查红线是否被突破,包括运行和更新分类器。


Altman在X上回答「为何国防部接受了OpenAI而没接受Anthropic」时表示:OpenAI相信分层安全——建立安全栈、派驻前向部署工程师(FDE)、让安全与对齐研究人员参与、通过云部署、与战争部直接协作;而Anthropic似乎更依赖合同中的具体禁止条款,而非引用既有法律。他个人「宁愿只选一样的话,更依赖技术保障而非文件」;并称若Anthropic愿意,现有条款已可对包括他们在内的其他实验室开放。


四、Altman认了:「节奏仓促,观感不好」——但我们想降级冲突


3月1日(周六)下午,Altman在X上开放提问,直面五角大楼协议引发的批评。当被问「为什么签得这么急?观感显然不好」时,他直接回应:


「节奏确实仓促,观感也不好。我们真的很想给局势降温,而且我们认为摆在桌上的这份协议是好的。如果我们判断对了,这能促成战争部与行业之间的降级,我们会看起来像天才,也是一家承受了很多痛苦去帮行业做事的公司;如果不是,我们会继续被形容成仓促、不谨慎。我不知道最后会落在哪边,但我已经看到一些积极的迹象。」


他解释,把Anthropic列为供应链风险「对行业、对国家、对他们公司都会非常糟糕」,OpenAI在签约前后都向战争部表明了反对,并希望「他们撤销这一决定」;若因强烈批评而招致压力,「那就这样吧」。关于「为何你们能签、Anthropic不能」,他再次强调:条款并不相同,但OpenAI谈成的条款现已可提供给Anthropic及其他实验室。


当被问「若政府违反合同你们会关停吗」时,Altman说:会。在那种「非常不可能」的情况下会关停;但他们相信美国政府会尽力遵守法律与政策。「我们不会因为不同意某次(合法的军事)决策就关停——我们尊重其权威。」


五、Anthropic的代价:供应链风险、联邦停用与「激进左派」标签


与OpenAI签约形成对照的,是Anthropic的处境。谈判破裂的焦点在于:国防部要求Claude可用于「一切合法用途」,包括无人类监督的自主致命武器和大规模监控;Anthropic CEO达里奥·阿莫代伊(Dario Amodei)拒绝,坚持两条不可妥协的红线——不用于自主武器、不用于对美国公民的大规模国内监控。


后果迅速落地:联邦机构与军事承包商被要求在六个月内剥离Anthropic产品;「供应链风险」designation意味着任何使用Anthropic产品的公司与国防部的合作都会受阻;Anthropic表示将在法庭上挑战该designation;特朗普将Anthropic称为「激进左派」「woke」,而生命未来研究所(Future of Life Institute)等机构则赞扬其坚守AI伦理立场。OpenAI在博客中写道:「我们不知道Anthropic为何没能达成这份协议,希望他们和更多实验室会考虑(我们谈成的)条款。」


六、争议与反驳:国内监控到底有没有被「留口子」?


Techdirt的Mike Masnick在Bluesky上指出:协议中写明的情报活动须符合行政命令12333等法律,而12333常被解读为NSA通过境外截获包含美国公民信息的通信而进行监控的依据——因此「协议并未排除国内监控」。这一批评把「合法」与「道德/隐私」之间的张力摆上台面。


OpenAI的回应集中在两点:1.法律与合同:合同已明确将大规模国内监控排除在合法用途之外,并引用现行surveillance与autonomy相关法律与政策;且合同将当前法律与政策的状态写进条款,即使未来法律或政策变更,对OpenAI系统的使用仍须符合协议所载的现有标准。2.架构与人员:穆里根强调,部署架构比单一条款更能限制滥用;云API限制+前向部署工程师+对使用方式的可见性+可随时迭代的安全措施,使OpenAI比「仅靠一纸合同」有更大影响力与洞察滥用的能力。Altman在AMA中明确表示:「这份协议能否让战争部用OpenAI模型对美国公民进行大规模监控?不能。」依据是安全栈、合同措辞以及严格限制战争部国内监控的既有法律,再加上OpenAI人员在场。


写在最后


48小时的剧情远未尘埃落定:一家因红线而谈崩、被列为供应链风险并遭联邦停用;一家快速签约并公开承认「节奏仓促、观感不好」,把赌注押在「降级冲突」与「多层保障」上。OpenAI反复强调已请求政府将同等条款开放给所有AI公司并解决与Anthropic的僵局;Altman也明确反对将Anthropic列为供应链风险,称「这是战争部一个非常糟糕的决定,希望他们撤销」。


对关心AI与国防、隐私与安全边界的读者来说,值得记住的几点是:合同里的「合法用途」必须结合具体法律与部署方式一起看;「仅云部署+自有安全栈+人员在场」是OpenAI自辩红线可执行的核心论据;而国内监控是否被12333等法律留了口子,仍是外界与NGO会持续追问的问题。对行业而言,先例已经打开:一家美国AI公司因拒绝放宽红线而被列为供应链风险,另一家则选择在「更多护栏」的前提下与国防部合作。若OpenAI的判断成真——此举能缓和政府与实验室的关系并让更多公司获得可接受的条款——它会被视为「扛下骂名换行业空间」;若不能,争议会长期伴随这份协议。正如Altman所说:「我不知道最后会落在哪边。」2026年,这条边界会如何被继续重划,只能留给时间验证。


原文与信源:


OpenAI官方说明https://openai.com/index/our-agreement-with-the-department-of-war/


TechCrunch报道https://techcrunch.com/2026/03/01/openai-shares-more-details-about-its-agreement-with-the-pentagon/

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: