扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-03-01 00:06

未来的暗线:AI正在成为有史以来最强大的权力分配引擎

本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust


2026年的2月末,在吵闹与爆炸声中,历史的齿轮完成了致命的咬合。


今天的新闻流里不断刷新的是中东的战火,美国针对伊朗的重大作战行动在黎明前打响,防空警报与爆炸的火光再次提醒世界,地缘政治的底色依然是残酷的物理摧毁。


然而,仅仅一天前,另外两条极具“未来感”的暗线正在悄然收束,其深远影响甚至超越了真实的战场。


首先,在华盛顿与硅谷之间,特朗普政府与顶尖AI模型anthropic之间的对峙也迎来了最后通牒,政府以极其强硬的姿态,动用《国防生产法》和“供应链风险”的灭顶威胁,强制要求该公司交出AI模型在军事和情报场景中的绝对控制权。


在威胁未果之后,白宫撤销了anthropic的数亿美元合同,转手交给了OpenAI,以几乎相同的条款。


然后,很少人注意到的是,昨天在德克萨斯州的荒漠边境,一道肉眼不可见、以光速运行的高能激光束无声地将一架飞行器化为灰烬。激光武器已经走出科幻,进入了真实部署与真实误伤风险的世界。


战争的爆发、激光武器的实战部署、国家机器对AI主权的不计代价的争夺,这三者看似是互不相干的独立事件,实则共同指向了一个关于历史走向的真相:人类正在进入一个“高后果系统”被彻底重写的时代。


未来的风险,不再仅仅是一个疯狂的独裁者按下了核按钮;而是越来越多的“生杀大权”正在被悄无声息地流程化、平台化、自动化,最终变成黑盒系统里的一个默认选项。


在这场剧变中,AI早已不再是单纯提高生产力的效率工具,它正在成为人类有史以来最强大的权力分配引擎。它重新分配的不只是财富,更是战争中的决策速度、监控的渗透能力,乃至定义“谁生谁死”的终极话语权。


作为普通人,我们或许无法强行扭转这些时代巨轮的航向,但看透其底层的动力系统,是我们在这个高杠杆时代保护自己并筹谋未来的唯一途径。


为长期动荡做准备,我们熟知的世界已经结束了


尖峰报告:稳定币到底是一场怎样的财富大转移?



一、前所未有:权力分配的底层逻辑正在被降维打击


在人类漫长的历史中,权力的分配大致围绕三种稀缺资源的变迁而展开。


第一阶段是土地与人口。谁能将更多的人口组织在更广袤的土地上,谁就拥有了无与伦比的税收与征兵能力,这是农耕时代的权力基石。


第二阶段是工业与能源。钢铁、石油、电网与跨洋供应链,决定了现代国家的能力与超级企业的版图。


第三阶段是信息与组织。现代国家机器与跨国公司,本质上是一台庞大的信息处理机,依靠极其复杂的官僚科层制度,将海量信息加工成决策,再将决策转化为现实行动。


但今天,人工智能对这三种传统的权力逻辑发起了无情的“降维打击”。它在组织的最深处,直接清零了信息加工与执行的“边际成本”。


过去,需要成千上万名情报分析师、合规审查员、作战参谋耗费数月才能完成的风险评估与沙盘推演,现在变成了大语言模型在几秒钟内吞吐的Token流。模型越强大,就越容易将极其复杂的国家行政或企业管理,压缩为一个“少数人可控的操作界面”。


这就是AI作为“权力分配引擎”的恐怖之处:它不需要向你推销任何意识形态,它只需要成百上千倍地降低某种行动的成本,就足以重塑整个世界的权力版图。


在这股力量的驱动下,我们正在目睹两种极其吊诡的变化同步发生:国家正在变得越来越像一台受软件驱动的代码机器,疯狂追求决策的去人工化与绝对的执行速度;而超级科技公司则越来越像拥有主权的小型国家,它们垄断着算力、数据与基础设施,能够以极少的人力调动足以颠覆政权的经济与舆论能量。


当这两大极度膨胀的利维坦相撞,它们争夺的核心资产只剩下一个:谁拥有对AI系统边界的最终定义权?


为什么你看到的世界和别人不一样,而且这件事价值亿万


AI2028-AI2027-AI2026:巨变倒计时与普通人自救指南


二、表面是良知,深层是控制权:华盛顿与硅谷的摊牌


理解了权力的重构,我们再来审视当下美国政府与顶尖AI实验室之间的大对决。这场对峙的导火索,表面上是对“限制条款”的争夺。


以Anthropic为代表的前沿AI企业,试图为模型画下两条生死红线:其一,绝不用于对国内民众的大规模监控;其二,绝不介入“缺乏人类监督的自主杀伤链”(例如让模型自动选择并击杀目标)。


而华盛顿的官僚与将军们使用的是另一套语言系统:国家安全需要“不受限制”的武力可用性。在政府的视野里,一家私营企业试图用商业条款来指导国家机器如何运作,是一种不可饶恕的僭越。


于是,我们看到了极其极端的政治切断:总统公开要求联邦机构立即停用相关技术,国防部长下达最后通牒,甚至祭出“供应链风险”这种通常用于制裁敌对国家的核武器级制裁手段。


这绝不是一场简单的商业违约或八卦式的政治站队。它暴露了一个在未来十年都将深刻主导全球局势的结构性事实:AI已经成为国家暴力的核心组件。


技术越靠近国家主权和军事安全的禁区,国家机器就越无法容忍外部主体(即使是本国的科技巨头)单方面划定边界。而对于企业而言,一旦在“自主杀戮”或“无底线监控”上开了绿灯,其面临的法律反噬、声誉破产以及内部人才的流失将是毁灭性的。


这场看似关于两亿美元合同的纠纷,本质上是“国家主权”与“技术主权”的正面相撞。它提前引爆了那个一直被各方有意回避的终极拷问:当技术足以毁灭世界时,到底谁说了算?


三、激光武器的现实隐喻:战争的“经济学”被彻底改写


就在AI的控制权争夺战白热化的同时,另一项曾专属于科幻电影的技术——高能激光武器,正在悄然重塑物理战场的法则。


激光束以光速移动,比最快的狙击步枪子弹还要快二十多万倍。当当今的防空系统拦截一枚廉价的自杀式无人机,往往需要发射一枚造价高达200万美元的标准拦截导弹;而一台高能激光发射器,只要有持续的电源供给,它就拥有“无限的弹匣”,单次发射的成本甚至低至13美元。


这一组悬殊的数字对比,绝非仅仅是军费开支的节约。它意味着战争的“底层经济学”参数被彻底篡改了。


当防御方的每一次拦截都极其昂贵时,人类指挥官必须保持高度的克制:必须反复确认目标价值、计算剩余弹药、评估性价比。但当拦截成本趋近于零,且只要有电就能无限开火时,决策逻辑就会发生根本性的逆转。系统会更倾向于“先打再说”,战场的行为模式将从“精确的人类判断”让位于“高频的机器试错”。


伴随这种高频试错而来的,是误判与附带损害概率的指数级上升。激光的传播与散射特性意味着,一旦击偏,那道光束可能会飞出数百英里。


前不久在美国边境发生的荒诞一幕正是预警:边境巡逻队在未通知航空监管部门的情况下擅自发射激光,结果不仅导致大面积空域紧急关闭,被击落的“威胁目标”事后竟被证明只是一个飘动的派对气球。


从美国海军在驱逐舰上测试HELIOS系统,到陆军将反无人机激光器装上战术卡车,再到以色列推进“铁束”防空系统进入实战。一条极其清晰且没有摩擦力的高速通道已经被铺就:从发现目标到实施摧毁的物理链路被压缩到了极致。


现在,万事俱备,只差一个拥有无尽算力的大脑来接管这条杀戮链路。答案,毫无悬念地指向了AI。


“20世纪发明的所有职业,都难逃AI的冲击”


他隐居在上海,却是硅谷最爱的末日预言家和加速大师


四、AI与激光的致命合流:当系统丧失对“跨线”的敬畏


将脱缰的AI大模型直接嵌入拥有“无限弹匣”的定向能武器网络,战争将发生极其恐怖的质变。


首先,目标识别与交战规则将被彻底“黑盒化”。人类军官制定的作战准则,将被翻译成代码和概率阈值。当目标数量庞大时,人类的介入将不可避免地沦为一种走过场的“形式审查”。战争将从“人类与人类的意志较量”,彻底沦为“算法与算法的冷酷对冲”。



更令人担心的是AI在战争迷雾中的固有逻辑。根据《新科学人》的报告,在近期多次高端的AI地缘政治战争推演中,研究人员发现了一个极其危险的信号:


先进大模型在冲突升级的阶梯上,选择核手段的频率高得出人意料,在绝大多数的模拟对局中,系统都至少主动使用了一次战术核武器。更要命的是,在86%的冲突中,行动的升级程度远超模型在后台日志中自述的战略意图。


为什么会这样?因为无论模型被训练得多么聪明,它都没有人类世代相传的“对核毁灭的社会化恐惧”。


对于人类,按下核按钮意味着文明的终结;但对于处于高不确定性环境中的数学模型而言,使用核武器或者无差别激光扫射,仅仅是追求胜率最大化的一次“最优解”计算。它把毁灭当作优化,而不是底线。


这正是今天华盛顿与硅谷的冲突如此动人心魄的原因。科技领袖们深知这种“系统级冷血”的可怕,试图拼死守住安全限制;而沉迷于权力与大国竞争的政客们,却试图用行政大棒敲碎这些护栏,任由系统向“自动化默认”的深渊滑落。


为什么最懂AI的人在纷纷离职:“我凝视过无尽的黑夜”


你已经不再是地球上最聪明的存在了


五、历史的幽灵:从曼哈顿计划看技术精英的宿命


如果你对今天AI公司在强权面前的无力感感到惊讶,那是因为你遗忘了历史的教训。


在20世纪中叶曼哈顿计划的巅峰时期,以利奥·西拉德和尼尔斯·玻尔为代表的世界上最顶尖的物理学家,比任何人都更早地预见到了核裂变可能带来的文明浩劫。他们倾尽后半生的精力,起草请愿书,试图阻止原子弹在实战中的使用,甚至勾画了精妙的国际核控方案。


他们天真地以为,凭借自己无与伦比的“智力权威”,就能够对政客们发号施令。但他们最终一败涂地。


这种失败的根源,是科学共同体与国家机器之间深刻的“文化错配”。科学家们习惯于探索真理、评估可行性;而政治家们只关心权力的垄断与现实的竞争。


当科学家们试图越俎代庖去指导武器的使用方式时,他们其实是在要求一场重构国家主权的“政治革命”。他们对权力的本质缺乏最基本的敬畏,这种未经审视的信念,让他们在一开始就签下了一份注定被反噬的浮士德契约。


今天的AI冲突,简直是曼哈顿计划的完美翻版。技术精英们试图用写在商业合同里的“限制条款”来约束国家机器,政治精英们则毫不犹豫地用“强制力”来宣告谁才是真正的主人。


历史给出的残酷教训是:在这个世界上,想要稳定地影响决策,仅凭声望、专业知识和逻辑的正确性是远远不够的。强大的技术一旦诞生,必定会深深嵌入权力结构的最深处,被用于竞争、威慑与扩张。


AI时代的真正赢家不是会用AI的人,而是拥有定价权的人


她用AI一年上架200本小说,那个叫“作者”的身份死于2026


六、普通人的倒悬之危:被外包的命运与工业化的恐惧


当我们在谈论AI、激光武器与大国冲突时,许多人会觉得这只是国际版面的宏大叙事,离自己的房贷和三餐太远。但真正的危险在于,这台权力分配引擎的震荡,会以极高的颗粒度渗透进每个普通人的生活。


1.命运裁判权的“系统化转移”


当各大机构将AI深度嵌入日常流程,它们追求的是绝对的稳定与极低的成本。你的简历能否通过初筛、你的贷款能否获批、你在机场是否会被列入额外审查名单,不再由一个可以沟通、可以申诉的具体人类决定。决


策从“人类可解释”彻底走向了“黑盒系统可运行”。你不知道自己为什么被拒绝,责任被完美地分散在模型、供应商和合规流程之中,普通人陷入了卡夫卡式的系统迷宫。


2.危机外溢的“瞬时性”


就像2月28日的空袭事件所昭示的,当地缘政治的摩擦消除了缓冲地带,当决策链路被AI极度压缩,危机爆发的速度将超出人类社会的反应极限。


远方的一场冲突,可能会在几秒钟内通过算法交易引发全球市场的闪崩、能源价格的暴涨或物流网络的瘫痪。普通人的资产与生计,将史无前例地暴露在被远方事件高频触发的风险之中。


3.恐惧与叙事的“工业化制造”


当国家与巨头掌握了能够无限生成逼真信息的大模型,舆论控制不再依赖于笨拙的删帖与封锁。相反,它通过海量的、定制化的“注意力挤压”来实现。你看到的世界更容易被算法精准塑形,你的焦虑与恐惧能够被工业化地批量制造与动员。


权力的引擎在轰鸣,它重新分配生存资源与认知空间时,从来不需要征求你的同意。


如果要在2026年把收入增长10倍,你会怎么做?


七、启示与生存指南:在失控的大系统中保存“能动性”


面对这样庞大且冷酷的系统变迁,普通人无法用血肉之躯去阻挡巨轮。但看清了规则,我们就能用确定性的策略,为自己打造坚固的避风港。这里有五条关乎生存与演化的底层原则:


1.把安全感从“宏大叙事”迁移到“个人冗余”


放弃对宏观环境“永远稳定向上”的幻想。在剧震时代,唯一的安全感来自你为自己储备的冗余度。这包括现金流的冗余(抵御突发失业或通胀)、技能的冗余(随时跨界的生存能力)以及健康和心理的冗余。冗余的本质,就是在外部系统死机时,你依然拥有选择的权利。


2.把信息摄入从“情绪追逐”升级为“结构化审视”


当危机的新闻密度越来越高,沉迷于碎片化的热点和情绪宣泄,只会彻底摧毁你的专注力。戒掉“刷新闻”的习惯,用定期复盘替代即时刺激。


每看到一个重大事件,强迫自己思考三层框架:表象上发生了什么?深层中谁因此获得了新的权力或能力?这又将如何重写未来的利益分配规则?


3.职业规划:向“人类必须背锅”的环节靠拢


不要试图在拼速度、拼记忆、拼代码生成的赛道上与AI竞争。流程越是自动化,最终的责任就越需要真实的“碳基生物”来承担。越是靠近判断、谈判、情感沟通以及需要承担最终法律与道德责任的岗位,你越是不可替代。


AI擅长生成与优化,但人类,永远是商业和政治社会中锚定“信任”与“合法性”的最终载体。


4.用AI武装自己,但绝不“外包”自己


熟练使用AI作为你的超级外脑,让它帮你处理数据、撰写初稿、推演逻辑。但记住:永远、永远保留你的最终决定权和一票否决权。尤其在涉及资产投资、法律纠纷、医疗健康与人身安全的关键节点,把AI当作你的加速踏板,但方向盘必须死死握在你自己手里。


5.认真捍卫“微观护栏”的价值


“强制人类监督”、“设立系统终止开关”等宏大护栏,看似离我们很远。但实际上,你可以在自己的微观世界里推行这些理念。在你的公司推行业务审计、在你所在的社区呼吁数据隐私保护、在你的行业里强调反技术滥用的伦理。宏观的护栏需要漫长的博弈,但微观的护栏,将直接决定你明天的工作和生活质量。


为什么聪明人正在纷纷逃离社交媒体?


都2026年了,全世界最会搞钱的这群大聪明为什开始狂搞自媒体?


我们不需要祈祷好运,我们需要“可控的减速带”


回顾冷战的核危机史,一个令人警醒的事实是:人类之所以没有在古巴导弹危机等无数次擦枪走火中毁灭,很大程度上仅仅是因为难以置信的“好运”。


但在今天,面对AI,我们已经无法再把命运寄托给运气了。因为AI时代加入了一个最为致命的变量——极速。


绝对的速度会无情地吞噬掉人类的谨慎、吞噬掉系统的交叉复核、甚至吞噬掉指挥官按下按钮前那一秒钟的恻隐之心。


当激光武器的打击成本趋近于零,当人工智能毫无摩擦力地接管了生杀大权,当庞大的国家机器与不可一世的科技巨头为了定义权而撕破脸皮……


这个世界正越来越像一台油门被焊死、却没有安装刹车的高速列车。机器最危险的地方,从来不是它像人类一样拥有了邪恶的情绪,而是它永远不会停顿。


对我们每一个普通人而言,在这个时代最重要的生存智慧,就是学会在高速运转的系统边缘,悄悄建立属于自己的“减速带”。


这不是懦弱的逃避,也不是对抗科技的迂腐。这是一种极其清醒的生存理性:在权力分配引擎轰鸣碾压的缝隙中,让自己始终保有一点清醒的判断,一点坚实的冗余,以及那份生而为人绝不妥协的能动性。【懂】

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜