扫码打开虎嗅APP
本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust
从亚马逊仓库到帕兰提尔办公室,AI正在把人分成两种命运。
这两年,关于AI的讨论里,最常见的一句话是:AI会不会抢走我的工作?
说实话,这个问题已经有点问晚了。
有两个数字,放在一起看,可能会让你细思恐极。
一个是20美元。这是Anthropic旗下Claude AI助手的基础订阅月费。对很多大学毕业生、年轻职场人来说,一个月20美元已经会被认真掂量;不少人会觉得,这只是个聊天工具,值不值得花这笔钱?
另一个是15万美元。这是据《纽约时报》援引的数据,Anthropic内部有员工单月在Claude Code上烧掉的token费用。同期,一位OpenAI工程师一周内跑了2100亿个token,够把整个维基百科重写33遍。
这两个数字之间,没有渐变,没有过渡,只有一道很深的裂缝。这不是贫富差距,但胜似贫富差距。
最近看到两篇文章,一篇写的是亚马逊仓库,另一篇写的是帕兰提尔。把这两篇放在一起,会看到一个比“AI会不会取代你”更重要的问题:
同样是技术进步,为什么有的人越来越像机器的附属物,有的人却越来越像机器的指挥官?
现在真正正在发生的事,AI不会平均地奖励所有人,也不会平均地淘汰所有人。而是它正在把人迅速分成两种命运:
一种人,工作越来越像给系统打杂,给模型擦屁股,给流程补漏洞;另一种人,则把模型当成外脑、团队和杠杆,开始以前所未有的速度放大自己。
前者看起来还在上班,实际上已经被降格。后者看起来也在用同样的工具,实际上已经站到了算法的上游。
这就是我今天想说的:AI折叠,AI时代真正的分水岭。
北卡罗来纳州加纳市,一个叫RDU1的亚马逊仓库。
楼层中央,是机器人的地盘。红胶带标出的走廊,人类不得随意进入。留给工人的,是边缘地带、故障处理和情绪消化。还有一条留给人类通行的绿色走廊,工人们给它起了个名字:green mile。
熟悉英文的人知道这个词的来源,电影《绿里奇迹》里,死刑犯走向电椅的最后一段路。
这不是工人的自嘲,是他们对自己处境的精确感知。
他们没有被开除。工作还在,收入还在,工牌还在。只是越来越多时候,他们的职责变成了:在机器人卡住的时候把它捅通;在系统判定"离岗时间过长"时解释原因;在走廊里避让嗡嗡作响的自动搬运设备。
《Fast Company快公司》的报道援引了一位工人的描述:"你坐在那里,看着机器人工作,你唯一的职责就是在它卡住的时候把它弄通。"
布鲁金斯学会高级研究员马克·穆罗指出:这是对大量岗位的"掏空",而且很可能蔓延到更多组织。亚马逊在2025年披露,其仓库里运行着100万台机器人,几乎与人类员工数量持平。
《华尔街日报》的分析显示,亚马逊每个设施的平均人类员工数量已降至16年最低,但每位工人处理的包裹量在指数级攀升。
人没有消失。但人的价值,在悄悄被抽空。
这才是"被算法驯化"的真实状态,不是好莱坞科幻里的机器人大军,而是你还在岗位上,只是越来越像一个系统的配件:不定义目标,只接任务分发;不拥有方法,只负责按流程执行;不掌握节奏,被指标和反馈循环牵着走。
算法最先拿走的,不是你的工作,而是你工作里最有成长性的部分。
更残酷的是:这种状态比失业更难被察觉。你每天还在上班,还在领薪水,还能跟家人说"我有工作"。但你正在悄悄失去三样东西,判断力、主体性、可迁移能力。等你意识到的时候,可能已经很难转身了。
帕兰提尔(Palantir)这个名字,在中文世界的知名度远不及它在硅谷的分量。
它成立于2003年,由彼得·蒂尔(Peter Thiel)和亚历山大·卡普(Alex Karp)等人联合创立。公司名字来自《魔戒》里的"真知晶球",一种能看透远方事物的神秘水晶球,直接说明了这家公司想做什么:帮助政府和机构"看见"那些原本看不见的东西。
帕兰提尔最早的客户是美国情报机构和军方。它的软件平台Gotham曾被用于追踪恐怖组织网络。后来又开发了面向商业客户的Foundry平台,以及近年大火的AI平台AIP。
这家公司在很长时间里处于争议漩涡。支持者说它是捍卫西方民主的技术先锋;批评者说它是"数字监控国家"的建造者。争议背后,一个不争的事实是:它在2024年底市值突破4000亿美元,相当于营收的100倍,股价在那一年翻了近三倍。
卡普这个人值得单独说说。他不是典型的硅谷CEO形象。他在德国哥德大学拿了社会理论博士,是哈贝马斯的学生,研究法兰克福学派;他练北欧武术,穿古怪的衣服,在达沃斯论坛上公开谈论西方文明的衰落。
2025年初,他出版了一本书,英文原名《The Technological Republic》,中文版译作《科技共和国》,上市即登上《纽约时报》畅销书榜首,被评为"这十年最值得读的政治论著之一"。
这本书的核心论点很简单,也很刺耳:硅谷的工程师们去做了照片分享软件和算法推送,放弃了建造重要事物的雄心,变成了资本的容器;西方要赢得AI时代,技术必须重新服务于国家使命。
你同不同意这个观点是另一回事。但帕兰提尔自己的运作方式,确实和它说的一致,它是一台专门培养"能定义问题的人"的机器。
帕兰提尔招人,不招执行者,招"前线解决者"。
它有一种独特的用人模型,叫"前线部署工程师"(Forward Deployed Engineers,FDE)。这些人不在总部坐班,而是直接嵌入到政府机构、军事单位或大型企业里,和客户并肩工作。没有详尽的需求文档,没有分层审批,没有明确的操作指南。只有一个模糊的任务,和一个要求:把事做成。
一位前员工描述了他们的入职面试中的"解构题":用一个小时讨论如何设计一个反洗钱系统,或者如何让城市地铁在高峰时段保证每个人都有座位。没有标准答案,考的是一种能力——能不能把表面上不可能的问题,拆解成可执行和可验证的小块?
这种用人方式内部有个口号:figure it out。自己想办法。
不是残忍,是筛选。他们找的人,是面对模糊任务时会主动组织行动而不是等待指令的人。
这批人后来怎样了?帕兰提尔一位前投资者关系主管维护了一份清单:379家由帕兰提尔校友创立或领导、仍在活跃的私有公司。约10%的前员工,后来都创办了自己的公司。
其中有人做AI原生医疗平台,有人做政府采购的AI解决方案,有人做为复杂硬件工程师加速测试的工具。所有这些,全部指向同一件事:把在帕兰提尔学到的"把AI接进真实问题"的能力,复制到新场景里。
帕兰提尔最强的资产,可能不是模型,不是Foundry,不是卡普本人,而是它把一群高度自驱的人放进了高密度的真实挑战里,让他们在失败和混乱中磨出了一种特殊能力,驾驭智能,而不是服从智能。
这才是“给算法当爹”的真正含义。
站在它上面。你决定它干什么,你决定什么是正确,你决定哪条路值得走,你决定什么时候该继续、什么时候该停手。
说白了,AI时代真正的权力,不在于谁最会写提示词,而在于谁有权定义任务、分配智能、验收结果。
再说回开头提到的两个数字。
Anthropic的官方定价是:Claude Pro,每月20美元;Max计划,100到200美元;API按token计费,企业级重度用户的账单则完全是另一个量级。
15万美元一个月。这个数字来自内部的"tokenmaxxing最大化"现象,测量生产力的方式,不再是你完成了什么,而是你烧了多少token。有风投开始用"你有几个agent在跑?"代替"你在做什么产品?"作为饭桌话题。这听起来很荒诞,但它揭示了一件正在悄悄发生的事:
同样是用AI,有人在偶尔提问,有人在构建持续运转的生产系统。
差的不只是订阅费用,是认知框架。
对普通大学毕业生来说,20美元像是一笔需要掂量的开支。对顶级团队来说,几十万美元的token预算是研发基础设施,是一个让AI24小时替你试错、写代码、跑分析、做实验的引擎。前者在问:"这个工具好不好用?"后者在问:"怎么把它接进工作流,让它成为我的外脑和外包团队?"
这不是消费观的差异,是使用深度的量级差距。而且这个差距,正在被AI本身加速拉大。
Anthropic的研究显示,使用经验更深的用户,会形成更成熟的使用习惯,倾向于尝试更高价值的任务,也更可能从模型那里获得成功输出。AI并不是一个你"拥有"就能生效的工具,它更像一个必须反复打磨、嵌入流程才能真正产生复利的系统。
那些已经在深度使用的人,每天都在拉开距离。
新的不平等,不只是谁有钱买模型,而是:谁买得起更高配的模型、谁能承受大量试错成本、谁能把模型接进真实工作流、谁能把一次使用变成系统性复利。
说得现实一点:
你能不能长期付费,只是一层门槛;
你能不能承受大量试错成本,是第二层门槛;
你能不能把它嵌进真实场景,形成复利,是第三层门槛。
而这三层门槛叠起来,足以把普通用户和顶级使用折叠得非常夸张。
别再做时间的朋友了,AI时代“空间”才是你致富的朋友
AI时代个体的竞争优势,根本不在于拥有什么能力
这件事对年轻人的杀伤力,比大多数人意识到的更深。
世界经济论坛2026年3月的一篇文章援引Revelio Labs数据称,美国入门级岗位招聘在过去18个月下降了35%。文章同时提醒,企业如果为追求短期效率而削减初级岗位,长期会伤害自己的人才梯队。
核心原因之一是AI正在接管那些原本留给新人练手的基础性任务过去的职业成长路径,是一条台阶:先做基础活,如数据整理、初稿写作、基础代码、简单分析,积累经验,慢慢进入复杂工作。这条路并不性感,但它可靠。
但AI把最下面几级台阶撤掉了。
基础任务先被模型吃掉,新人失去了练级场,等企业想要成熟人才时,却发现培养链断了,然后又开始抱怨招不到"有经验的人"。
这是一个结构性的悖论,没有简单的个人解法。老员工有经验,可以借AI放大,越用越值钱。新人没经验,连进入复杂任务的入场券都更难拿到。
亚马逊承诺工人可以去学机器人技术员。一个非常清醒的问题摆在那里:你永远无法把数百万工人塞进那些技术员的岗位,因为根本不需要这么多人。
不是说路不存在,是说路的宽度和人的数量,完全不是一个量级。
很多年轻人现在以为自己面对的是一个消费问题:要不要花20美元订个模型。其实他们面对的是一个更深的结构问题:当越来越多入门任务被模型吞掉之后,他们靠什么来建立对真实世界的理解?如果没有真实项目、真实责任、真实反馈,他们又拿什么去升级成能“调动智能”的人?
所以我才说,未来最危险的,不是不会用AI的人,而是还停留在“等别人分配任务”的人。

claude的进化进入了激进加速的阶段
说到这里,我还要说一件更根本的事。
Anthropic去年做了一项大规模用户研究,访谈超过8万人。其中一个发现很刺眼:人们一方面把AI当生产力工具、认知伙伴、学习加速器;另一方面,明显担心"自主性与能动性"下降,以及"认知萎缩"。大约22%的受访者提到对自动化和智能体的担忧,16.3%提到认知退化。
研究总结很扎心:人们一边想借AI学习,一边又害怕自己停止思考。
这个矛盾不是个体脆弱,是结构性困境。
如果"给算法当狗"是岗位层面的降级,那把脑子全面外包给算法,就是人格层面的降级。
因为人一旦长期处在“被生成答案喂养”的状态里,就会慢慢失去四种非常珍贵的东西:提问能力、质疑能力、结构化表达能力,以及面对复杂问题时的耐心。到最后,你看起来天天在用最先进的工具,实际上却越来越不能独立完成一场扎实的思考。
你开始让AI替你判断要不要跳槽。让它帮你决定封面配什么图。让它写完初稿你再改三个字。让它给你一个"下一步应该做什么"的清单,然后照单执行。
这没有什么可耻的,每个人都在这样做,程度不同而已。但有一件事需要认清:你每次把判断外包给模型,都在缩小一种肌肉的运动范围。
那块肌肉叫做:在没有答案的时候,还能提出好问题的能力。
帕兰提尔的"解构题"训练的正是这个。不是让你知道答案,而是让你在不知道答案的时候,还有能力把问题切开、找到结构、推进下去。这种能力,不会因为你订阅了更贵的AI计划而自动生长。
真正的分水岭,不是你会不会用AI,而是你把AI当"代替思考的拐杖",还是"放大思考的杠杆"。
别再学巴菲特了:致富的主战场已经转移,但没人告诉你
他们是律师和科学家,他们被裁了,他们投喂AI替代更多律师和科学家
Anthropic的CEO达里奥·阿莫迪今年在多个公开场合反复提到一件事:AI正在进入"激进加速"阶段。
他用的词是"endogenous acceleration",内生性加速,意思是AI开始参与设计和优化下一代AI的研发流程。模型的能力跃迁,不再只依赖外部注入的算力和数据,而是开始借助自身加速自身。他把这个过程描述为雪球,越滚越大,不是一夜爆炸,而是持续加速的复利。
他还说,到2027年前后,可能会有数百万个AI实例同时运行,每个都能自主完成原本需要人类数天或数周才能完成的任务。这些实例,不是帮你写文案的工具,而是能独立设计实验、撰写报告、推进项目的"数字员工"。
当这一层能力成熟,一个关键问题浮现:谁在驾驭这些实例?谁在定义它们去做什么?谁在验收结果、判断对错、决定下一步?
这些人,是算法的上游。
而谁在响应算法的分配,在流程里等待指令,在系统给定的走廊里通行?
这些人,是算法的下游。
这不是价值判断,是位置描述。上游人类和下游人类的差距,最终不只是收入的差距,而是"谁在定义智能的去向"和"谁在被智能定义去向"之间的差距。
这个差距,比工业革命制造的任何阶级分化都更难被看见,因为它发生在认知层面,不在工厂和办公室的物理空间里。
"当狗"和"当爹",不是侮辱,是位置;也不是俏皮话,而是接下来几年,所有人都要回答的阶层问题。
当狗:被分配任务,按指令执行,被系统定义价值。当爹:分配智能,定义任务,决定模型去做什么、验收什么、推翻什么。
亚马逊仓库的工人,不是因为不努力而被降格,是因为他们所在的系统,从一开始就没有给他们设计"上游"的位置。帕兰提尔的人之所以能成为创始人,是因为他们从第一天起就被扔进了"必须自己定义问题"的处境。
你未必能选择亚马逊还是帕兰提尔。但你可以选择,在你现在所在的位置,以什么方式使用AI。
你不一定非要成为造模型的人,但你至少要成为会调用模型、驾驭模型、审判模型的人。
那条绿色通道,不只在北卡罗来纳州的仓库里。它在每一个只会响应算法指令、却从未尝试定义过算法目标的人的大脑里。
同样面对这个时代,有人把AI当工头,有人把AI当军团。这就是AI折叠。
忘掉阶层固化,一场更关键的大分流正在发生
跑赢AI的进化,你需要的不是龙虾,而是个人品牌
所以,别再急着问AI会不会抢你饭碗了。更该问的是:
你现在做的工作,是不是越来越像在给系统补漏洞?你每天用AI,是在减少思考,还是在扩大思考?
你是在等别人告诉你要做什么,还是已经学会把模型、人和任务组织起来?
你是把AI当聊天工具,还是当生产系统?
你是站在算法下面,被它考核、驱赶、规训,还是站在它上面,给它布置任务、审判输出、逼它为你服务?
真正的护城河,不是提示词,而是主体性。
真正的升级,不是会问模型,而是会分配智能。
真正的风险,也不是机器变强,而是你在机器变强的过程中,被重新安排到了更低的位置。【懂】