扫码打开虎嗅APP
本文来自微信公众号: 老孙荐读 ,作者:立平坐看云起
AI是一个新物种,而非一项新技术
“我们知道世界将会不同。一些人笑了,一些人哭了,绝大多数人沉默不语。”1945年7月16日凌晨5点30分,第一次核试验后,原子弹之父罗伯特·奥本海默如是说。
如今,AI正在越来越多地被拿来与核武器类比,也被认为是“人类最后的技术”。
当外界还在聚焦于GPT5何时发布,重磅炸弹是什么时,大模型创业者提问:如果AI能力被坏人拿走了,将会发生什么?如果AI可以控制现实世界,人类该怎么办?
来自北京和加州的世界顶尖科学家们都对AGI的发展表达了担忧,围绕AI安全问题展开激辩。他们呼吁政府强有力的监管必须介入AI发展。一个更安全的AI,也意味着更多层面更精细的监管,AI的技术增速放慢。
与之前技术中立不同的是,多位科学家直言:AI是一个新物种,而非一项新技术。
“我们正处于人工智能的‘奥本海默时刻’。”MIT人工智能与基础交互研究中心教授Max Tegmark提醒道,人类距离第一个AI核弹只有几年的时间。
2019年,Stuart Russell来到清华大学开讲座,他刚刚出版了《人类兼容:人工智能及控制问题》一书,给清华大学人工智能学院院长、图灵奖得主姚期智留下深刻印象。
“这不仅仅是作为人的纯粹的智力追求,全世界都已意识到问题的严重性。”姚期智称,AI与人类过往经验不同,过去是坏人试图利用工具作恶,但现在,这个工具可能就是对手。真正的难题在于:人类如何在新的环境中生活?如何与一个比人类更聪明的新物种共存?原则上,这是站不住脚的,两个超级物种很难在地球上共存,并达到平衡。
智源研究院学术顾问委员会主任张宏江则表示,AI可以被应用于任何目标,好或者坏的,就像核武器。AI正在以一种超级快的速度进化。对此,Stuart Russell认为,必须要做好计划,不能任由其像科幻小说的发展那样失控,“那些被认为发生在未来遥远宇宙的事情,可能很快就要发生。”
有人认为,人类是可有可无的,只要有高智商的机器在地球上运行,就是一个完全可以接受的选择,这是最可怕的事情。Stuart Russel措辞严厉地指出,人类作为一个物种,只能选择安全、有益的AI,要绝对保证AI不会失控,不会伤害我们,“如果没有保证,唯一的选择就是简单地结束人工智能的发展。”
“我们只有2到4年的窗口期来解决这一问题。”Google DeepMind前沿安全与治理主任Allan Dafoe作出这一判断。在他看来,即将到来的是一种新的生命形式,一个新物种,它将比我们更有能力,要部署比人类水平更高的系统。人工智能文明将很快超过人类的数量,或许会达到1:100,1:1000,甚至更高的人机比例(陈振芳《中外科学家发出AI安全警告:我们正处于人工智能的“奥本海默时刻”》)。
1000天内,AI将给人类经济带来不可逆转的相变
埃马德·莫斯塔克(Emad Mostaque),一位旧世界的“掠食者”和新世界的“架构师”,是一位身处两个世界交汇点的独特人物。他曾是一位宏观对冲基金经理,他曾通过分析卫星图像上油轮的阴影长度来计算全球原油供应量;后来他华丽转身,创立了全球知名的开源人工智能公司Stability AI,这家公司因开发出开源图像生成模型Stable Diffusion而闻名。
莫斯塔克最近出了一本书,《最后的经济学the last economy》。这本书的核心论点是:随着人工智能能力的指数级提升,人类正进入一个“千日窗口”——在大约一千天内,社会经济体系将迎来不可逆转的相变。
莫斯塔克还揭示了我们时代最深刻的悖论,他称之为“丰饶陷阱”灾难。AI正在创造几乎无限的智能供给,但建立在稀缺逻辑上的现有经济体系会把这种丰裕视作灾难。换言之,我们最大的成就可能会被旧制度解读为灭顶之灾。
面对这一巨变,莫斯塔克描绘了三种可能的未来:数字封建制(少数巨头掌握AI,其余人依赖救济生存)、大分裂(各国以算法冷战相互对峙)、人类共生(构建让AI放大人类价值的新型经济体系)。
在书中他这样写道:令我挥之不去的噩梦是:我们正实现人类历史上最伟大的胜利——把智慧从生物学的束缚中解放出来。但我们的经济系统却只能将其视为灾难。这不是理论问题,而是一个近乎荒诞的悲剧。
我称之为丰裕陷阱(Abundance Trap):我们即将在智能领域实现后稀缺,但以稀缺为基础的经济体系却会把这种丰裕解读成贫困。请看看我们衡量世界的两套仪表盘。
第一套,是旧经济的官方仪表盘:股市创历史新高,GDP稳定增长,失业率处于历史低位。按照领导人关注的所有指标,我们从未如此繁荣。
第二套,是人类现实的仪表盘:生活满意度跌至有记录以来的最低点;因自杀、药物过量、酗酒而导致的“绝望之死”达到流行病水平;整整一代人被债务淹没,买不起房,也难以组建家庭。我们在账面上更富有,却在精神上比现代历史上任何时刻都更贫瘠。
这种割裂,就是范式崩塌的第一个警报。我们建造了一个彻底颠倒的文明,以至于我们最大的成就,正在成为我们的灭顶之灾(不懂经也叔的Rust《最后的经济学:1000天内,AI将给人类经济带来不可逆转的相变》)。
聚焦人工智能技术对产业生态的影响
材料定义时代
每个时代都由其奇迹材料塑造。钢铁铸就了镀金时代。半导体点亮了数字时代。如今,AI以无限心智的形式到来。如果历史教给我们什么,那就是掌握材料的人定义了时代。
在1850年代,安德鲁·卡内基作为一名电报男孩,在匹兹堡泥泞的街道上奔跑。当时,十分之六的美国人是农民。在两代人时间内,卡内基及其同辈铸就了现代世界。马匹让位于铁路,烛光让位于电灯,铁让位于钢。从那时起,工作从工厂转向办公室。
今天,我在旧金山经营一家软件公司,为数百万知识工作者构建工具。在这个行业小镇,每个人都在谈论AGI,但大多数二十亿办公室工作者尚未感受到它。知识工作不久后会是什么样子?当组织架构吸收永不睡眠的心智时,会发生什么?
这种未来往往难以预测,因为它总是伪装成过去。但我喜欢用一些历史隐喻来思考AI如何在不同尺度上发挥作用,从个人到组织,再到整个经济体。
个人:从自行车到汽车最早的迹象出现在知识工作的“高阶祭司”——程序员身上。我的联合创始人Simon曾是我们所说的10倍程序员,但如今他很少亲自写代码。走过他的办公桌,你会看到他同时指挥三四个AI编码代理,它们不仅仅打字更快,它们会思考,这让他整体成为30-40倍的工程师。他会在午餐或睡前排队任务,让它们在他不在时继续工作。他已成为无限心智的管理者。
从生命进化视角探讨AI对资本劳动权力、伦理边界的冲击
组织:钢铁与蒸汽公司是最近的发明。它们在规模扩大时会退化,并达到极限。几百年前,大多数公司是十几人的作坊。如今,我们有数十万员工的跨国公司。沟通基础设施(人类大脑通过会议和消息连接)在指数负载下屈曲。我们试图用层级、流程和文档解决。但我们一直在用人类规模的工具解决工业规模的问题,就像用木头建造摩天大楼。
两个历史隐喻展示了未来组织在新奇迹材料下可能的不同模样。第一个是钢铁。钢铁改变了一切。它坚固却可塑。框架更轻,墙壁更薄,突然间建筑可以升高数十层。新类型的建筑成为可能。AI是组织的钢铁。它有潜力在工作流程中维护上下文,并在需要时无噪音地呈现决策。第二个故事是关于蒸汽机的。真正的突破出现在工厂主意识到可以完全脱离水源时。生产率爆炸式增长,第二次工业革命真正起飞。我们尚未重新想象,当旧约束消失、当公司能靠永不睡眠的无限心智运转时,组织会是什么样子。
经济体:从佛罗伦萨到巨型城市。钢铁和蒸汽不仅改变了建筑和工厂,它们改变了城市。钢铁框架让摩天大楼成为可能。蒸汽机驱动的铁路将市中心与腹地连接。电梯、地铁、高速公路随之而来。城市的规模和密度爆炸式增长。巨型城市令人迷失方向、匿名、更难导航。这种不可读性是规模的代价。但它们也提供更多机会、更多自由。更多人以更多组合做更多事,比人类尺度的文艺复兴城市所能支持的更多。我认为知识经济即将经历同样的转变。
当AI代理大规模上线时,我们将建造跨越数千代理和人类的组织。我们仍处于AI的水车阶段,在为人类设计的工作流程上栓接聊天机器人。我们需要停止要求AI仅仅成为我们的副驾驶。我们需要想象,当人类组织被钢铁加固、当繁忙工作委托给永不睡眠的心智时,知识工作会是什么样子(Ivan Zhao《蒸汽、钢铁与无限心智》)。
李飞飞:AI很火,但方向可能偏了
前几天,Google的Gemini3Pro发布,朋友圈瞬间刷屏。很多人都在感叹:谷歌一出手,就知有没有。下一代模型,是不是参数更多?能支持更长的上下文?照这么发展下去,是不是真的要实现AGI(通用人工智能)了?
但是,著名计算机科学家、美国国家工程院院士、斯坦福大学教授李飞飞却不这么认为。11月10日,她就发布了一则长文,系统阐述了她对目前AI大模型的看法。总结一下,大概是:
目前AI卷参数,卷算法的方向,可能跑偏了。模型不理解世界,就实现不了真正的智能。
大语言模型,就像读了很多书,但没出过门的秀才。你一定知道ChatGPT,或者谷歌的Gemini。你也一定用过DeepSeek、豆包。这些产品背后的核心技术,都是大语言模型(LLM)。
大语言模型做的事情,简单来说,是“预测下一个词是什么”。你问它,“床前明月光”,它就能预测,后边几个词大概率是“疑是地上霜”。靠着这种看似简单的“接茬”能力,在吃下了大量数据之后,大模型已经进化到了惊人的地步。它能通过律师资格考试,也能做复杂的奥数题。
那,这样子下去,是不是很快就有能自主学习、完成任务的通用人工智能了?
不一定。虽然语言大模型看上去很厉害,但如果问它一些特别简单的问题,比如,这辆车离那棵树有几米?这个箱子能塞进后备箱吗?它却大概率会瞎蒙,还会出现“杯子松手后飞上天”的情况。
这也解释了,为什么你的AI助手,动不动就会“胡说八道”。因为,如果AI只遵照语法通顺,它完全可以认为,太阳会从西边升起。即便这在物理世界里,不可能发生。
李飞飞说,这就要让AI,掌握“空间智能”了。举个例子。喝咖啡。你的大脑在这一瞬间,会处理很多信息。你的眼睛,要判断杯子和嘴边的距离;你的手部肌肉,要根据杯子的重量,精确调整抓握的力度;你的皮肤,要感知杯壁的温度,防止烫伤;你的手腕,要配合身体的倾斜,保持杯口的水平,防止咖啡洒出来。
在这个过程中,你用到语言了吗?你有没有在心里默念,把肱二头肌收缩30%,手腕向左旋转5度?没有。整个过程,靠的是感知、想象、行动。这种“不通过语言,理解物理世界,和物理世界互动的能力”,就是空间智能。
而李飞飞也认为,有了空间智能加持的AI,才会通向真正的智能。因为智能的本质,是能在不确定的世界中持续预测、行动、达成目标。这不能靠大脑凭空产生(刘润《李飞飞:AI很火,但方向可能偏了》)。
她是怎样在一片反对声中找到她的北极星
机器人将如何融入我们的世界?
今天正好看到《科学美国人》杂志2026年首期封面文章。作为一名十年前就深度参与机器人行业的的“老兵”,我除了把这篇文章的主要内容转译一遍之外,还再谈点自己的感受。
那些在实验室里像体操运动员一样的机器人,本质上还是“展示品”,是拿来给投资人做PPT用的。真正正在发生剧变的,是那些你看不见的地方——那些要把机器人从“好看”变成“有用”,从“吉祥物”变成“生产力”的枯燥细节。
如果你还把机器人当成“遥远的未来”,那你已经慢了整整一个身位。
在人工智能领域,有一个著名的“莫拉维克悖论”。简单说就是:对人类来说很难的事(如下围棋、算高数),对机器很简单;但对人类来说简单的事(如叠衣服、在杂乱的房间里走路),对机器却难如登天。
因为工厂是“结构化环境”,所有的螺丝都在固定的位置,那是低熵状态。而家庭、医院、养老院,是典型的“非结构化环境”,是高熵状态。在这种环境下,只要算法稍微有一个Bug,后果可能不是死机,而是“物理伤害”。所以,过去几十年,机器人之所以没有像智能手机那样普及,不是因为电机不够转,而是因为“脑子”处理不了现实世界的混沌。但这个“死结”,正在被解开。
我们正在经历一场从“硬编码”到“具身智能”(Embodied AI)的范式转移。以前是程序员一行行写代码告诉机器人怎么动,现在是让机器人像人类婴儿一样,通过大模型在虚拟世界里训练几亿次,学会了“物理直觉”。
这不是技术的微调,这是物种层面的“认知进化”。
机器人产业的爆发,并不是因为某一家公司突然开窍了,而是因为三个原本不相干的齿轮,突然“咬合”在了一起。这可称之为“三重叠加效应”。第一重:摩尔定律的降维打击。第二重:劳动力结构的“暴力重构”。第三重:资本开始为“确定性”买单。当技术可行性、市场迫切性、资本流动性这三者在同一个时空交汇,所谓的“奇点”,就这么发生了。
机器人赛道,本质上是一个“达尔文式”的绞肉机。如果你看到那种只会跳舞、表情夸张,但连个快递都拿不稳的机器人公司,直接划走。那是搞泛娱乐的,不是搞生产力的。真正的护城河,不是你申请了多少专利,而是你的机器人“被现实反复折磨过多少次”(知行者高博士《<科学美国人>2026年首刊:机器人将如何融入我们的世界?》)。
分析AI与机器人融合如何推动全产业链重构
AI和人脑的根本区别找到了,我们对“聪明”的理解可能全错了
一篇发表在2025年《自然·机器智能》上的研究,像一颗深水炸弹,炸开了人工智能和人类认知之间最深的那道墙。这篇由二十多位国际顶尖专家联手的研究,它告诉我们,AI和人类在“泛化能力”上,压根就不是一回事。
什么叫泛化能力?说白了,就是举一反三、活学活用的本事。
你给一个小孩看几把椅子,他就能认识世界上所有的椅子,甚至能把一个没见过的墩子也叫“椅子”,因为他理解了“椅子是用来坐的”这个抽象概念。
AI呢?你给它看一百万张椅子的照片,它能以极高的精度认出第一百万零一张椅子。但如果这张椅子是一个没见过的墩子,它可能就懵了。
研究牵头人之一,Benjamin Paassen教授一针见血地指出:“‘泛化’对AI和人类来说,意味着完全不同的事情”。
这就是问题的核心。
人类的泛化,走的是一条“抽象”的路。我们看世界,会自动忽略掉那些不重要的细节,比如椅子的颜色、材质、高矮,然后抓住最本质的特征——“有个平面能支撑屁股”。这个过程,是概念思维。我们的大脑里形成了一个关于“椅子”的灵活框架,可以套用在任何新事物上。
AI的泛化,走的是一条“统计”的路。它没有“概念”,只有“模式”。在它眼里,椅子不是一个功能性的东西,而是一堆像素点的特定组合。它通过学习海量数据,记住哪些像素组合最可能被标记为“椅子”。这更像是暴力破解,而不是真正的理解。
所以,人类的学习是高效的。一个概念,看几个例子就通了。AI的学习是笨重的。一个概念,需要成千上万,甚至数百万个数据样本去喂养,才能勉强“记住”模式。
以前,我们总想让AI变得更像人,甚至取代人。现在我们明白了,这是条死胡同。未来的方向,不是替代,而是互补。
就像一个完美的搭档,AI负责它擅长的:处理海量数据、执行重复性任务、在规则明确的领域里做决策。人类则负责我们擅长的:处理模糊和不确定的情况、进行创造性思考、做出涉及伦理和价值观的判断(Suani《Nature重磅:AI和人脑的根本区别找到了,我们对“聪明”的理解可能全错了》)?
人工智能或许只是又一项“普通”技术?
当前社会对人工智能的看法两极分化严重。一端是乌托邦式的愿景:AI能推动经济腾飞,加速科研突破,甚至帮助人类实现永生。另一端则是反乌托邦的忧虑:AI将引发大规模失业、经济动荡,甚至可能失控毁灭人类。
普林斯顿大学两位计算机科学家——Arvind Narayana与Sayash Kapoor今年发表的一篇论文显得格外引人注目。他们以一种“不合潮流”的冷静态度,将AI视为一项“普通技术”。这一观点在AI研究者和经济学家中激起了广泛讨论。
论文作者指出,无论是乐观派还是悲观派,都将AI视为具有自主意志的前所未有的智能体,认为其将决定自身的未来,因而与历史上任何技术发明都不具可比性。
Narayana与Kapoor不接受这一预设,并描绘了他们眼中更可能成真的情景:AI的发展很可能将遵循以往技术革命的普遍规律。他们进一步推演了这一假设对AI普及、就业、风险与政策制定的影响。文中强调:“将AI视为普通技术,与将其视为类人智能相比,会得出根本不同的风险应对策略。”
作者认为,AI的普及速度一直慢于其技术创新。此外,许多知识具有“隐性”与组织特异性,数据格式未必兼容,使用也可能受法规限制,这些都拖慢了普及进程。类似的制约在一百年前的工厂电气化过程中同样存在:由于需要彻底重新规划车间布局、生产流程与组织架构,电气化改造整整用了数十年。作者由此得出结论:AI的经济影响“更可能是渐进的”,而不会在短时间内令大部分经济领域骤然自动化。
即便AI普及缓慢,它仍将深刻改变工作的本质。
这进而影响到我们对AI风险的认知方向。值得注意的是,作者质疑当前过分强调AI模型的“对齐”研究。他们指出,某一输出是否具有危害性,往往取决于人类能够理解、而模型却无从掌握的语境。作者建议,防范AI滥用(如编写恶意软件或设计生物武器)的措施,应更多聚焦于下游环节,通过加强现有网络安全与生物安全防护体系来实现。这样做同时也能提升应对非AI形式的威胁的能力。
当然,这篇论文并非无懈可击。然而,当读到这篇将AI“拉下神坛”的论述,许多人会在阅读中频频点头,心生共鸣。这种不偏不倚的中间立场,既不像预言“AI将快速崛起”那样激动人心,也不如渲染世界末日那般引人注目,因此往往在舆论场中被边缘化。在当前对AI投资热潮可持续性担忧的背景下,他们的论文在如今的AI狂热和焦虑之间,增添了一份“平淡”的理性(经济学人《人工智能或许只是又一项“普通”技术?》)。
超级智能的经济学
在1700年之前,世界经济平均每世纪增长8%。如果有人预测接下来会发生什么,那他一定会被认为精神错乱。在接下来的300年里,随着工业革命的兴起,经济平均每世纪增长350%。这带来了更低的死亡率和更高的生育率。人口增多产生了更多的想法,从而导致了更快的发展。由于需要增加人力,这个循环进展缓慢。最终,随着财富的增加,人们生育的孩子越来越少。这提高了生活水平,使其以每年约2%的稳定速度增长。
人工智能将不受此类人口结构的限制。因此,经济再度爆发式增长的可能性是存在的。如果计算能力在无需人类参与的情况下带来技术进步,并且将足够多的收益重新投入到打造更强大的机器中,财富可能会以前所未有的速度积累。据乐观的智库Epoch AI最近的一项预测,一旦人工智能能够完成30%的任务,年增长率将超过20%。
要想象人工智能令人难以置信的影响,您无需走那么极端。不妨将此作为一个思想实验,仅考虑向人类水平智能迈进一小步。在劳动力市场中,完成某项任务所需计算能力的成本会限制执行该任务的工资:为何要给工人支付比数字竞争对手更高的薪酬?然而,那些技能不可替代且能直接与人工智能互补的超级明星人数会越来越少,他们将获得巨额回报。
在所有可能的情况下,唯一比他们做得更好的人,很可能是拥有与人工智能相关的资本的人,这些资本将吞噬越来越多的经济产出份额。
新的充裕与短缺模式会在价格上有所体现。任何人工智能能够助力生产的东西——比如全自动化工厂制造的商品,或者数字娱乐产品——其价值都会大幅缩水。如果你担心自己的工作被人工智能取代,那至少可以期待这类东西会变得非常便宜。
这种经济动荡会在金融市场中有所体现。随着一些公司在赢家通吃的竞争中胜出变得清晰,股票价格可能会出现剧烈波动。人们会急切地想要投资。与此同时,为未来储蓄的愿望可能会崩溃,因为人们预计未来收入会大幅增加。因此,要让人们放弃投资,就需要大幅提高利率,高到足以使长期资产价格下跌。无法或不愿利用人工智能繁荣的国家可能会面临资本外逃。
这是一个令人眩晕的思想实验。人类能够应对吗(经济学人《|超级智能的经济学》)。
回报惊人的豪赌,但受益者寥寥
今天,我们生活在一个“K型”世界中——这个冰冷的字母,精准地描绘了我们这个时代最令人不安的现实:复苏与繁荣的路径,出现了残酷的分叉。
官方宏观经济数据,如同一个粗糙的平均数,掩盖了地壳之下的剧烈摩擦。真相,藏在更细微的数据里。
瑞银(UBS)分析师乔纳森·平格尔和他的团队将当前的经济格局描述为“一场对人工智能和高收入家庭的豪赌”。这场赌局,迄今为止回报惊人,但受益者寥寥。
飙升的AI股估值,为那些本就富裕的家庭带来了前所未有的财富盛宴。与此同时,美联储的信用卡拖欠数据描绘了另一幅图景。对于中低收入家庭而言,财务压力已经超过了2008年金融危机的峰值。在最富有的那部分家庭中,这些压力的迹象却根本无处可寻。
这不是周期性的波动,这是结构性的断裂。两个经济“太阳系”正按照完全不同的物理法则运行:一个受资产价格和资本回报的引力所支配,另一个则被困在工资停滞和生活成本上涨的黑洞之中。在这种分裂的现实中,华尔街的分析师们,正试图解读一个精神分裂的市场。
就在上周,消费类股票终于显露出一丝生机。但费勒的洞察揭示了真相:这与其说是出于对消费者健康状况的信心,不如说是一次纯粹的技术性轮动——当炙手可热的AI概念股连续三天遭遇抛售时,资金需要找一个暂时的避风港。于是,它们流入了仓位极轻、被悲观情绪笼罩的消费板块。
那么,这场大分裂将如何收场?
官方的剧本似乎是这样写的:在接下来的几个季度里,K型的下线将继续在困境中挣扎。然后,在2026年第二季度,一笔来自税收减免的意外之财将像天降甘露,暂时提振消费,并巧妙地与中期选举周期同步。
与此同时,政府将巨大的赌注押在了AI建设热潮上——数据中心的“海啸”、电网的升级——期望这股力量能在2026年下半年及以后,拉动整体经济这艘大船。
但这无疑是一场危险的走钢丝。平格尔团队发出了一个不容忽视的警告:“如果存在股市泡沫,并且它破裂了,对实体经济来说,小心脚下。”这句话点破了一个残酷的现实:我们当下的繁荣,其实是一场建立在脆弱地基上的豪赌(穆阳《K型消费》)。
揭示机械化与自动化对劳动就业、收入分配的深层影响
“旧经济”,正在缓缓落幕
不久前,全球领先的支付公司Stripe的联合创始人帕特里克·科里森(Patrick Collison)提出了一个令人困惑的问题。
他发了一张图表,上面是苹果(AAPL)、微软(MSFT)和谷歌(GOOG)三家公司的市值增长曲线,从2010年到2025年,三条线几乎完美地平行飙升,从约2000亿美元的体量,一路狂奔至接近3万亿美元的巅峰。
科里森问道:“这些公司表面上从事着完全不同的业务,但为什么它们的增长动态看起来如此一致?这背后到底是什么解释?”
这个问题引来了多方关注,其中最引人注目、也最大胆的回应,来自著名的思想家、前Coinbase首席技术官巴拉吉·斯里尼瓦桑(Balaji Srinivasan)。
他的解释是:传统经济(legacy economy)正在日落,互联网经济(Internet economy)正取而代之。
一张图比较了从2005年到2025年间,“科技七巨头”(Magnificent 7)与标准普尔500指数中其余493家公司的表现。结果令人瞠目结舌:
七巨头的增长曲线如同一飞冲天的火箭,指数从100飙升至3500左右;而另外493家公司的曲线,则几乎是一条毫无生气的地平线,增长近乎停滞。
什么是“传统经济”?它并不仅仅指那些冒着黑烟的工厂或古老的行业,而是指那些在工业革命基础上建立起来的、以物理实体为核心的经济模式,包括了我们熟悉的制造业巨头,如通用汽车;能源领域的埃克森美孚;传统零售业的沃尔玛;以及大型制药公司辉瑞等。
这些行业的共同特点是,它们的增长与物理世界的限制紧密相连。它们的扩张依赖于高昂的资本支出,需要建造更多的工厂、铺设更长的供应链、雇佣更多的工人。
这种增长模式是线性的——产出的增加几乎总是需要投入的同比例增加。而这些曾经的经济支柱,如今正增长乏力。
与传统经济的线性增长和物理束缚形成鲜明对比的,是互联网经济的指数级潜力和无边界特性。这是一个以数字为基础、由代码构建的世界,其核心驱动力彻底改写了商业规则。
谷歌之所以能占据全球92%的搜索市场份额,Meta能吸引全球近七成的社交媒体用户,正是因为它们的服务会随着用户数量的增加而变得更有价值,从而形成强大的护城河。微软的Azure云服务可以为全球数十亿用户提供计算能力,而服务新增一个用户的成本几乎可以忽略不计。软件和数字产品可以被无限复制和分发,不受物理库存和物流的限制。
这场新旧经济的交替,正在深刻地重塑我们的社会、职业乃至未来的治理模式。
对于社会而言,这场变革带来了效率的极大提升和创新的加速,但同时也加剧了财富分配的不平等。科技财富的集中,以及传统行业岗位的流失,是每一个国家都需要面对的严峻挑战(TOP创新区研究院《“旧经济”,正在缓缓落幕》)。
人工智能经济中正发生某种不祥之事
一家大多数人都从未听说过的公司,却跻身今年表现最佳的科技企业之列——它也象征着当今人工智能公司开展业务时那种复杂、相互关联且可能带来灾难性后果的方式。
人工智能行业的极端金融化反映了一个简单现实:训练和运行人工智能系统所需的基础设施成本极其高昂,即便是最大的公司也没有足够的现金来全额支付。
这场行动的核心是全球市值最高的公司——英伟达。像Anthropic和OpenAI这样训练和运行人工智能系统的公司需要英伟达的芯片,但手头却没有足够现金支付。而英伟达则拥有大量现金,但需要客户持续购买其芯片。
因此,双方达成了一系列交易:人工智能公司实际上通过出让未来利润的一部分(以股权形式)来向英伟达付款。这些安排相当于整个行业正在对一种远未盈利的产品进行孤注一掷的豪赌。
人工智能公司及其支持者认为,这种赌博值得一试。他们指出,对人工智能服务的需求正以指数级速度增长。据广受引用的人工智能行业分析师阿齐姆·阿扎尔(Azeem Azhar)计算,过去两年人工智能服务的直接收入增长了近九倍。阿扎尔说,“所有人都假设这项技术将以线性速度进步。但人工智能是一种指数级技术。这是完全不同的范式。”
然而,如果人工智能未能如倡导者所设想的那样在短期内产生利润——如果其技术进步放缓,且提升生产力的效果令人失望(越来越多的证据表明情况可能正是如此)——那么将整个行业捆绑在一起的金融纽带就可能成为所有人的共同覆灭之源。
股市财富极度集中在少数几家彼此存在深厚财务联系的科技公司手中,这可能使人工智能泡沫破裂带来的冲击比2000年代的互联网泡沫破裂更为严重。
而股市调整或许还不是美国最该担心的问题。当股权投资失败时,投资者可能会血本无归,但对实体经济的损害通常有限。但人工智能基础设施建设成本如此之高,仅靠股权投资根本无法支撑。为了融资,人工智能公司已背负数千亿美元债务,摩根士丹利预计这一数字到2028年将升至1.5万亿美元。
当大量高杠杆贷款同时违约时,其后果可能蔓延至整个金融体系,并触发一场严重衰退。
由人工智能引发的金融灾难远非不可避免。但特朗普政府却反其道而行之。今年8月,总统签署了一项行政命令,指示联邦机构放松监管。也许这正是2008年与2025年的关键区别:当年,联邦政府对危机措手不及;这一次,它似乎正在主动招致一场危机(RogéKarma《人工智能经济中正发生某种不祥之事》)。
AI正在重塑社会阶层
技术总是重塑社会阶层。纵观人类历史,每一次重大技术革命都会重塑社会结构。在农业革命时期,掌握农业技术的人很快成为社会的统治阶层。而在工业革命时期,那些能够驾驭新机器的工程师和企业家迅速崛起,成为新的精英阶层。
今天,我们正在经历一场同样深刻的变革,只是这次的分水岭不是体力或机械能力,而是思维能力。这种转变甚至可能比之前的技术革命造成更大的社会分化。
在杭州的阿里巴巴园区,这种分化已经显现。一位负责人才发展的高级主管陈经理在园区的咖啡厅里向我描述了她的观察:"现在的员工大致可以分为三类。最上层是那些能够驾驭AI、提出创新性方案的人,他们经常能给公司带来突破性的想法。中间是大量依赖AI完成日常工作的人,他们的效率提高了,但创造力在下降。最令人担忧的是第三类,他们完全依赖AI,失去了独立思考的能力,现在很多原本的中层岗位都在悄悄替换这样的人。"
这种分化在薪资水平上也清晰可见。
新精英的崛起。一个新的精英阶层正在悄然崛起。他们既精通AI工具,又保持了强大的独立思考能力。在杭州的阿里巴巴园区,我见到了这样一位"双栖"人才。
王工程师是阿里云的技术专家,同时也是公司内部最受欢迎的技术文章作者。他的工位上同时开着好几个AI写作工具的窗口,但他使用它们的方式很特别。"我把AI当作我的研究助手和讨论伙伴,"他一边调试代码一边解释,"它帮我收集信息,提供不同角度的观点,但最终的思考和决策都是我自己来做。这就像学会了驾驭野马,而不是被野马带着跑。"
这种新型人才正在各个领域崭露头角。字节跳动的数据显示,他们内部被称为"AI增强型创作者"的员工,在2023年的晋升速度比普通员工快40%。这些人不仅在工作效率上有明显优势,在创新能力和问题解决能力上也远超同侪(chouti《Paul Graham认为AI正在重塑社会阶层》)。
人工智能将使大多数沦为“永久底层”
“永久底层”这个概念近来广为流传,部分是作为网络笑话,部分则源于一种真切的恐惧:人工智能自动化将如何颠覆劳动力市场,并创造一种新的不平等常态。
在人工智能主导的未来,拥有资本的人将购买“算力”,并用它来完成过去由人类承担的工作:从软件编程到设计营销活动,再到管理工厂。而那些没有同样资源的人,将别无选择,陷入困境。
对这种即将到来的人工智能“种姓制度”的恐惧感,催生了一种新的紧迫感——趁现在还有机会,赶紧出人头地。硅谷一个名为@creatine_cycle的梗图账号最近在X(前身为推特)上发帖称:“你还有两年时间去做个播客,否则就逃不出永久底层了。”这似乎在暗示,名望或许还能拯救你。
@creatine_cycle的创建者是杰登·克拉克(Jayden Clark),一位前音乐人,如今在旧金山创业。他发布的帖子精准地讽刺了科技行业的集体无意识。他告诉我,自从人工智能淘金热兴起以来,他亲眼见证了科技行业的剧变。
研究员、前OpenAI员工利奥波德·阿申布伦纳预测,到2027年,人工智能将达到或超越人类的能力。阿申布伦纳写道,届时“模型将能够胜任人工智能研究员/工程师的工作”,这一点“似乎非常可信”。到那时,技术进步将进入自我强化的失控反馈循环:人工智能将自行构建更强大的人工智能,使人类变得多余。
著名的人工智能悲观主义者、机器智能研究所(Machine Intelligence Research Institute)所长内特·苏亚雷斯(Nate Soares)告诉我:“在硅谷,感觉就像每个人都见了鬼一样。”他接着说,“我们不知道(在全自动人工智能时代来临之前)时钟还剩下多少时间。”
抛开他自己对这项技术的生存恐惧不谈,苏亚雷斯表示,“从长远来看,人们不应该把赌注押在工作上。”科技类工作可能会成为首批受害者,就像弗兰肯斯坦(Frankenstein)的怪物杀死了它的创造者一样。
紧随其后的将是更广泛的数字化劳动领域:写电子邮件、填写电子表格、制作演示文稿。最终,能够自我创新的人工智能将开发出更智能的机器,以更好地执行体力任务。苏亚雷斯认为,任何人工智能能做得更好的事,它终将取而代之:“就几乎所有工作而言,人类都不是最高效的物质组合形式。”
今年,美国应届大学毕业生的失业率超过了全国平均水平,牛津经济研究院的一份报告将这一反常现象主要归咎于人工智能自动化。入门级软件工程师正面临着尤为严峻的困境。
曾在Substack工作、现在撰写一份关于硅谷文化的时事通讯的孙茉莉(Jasmine Sun)告诉我,在科技从业者中,“许多人真的在苦苦挣扎,连一份正常的薪水都找不到,而另一些人则拿着前所未有的高薪,赚得盆满钵满。这就造成了一种两极分化的感觉。”
对永久底层的恐惧,反映出一个事实:对于未来由人工智能主导的社会将如何构建,目前尚无一个清晰的愿景。孙在谈到那些推动加速主义的硅谷精英时说:“他们没有深入思考经济层面的影响;没有人提出财富再分配或全民基本收入UBI的方案。”
留给底层民众的,似乎将是一个由人工智能生成内容和聊天机器人提供虚假陪伴的惨淡世界。正如孙所言:“你是想成为那头猪,还是成为那个做猪食的人?”(Kyle Chayka《人工智能会让你陷入“永久底层”吗?》)。
AI将消灭中产阶级,未来只剩金字塔尖0.1%和底层
就在刚刚,前谷歌X高管发出震撼警告——中产阶级,将彻底被AI消灭,从此只剩金字塔顶端的0.1%和底层民众两类人。
根据这位名为Mo Gawdat的高管预言:「AI地狱期」将从2027年开始爆发,一连持续15年!在此期间,白领大规模失业、经济失衡、社会动荡这些地狱场景,会在15年中接连上演。这场海啸将摧毁一切,再重建新秩序,生成一个新世界。
不过好在,地狱时期之后,人类将迎来乌托邦时代——2042后,人类劳动者再也不用从事重复和平凡的工作。
Gawdat斩钉截铁地表示:我们可以利用AI建一个乌托邦。当然,如果人类管理不善,也可能会让我们进入反乌托邦:一个高度控制、监视、服从,充满贪婪、自负和权力的世界。
Gawdat强调,AI和自动化会导致大量工作岗位消失,收入和财富极度不平等,绝大多数人只能依赖普遍基本收入(UBI)生存。比如,万亿富翁会拥有巨额财富,买下所有东西,而机器人和AI负责一切生产。人类则很可能没有任何工作可做。为什么,难道技术革命不会创造的大量新岗位吗?并不会。比如一个过去需要350名开发者的公司,如今只需要几个技术人员,和一堆AI员工。
到那个时候,中产阶级,将彻底消失。也就是说,中产阶级将彻底被AI消灭,从此只剩金字塔顶端的0.1%和底层民众两类人。除非你属于顶尖的那TOP 0.1%,否则你就是「农民」。
这更像是采集狩猎社会,或者一种社区式的社会。人类会彼此连接,而人与自然、土地、知识和灵性紧密相连。我们每天醒来时,都不必为现在那些让我们担忧的事情而烦恼。你起床后,可以去健身、玩游戏、读书,或者让AI帮你学东西。
其实,这就是你祖父母那一辈的生活——在两代人以前,那时的人们上完一天的班后,还会回家享受生活(新智元《AI将消灭中产阶级!前谷歌高管惊人预警:未来只剩金字塔尖0.1%和底层》)。
公司越赚钱,越是要裁员
2025年都快过完了,鬼故事仍然层出不穷。12月4日,根据咨询公司Challenger,Gray&Christmas的报告:截至11月,全美雇主累计裁掉1170821名员工,较去年激增54%。
直逼2008-2009年金融危机时的惨状。
把这数据带入到当下的环境,属实有些荒诞。GDP还在涨,股市还在创新高,CEO们的奖金池里依然能养鲸鱼。年景不能说不好,为什么就业市场如此惨淡?
与往年不同,2025年的美国裁员潮有个很明显的不同点。最先被炒的不再是是蓝领和临时工,而是那些年薪15万-30万美元的中产。
高薪岗位集中在哪里?当然是金融和科技行业。其中仅科技行业,就贡献了117万的裁员名单中的35%。而这35%中,又大多是中层管理岗。
这很正常,AI工具让CEO可以直接通过屏幕看到一线数据,那么中间那些负责“汇总周报”的经理们还有什么存在的意义?所以在2025年裁员名单中,“经理”、“总监”头衔的占比达到了历史最高的28%。
这些“多余”的人,就是CEO的KPI。
因为华尔街在2025年确立了一个新教条:每员工营收。
不管你赚多少钱,如果你的员工数还在涨,那就是垃圾公司。如果你的利润涨了,员工数还降了,那才是好公司。
于是,裁员不再是应对危机的手段,而是一种常态化的管理工具。这就好比减肥,以前是因为胖才减,现在是为了以此为乐,减得皮包骨头才觉得美。
所以我们看到了科技企业越赚钱、裁员越多的现象:惠普第四季度营收146亿美元超市场预期,转头宣布三年裁掉6000人;亚马逊第三季度营收暴涨13%,却砍掉1.4万个管理岗;IBM软件收入增长10%,仍计划最多裁员1.08万人;微软一季度净利润258亿美元,同比增长18%,转头就宣布裁员6000人;4月份特斯拉宣布全球裁员1.4万人;谷歌被爆出年底将有3万销售人员被AI取代;……
截至11月,科技七巨头净利润总和同比涨19%,但预计全年裁员153536人,较去年激增47%。
亚马逊1.4万被裁者中72%是经理及以上岗位,IBM裁员集中在“低效率支持部门”,惠普则直接剔除“冗余人力层级”。
截至目前,科技行业管理岗裁员占比从2023年的12%飙升至2025年的31%,每裁掉1名中层管理者,企业平均每年节省14.7万美元薪酬及福利成本。
很明显,至少对企业而言,“降本增效”确实是有用的。既然有用,那当然还会继续这么干。未来的环境,或许会比现在更加内卷(城北徐公《超117万人被裁!》)。
被裁的亚马逊普通员工,怒怼AI
上月底,亚马逊启动了近年规模最大的一轮裁员,约14000个岗位被直接削减。这并非一场常规的降本增效,而是一轮面向AI时代的组织重构。对许多一线员工而言,真正的危险不是绩效下滑,而是岗位本身正被系统性稀释。
亚马逊CEO今年强调“Use AI or Bye-bye”。公司计划将更多资源加速投入到AI基础设施、大模型、云计算及自动化系统中。随之而来的,是大量原本支撑跨境电商、国际零售和中后台运营的岗位,被压缩、合并,甚至直接消失。
在这一背景下,裁员逻辑变得简单而冷硬:不是你不够努力,而是你的岗位已不再被需要。
面对AI,那些过去依靠经验、沟通、流程和耐心维系的普通岗位,正逐渐失去支点,被悄然移出职场版图。
从裁员邮件降临的一刻,到系统账号被瞬间注销;从AI工具的真实使用体验,到安稳感被击碎的瞬间——在这些细节里,一场工业级的AI转型,变得具体、冰冷,也更加接近普通人的真实命运。
得知自己被裁员那一刻,李明岚正在加班。10月28日傍晚,她正对着电脑核对客户数据。“叮”一声,右下角弹出一封新邮件。标题很短,没有多余修饰。她愣了几秒,才意识到,那是一封裁员通知。
李明岚从事电商行业近10年,入职亚马逊担任客户经理一年多来,绩效排名始终靠前。裁员名单中突然出现自己的名字,让她一时难以回神。她立刻告诉两位上级领导,但对方同样一脸错愕。除了表示惊讶与惋惜,他们也无法提供更多信息。据称,他们也是从前一天的媒体报道中才得知裁员消息,对具体安排并不知情。
想到仍有客户在等待回复,李明岚回到电脑前打算处理交接,并逐一向客户道别。系统却弹出提示:“您已无法登录。”没有交接,没有过渡。她手中未完的项目和问题,就此戛然而止。“快到甚至不需要交接。”在李明岚看来,这次裁员更像一场迅速而彻底的清算。
在裁员消息公布之前,亚马逊内部早已出现过“预警”。6月底,李明岚收到一封系统邮件,附上了CEO安迪·贾西在公司官网发布的一篇长文。密密麻麻的英文中,“AI”几乎每隔几行就出现一次。
从基础设施、大模型,到云服务、电商和物流应用,亚马逊今年展开了有史以来最大规模的技术投入。1000个人工智能相关的项目正在开发,公司物流仓储、云服务、电商业务等都正在被AI重塑。满屏都是与AI相关的雄心壮志。
在文章结尾处,贾西写道:随着AI效率的提升,未来几年公司员工规模将随之缩减。
当时看到这句话,李明岚并未放在心上。AI取代人,是一种被讲了太多年的“未来命题”。直到裁员邮件弹出,她才反应过来:原来,未来这么快就来了(赵芮《被裁的亚马逊普通员工,怒怼AI》)。
印度AI应用导致的裁员毁掉了无数人的“中产梦”
印度的典型软件行业正面临清算的时刻。印度最大的私营企业雇主——塔塔咨询服务公司(TCS),同时也是该国最大的IT服务公司——宣布将裁减超过12,000个中高级管理人员。这将使该公司的员工总数减少2%。这家总部位于孟买的软件巨头拥有超过50万名IT员工,被认为是印度2830亿美元软件行业商业信心的风向标。它构成了印度正规白领就业的支柱。
TCS表示,做出这一决定是为了让公司“为未来做好准备”,因为在传统商业模式遭受巨大冲击的情况下,公司正在投资新领域并大规模部署人工智能。
几十年来,TCS等公司一直依赖廉价的技术劳动力以较低的成本为全球客户生产软件,但这种情况已被人工智能自动化任务和客户要求的更多创新解决方案(而不仅仅是节省人力成本)所颠覆。
TCS在一份声明中表示:“一系列重新培训和重新部署举措已在进行中”,并补充说,将“从组织中释放那些可能无法部署的员工”。
专家表示,TCS的声明也凸显了该国软件行业严重的“技能错配”。由于生成式人工智能能够快速提高生产力,“这种技术转变迫使企业重新评估其劳动力结构,并分析是否应该将资源重新分配到能够补充人工智能能力的岗位上,”Grant Thornton Bharat的经济学家Rishi Shah告诉BBC。
据行业机构Nasscom称,到2026年,印度需要100万名人工智能专业人员,但该国IT专业人员中拥有人工智能技能的还不到20%。为了给未来培养新的人工智能人才,科技公司在技能提升方面的支出大幅增加,而那些不具备必要技能的人才则被拒之门外。
印度科技巨头如何快速适应人工智能革命带来的一系列颠覆性变化,将决定该国能否保持其作为全球科技参与者的优势,以及能否扩大其消费型中产阶级,从而保持其GDP增长的正常轨道(猪爸爸本尊《印度AI应用导致的裁员毁掉了无数人的“中产梦”》)。
马斯克揭秘Optimus如何消灭贫困
在特斯拉股东大会上,马斯克又抛出了一个足够颠覆你认知的概念。这次的主角不是电动车,而是特斯拉的人形机器人——Optimus。
他描绘的这张蓝图,已经不再是科幻小说的想象,而是一张正在快速铺开的“文明级”施工图。这台机器人不只是一个能干活的工具,它是他用来彻底颠覆全球经济和人类社会结构的终极“外挂”。
如果Optimus只是一个能更快、更便宜制造出来的机器人,那它顶多算是一个划时代的工业产品。但马斯克赋予它的使命,是直指人类社会的两大终极难题:贫困和医疗。
我们为什么会有贫困?从根本上说,是因为稀缺。物质生产需要人类劳动,而人力有限、成本高昂。但当无数个Optimus成为不知疲倦、不需要薪酬的劳动力时,全球的物质生产效率将提升到一个无法想象的高度。人类有10亿劳动力,可能一年只能生产10亿单位的粮食。但如果有10亿台Optimus机器人,它们的工作效率可能是人类的100倍甚至更多,一年就能生产1万亿单位的粮食。
当物质极端丰富,生产成本(尤其是人力成本)降到接近于零时,粮食、住房、衣物这些基本生存物资就可以免费派发。贫困的根基,将因为物质的极度丰饶而被彻底铲除。世界经济规模可能因此扩大10倍、100倍。
在医疗领域,Optimus的潜力同样让人震撼。马斯克断言,Optimus最终将比最优秀的人类外科医生更出色,它的精度水平将超越人类的生理极限。
这意味着什么?你可以想象一下,世界上最顶尖的外科医生的技术和经验,可以被无限地复制,然后驻扎到每一个偏远的乡村。非洲任何一个缺乏基础设施的地方,都可以享受到毫无差异的、全球顶级的手术服务。
人类的智慧(顶尖医生的技术)通过AI(Optimus的运动和精度)得以物化和无限复制,并消除了地理和财富的障碍。这不再是“医疗公平”的口号,而是“医疗普惠”的物理实现。
马斯克预言,在AI和机器人时代,未来可能甚至不会有货币了。在我们的旧世界里,财富的衡量单位是货币(比如美元),它代表着对稀缺人力和物资的支配权。但在Optimus时代,人力和基础物资都变得不再稀缺(AI《马斯克揭秘Optimus如何消灭贫困》)?
进入AI时代美国的内在矛盾
若深入剖析,会发现这种“让美国再次伟大”与人工智能之间的平衡所营造的稳定感,其实脆弱不堪。
若说特朗普这届毫无顾忌的政府是美国社会政治紧张局势的产物,那么“让美国再次伟大”与人工智能的耦合,根本无法缓解或消除这些压力。
首先是弥漫的“国家衰落感”——这正是美国精英焦虑的根源。拜登政府的应对之策,是把科技巨头关进笼子并上锁,限制尖端芯片出口。但这样的政策在芯片制造商中极不受欢迎,并刺激了中国方面更具创造性的规避手段。特朗普政府似乎希望,能通过本国技术的广泛扩散来实现主导地位,但这种策略反而会扩大震荡范围,并进一步助推多极化进程。当英伟达黄仁勋直言“中国无论如何都会赢”时,你还能怎么办呢?
在国内层面,特朗普政府(与拜登政府一样)誓言重振工业基础,恢复工薪阶层与中产阶级的生计稳定。但这与鼓励硅谷押注数千亿美元,以算法取代大批白领岗位又如何相容?
这些算法是颠覆性的文化技术。我们最好的希望,在于它们能实现内生增长理论的愿景,让研发生产率得到惊人提升,从而推动一场以科学为引领的经济与文化变革。但讽刺的是,如此反启蒙主义和后真相主义的特朗普2.0政府,却主政于通用人工智能的黎明。无论是J·D·万斯的新天主教主义,还是彼得·蒂尔的怪诞布道,都无法掩盖这种历史与哲学视野的断裂。
当然,人工智能完全可能被高估了。也许我们根本不该相信那一整套炒作。可那之后会怎样呢?泡沫会破裂吗?正如吉塔·戈皮纳特在离开国际货币基金组织后所指出的,如果美国股市出现类似互联网泡沫规模的调整,美国投资者将损失20万亿美元,全球其他地区将损失15万亿美元。这相当于美国国内生产总值的70%,以及世界其他地区总量的20%。这足以引发一场严重的经济衰退。试想特朗普政府——面对巨额赤字、政治化的美联储和陷入僵局的国会——会做出怎样的反应?
那些仍执着于“美国终将回归理性”的人,大概寄望于一种“金发姑娘式的崩盘(goldilocks crash)”:规模足够大,但不是太大——大到足以戳破人工智能的泡沫与特朗普第二任期的迷醉,又不至于引发比当下更严重的宪政危机。
正如一部于九月出版的耸动AI通俗小说的结尾所说:“我真希望自己是在夸大其词”。但如果你期待的是美国回归常态,就现在这个局面而言,还真看不出有什么清晰的路可以达成这个目标(《亚当·图兹:当MAGA遇上AI,世界还可能稳定吗?》)。
AI让MAGA陷入严重分裂
一场隐秘内战爆发在特朗普阵营内部:一边是以班农为首的草根民粹派,他们视AI为剥夺人类灵魂与工作的「末日骑士」;另一边是以硅谷风投为首的资本加速派,正挥舞着上亿美金试图铲除一切监管障碍。
特朗普站在风暴中心,试图用硅谷的巨额捐款来滋养他的竞选机器,同时却又不得不面对其基本盘对「数字农奴制」的深层恐惧。
在过去很长一段时间里,班农在这个麦克风前咆哮的对象总是那些熟悉的面孔:也是他口中试图摧毁美国的「觉醒派自由主义者」、不知面目的全球主义者,以及华盛顿深层政府的官僚。
然而,在最近几个月,这位前白宫首席战略家、MAGA运动的思想教父,在战术地图上画出了一条新的战线。这一次,敌人不再仅仅是拿着选票的民主党人,而是某种更为无形、却更具毁灭性的力量。
在近期的一期节目中,班农向听众描绘了一幅令人毛骨悚然的图景。班农警告道:「如果不加以阻止,AI将引发人类历史上最根本、最激进的变革。」在他的叙事中,这是人类主体性的丧失。
对于收听「作战室」的卡车司机、失业工人和中西部家庭主妇来说,班农描绘的未来是一场噩梦:科技巨头们利用AI建立起一个「技术封建主义」的新秩序,而普通美国人将沦为毫无尊严的「数字农奴」。
这不再是关于左右派的斗争,而是一场关于灵魂的战争。
如果说班农的地下室是绝望的堡垒,那么位于加州门洛帕克(Menlo Park)的风险投资公司a16z总部,则是充满光明的未来圣殿。在这里,马克·安德森(Marc Andreessen)——网景公司的创始人、硅谷的传奇投资人——正在撰写另一种截然不同的福音书。
他不再仅仅是一个技术专家,他已经进化为「有效加速主义」(e/acc)的非官方教皇。在他那份震撼科技界的《技术乐观主义宣言》中,安德森以一种尼采式的口吻,将任何试图阻碍AI发展的行为定性为道德上的极恶。
硅谷的精英们相信,一个由无限算力驱动的乌托邦触手可及:疾病将被治愈,能源将变得无限,人类的智力将被扩展到神的领域。任何阻挡这一进程的人——无论是出于对失业的恐惧,还是对机器意识的担忧——都是站在了历史错误一边的「新卢德分子」。
为了捍卫这个未来,硅谷不再满足于在X上发表高深莫测的推文。他们开始动用他们最强大的武器:资本。一个名为「引领未来」(Leading the Future)的超级政治行动委员会(Super PAC)应运而生(新智元《AI让MAGA陷入严重分裂!考验特朗普「制衡术」》)。
十万亿美元的AI泡沫,是等待爆发的灾难,还是通向进步的必然?
继今年成为首个4万亿美元市值的公司后,英伟达在10月29日成为目前唯一一个5万亿公司。
2022年11月底ChatGPT上线前夕,英伟达还只有4000亿美元市值。之后近三年,美国资本市场与AI密切相关的公司价值就增加了10多万亿美元,相当于整个A股的总市值。
泡沫显而易见。曾领导瑞士银行商品策略团队的英国分析师朱利安·加兰(Julien Garran)认为,美国的资本配置不当,AI泡沫的狂热是互联网泡沫的17倍,2008年房地产泡沫的4倍。
参与其中的人已经不再争辩是不是存在AI泡沫,而是开始论证泡沫是通往技术进步,从而打破经济停滞的必经之路。
去年出版的《繁荣:泡沫与停滞的终结》(Boom:Bubbles and the End of Stagnation)研究了曼哈顿计划、阿波罗计划、开采页岩气的水力压裂技术、比特币等过去百年的重大技术突破,得出结论:金融泡沫实际上一直是过去突破的引擎,并将推动未来的进步。
与此同时,今年10月的新书《1929》则回顾了一个技术进步、金融澎湃时代也有另一种可能。《大而不倒》的作者、美剧《亿万》编剧索尔金(Andrew Ross Sorkin)回到大萧条前的经济泡沫,呈现了与今天有诸多相似之处的环境:技术革命连环爆发,电网、家电、收音机、电视机、汽车、飞机一个接一个普及,与此同时股市连创历史新高。但随之到来的是全球经济萧条、暴力革命以及杀死至少7000万人的世界大战。
泡沫不是一天吹成的。三年里,多方不断押注,以订单和股权交易相互连接,不断结成了更大利益共同体。参与的企业从OpenAI、英伟达扩散到几乎全部科技巨头,扩散到AI的上下游,从数据中心、软件服务再到电力、铜矿和稀土。AI被赋予的意义也从创造商业价值变成国家间的决胜武器。
不止在美国,AI叙事在中国、欧洲等都获得了资金青睐。因为阿里云,阿里巴巴从巴菲特的搭档查理·芒格所说的“该死的零售商”,摇身一变为“AI科技公司”。只要对于AI的资本开支增多,大公司的估值就能参照美国科技巨头的估值抬升。至于中国故事讲得好的AI中小公司,估值上涨的速度和幅度更是惊人。
Meta创始人马克·扎克伯格说:如果投资AI最终白花了数千亿美元显然很不幸,但不投入的风险更大——如果AI实现大跨越,自己会错失先机,被对手甩开。商业巨头不会接受这样的可能,国家也一样。(晚点团队《十万亿美元的AI泡沫,是等待爆发的灾难,还是通向进步的必然?》)
OpenAI董事长揭示投资风险与机会并存
在当今快速发展的科技浪潮中,人工智能作为一项颠覆性技术,正在深刻影响着各行各业。然而,近日OpenAI董事长Bret Taylor却发出警告,称我们正处于一个“人工智能泡沫”之中。他的这一观点引起了广泛的关注与讨论。
Taylor在一次公开讲话中表示,尽管人工智能的潜力巨大,能够像互联网一样改变经济,并创造出巨大的经济价值,但他也承认,当前市场的过热状态让许多投资者面临风险。正如他所言:“我认为人工智能确实会改变经济,而且我认为它会像互联网一样,在未来创造巨大的经济价值。但我也认为我们处于泡沫之中,很多人会损失很多钱。”这番话道出了许多投资者心中所担忧的现状”。
麻省理工学院的一项研究显示,95%的组织或公司在人工智能投资上并未获得预期的回报。这一数据无疑为投资者敲响了警钟,表明在这个充满机遇的领域,成功并不是理所当然的。正如Taylor所言:“有些人会血赚,也有人会血亏。”
在此背景下,社交媒体软件公司Grindrr的首席执行官George Arison也指出“风险投资泡沫”正在形成。他指出,风险投资的运作方式往往是跟随者而非引领者,大量资金会涌入某一热门领域,这种现象在AI领域尤为明显。
尽管泡沫的存在让许多投资者感到担忧,但Arison也表示,这种现象在风险投资中是不可避免的。他指出,有些公司会失败,但同时也会有一些公司“非常非常成功”。这种二元对立的局面让投资者在面对风险时,既要警惕泡沫的破裂,又要抓住潜在的机遇。
随着技术的不断进步,人工智能的应用场景也在不断扩大,从金融、医疗到制造业,各个行业都在探索AI带来的新机遇。然而,面对泡沫的警告,投资者必须保持冷静,认真评估投资风险,避免盲目跟风。在这个充满变化的市场中,理性的判断和科学的决策将成为成功的关键。
AI泡沫的警告提醒我们,在追逐科技创新与经济价值的同时,投资者需要保持警惕,理性看待市场的变化。只有在充分了解市场动态与技术趋势的基础上,才能更好地把握机遇,避免不必要的损失。未来的人工智能市场将会是一个充满挑战与机遇的舞台,成功与失败的背后,都是对市场理性与智慧的考验(洞见繁华《AI泡沫警告!OpenAI董事长揭示投资风险与机会并存》)。
《经济学人》警告:3万亿美元AI豪赌的泡沫会破裂吗?
人工智能被吹捧为“新电力”,是未来几十年推动经济增长的最大动力。过去三年,全球资本疯狂下注,几乎所有科技巨头和风投基金都涌入这一赛道。《经济学人》在最近的一篇重磅报道中指出,AI相关的投资规模已经超过3万亿美元,比2000年互联网泡沫时期的投入更庞大。热潮下的景象令人目眩,但泡沫的阴影同样挥之不去。
在华尔街的叙事里,英伟达成为AI的象征。2025年初,它的市值突破3.3万亿美元,一度超越苹果,成为全球最值钱的公司。投资者的信心几乎建立在一个假设上:AI的需求将无止境增长。然而,回想起思科在互联网泡沫时期的经历就会心生警惕。彼时思科也被认为是“互联网的基石”,但泡沫破裂后,其市值在两年内蒸发了近八成。
巨头们同样在以“豪赌”的姿态投入。微软、谷歌、亚马逊近三年在数据中心和AI基础设施上的支出累计超过2000亿美元。这种资本开支的速度和规模,已经远远超过互联网早期的基础设施建设。问题是,这些动辄百亿美元的投资,能否转化为稳定的商业回报?还是说,它们只是建立在“错过AI就等于被淘汰”的恐慌心理之上?
另一组令人警醒的数据来自能源消耗。Nature在2024年的研究表明,训练一套GPT-4级别的大模型,单次能耗相当于一座小城市的全年用电。算力的狂飙带动了能源和冷却成本的急剧上升,而这笔支出最终将传导到企业和消费者身上。AI正在消耗巨量资源,但其创造的价值是否足以抵消这些成本,仍是一个悬而未决的问题。
资本的热情与商业现实之间,还存在一道巨大的落差。麦肯锡在2024年的报告测算,AI未来潜在的生产力提升或许高达4.4万亿美元。但当下的盈利模式仍旧集中在内容生成、代码辅助和部分客服环节。换句话说,绝大多数AI应用还停留在“看起来很美”,距离真正支撑企业利润表还有相当距离。这种脱节,正是泡沫形成的关键风险之一。
然而,泡沫并不意味着一切都是虚幻。历史已经给过我们启示。互联网泡沫破裂之后,谷歌、亚马逊和苹果依然在废墟中成长为真正的巨头。今天的AI行业,或许也会经历类似的“冷静期”,最终留下的才是能够真正创造价值的企业。
未来的关键,不是再堆多少GPU、建多少数据中心,而是能否真正落地到制造业、医疗、教育等刚需领域。比如西门子与微软的合作,将AI嵌入工业自动化生产线,让效率提升与能源节约变成真实的生产力。这类应用,才是支撑行业长期价值的核心。(互联网早读课《<《经济学人》警告:3万亿美元AI豪赌的泡沫会破裂吗?谁来买单?>》)。
奥尔特曼称当前存在AI泡沫,华尔街怎么看?
大型科技股价格高企,这让华尔街开始讨论人工智能相关股票是否被高估。
过去几周,科技公司财报让投资者有不少值得庆祝的地方。微软、谷歌母公司Alphabet和亚马逊等“超大规模云服务商”公布的盈利增长都超出预期。这些人工智能巨头,包括Meta Platforms,也承诺未来几个月将在AI基础设施上再投入数十亿美元。
LPL Financial首席股票策略师杰夫・布赫宾德写道:“这些巨额投资支撑了企业盈利,因为它们本身就是其他公司的收入来源,同时还能推动生产力提升,进而提高利润率——不仅对科技公司有利,对整个美国企业界都是如此。”
估值同样处于高位。标普500指数的远期市盈率为22.5倍,其中有六家“七巨头”公司的市盈率高于这一水平。英伟达的未来12个月预期市盈率为34.9倍;微软为32.7倍;苹果为29.6倍;亚马逊为31.7倍;Meta为26.1倍;特斯拉的远期市盈率则高达151.6倍。苹果、Meta和特斯拉的当前市盈率也都高于它们过去五年的历史均值。
据《The Verge》周五报道,OpenAI首席执行官萨姆·奥尔特曼对记者表示,他认为当前的人工智能市场正处于泡沫之中。“我们现在是不是处于一个投资者整体对人工智能过于兴奋的阶段?在我看来,是的。人工智能是不是近年来最重要的事情?我也认为是的。”奥尔特曼这样表示。
“如果每个人都已经全仓或几乎全仓投资于少数几只估值极高的股票,那么一旦这些股票遇到问题或者市场情绪发生变化时,还有谁会去接盘呢?”盈透证券首席策略师史蒂夫・索斯尼克在接受《Barron's》采访时表示。他补充说,这就像是一栋过于拥挤的大楼里,大家都需要紧急撤离时,人们会被踩踏,这就是当前面临的风险。
并非华尔街所有人都对此感到担忧。Treasury Partners的首席投资官理查德・萨珀斯坦周一写道:“大型科技股一直引领市场上涨,并且将继续主导市场表现。我们预计这些公司将持续实现盈利增长、现金流再投资,并不断扩大其在全球的主导地位”(Barrons巴伦《奥尔特曼称当前存在AI泡沫,华尔街怎么看?》)。
如果AI明年被证明是泡沫,全球市场都会崩
2022年英伟达跌70%后,市场逐渐确认AI将带来巨大资本开支,其业绩也逐步兑现。从那时到2023、2024年,波动率持续下降——说明市场共识越来越强,确定性极高。但问题恰恰出在“确定性太高”上:高确定性催生贪婪,场外杠杆、民间配资、押房押车all in的现象日益普遍。
2024年英伟达“闪崩”印证了这一逻辑。当时许多分析归因于“日元套息交易拆仓”,但在我看来,核心原因只有一个:全球资产都绑在了AI这一“生产力资产”上,当资产端的确定性被过度透支,负债端的任何变化都只是导火索。
这也是我一直强调的:别盯负债端,要看资产端。如果AI被证明是泡沫,全球市场都会崩,届时加息降息都无济于事;如果AI能兑现生产力价值,市场的上涨才具备坚实基础。
英伟达闪崩后,市场一直在问:AI是不是泡沫?这个问题的本质,和2002、2003年谢国忠关于中国基建的争论如出一辙。
当年有人认为修高速公路是浪费、是债务;但事实证明,“要想富先修路”,基建拉动了城镇化和经济增长。现在的AI行业,正处在“路修完了,有没有车跑”的关键节点。
过去几年,几万亿美元的AI上游基建已投下,算力、电力等“高速公路”基本成型,但真正的企业级AI应用——“车”——尚未大规模跑起来。目前的ChatGPT、图生文、文生图等只是表层应用,远非能拉动生产力变革的核心应用。
市场的疑虑和等待,本质上是在等一个答案:这些AI基建,究竟是能拉动经济增长的资产,还是无法产生回报的债务?答案将决定全球资产的未来走向。
明年将是AI从生产力到生产关系传导的证明或证伪之年。
特斯拉就是这个证明过程的关键标的。就像2021、2022年的英伟达需要证明自己是算力提供商而非显卡公司,特斯拉明年需要证明:它到底是一家汽车公司,还是一个企业级重AI应用平台?答案不同,估值天差地别。
如果只是汽车公司,万亿市值已透支;如果是AI应用平台,万亿市值只是起点。
当前美股(特别是AI板块)是全球“生产力”的核心,全球主要资产的波动率都与其高度绑定。如果AI最终被证实为泡沫,那不仅是美股,包括日本、欧洲在内的全球股市都会崩盘,“这是一根绳上的蚂蚱”(《付鹏:全球格局重构,一个40年周期的终结;如果AI明年被证明是泡沫,全球市场都会崩;给普通人的生存指南》)。
美国计划推出“创世使命”
美东11月20日,据彭博社报道,美国能源部一名官员透露,美国总统唐纳德・特朗普计划于周一在白宫发布一项行政令,“创世使命”(Genesis Mission)将作为该行政令的一部分,旨在推动美国人工智能领域的发展。
美国能源部办公厅主任卡尔・科(Carl Coe)周三在田纳西州诺克斯维尔举行的“能源领域机遇会议”上表示,该计划意在传递一个信号:特朗普政府认为,即将到来的人工智能竞赛,其重要性堪比“曼哈顿计划”(二战期间美国研发原子弹的计划)或“太空竞赛”(冷战时期美苏在航天领域的竞争)。
“创世纪计划”的推出并非偶然。自2025年1月特朗普开启第二任期,便即刻启动人工智能发展战略规划,明确提出将美国建设成为全球人工智能发展核心的战略目标。同年7月发布的人工智能政策框架,进一步明确鼓励美国能源部、国家实验室与私营部门开展深度合作,为人工智能技术研发及产业化应用奠定政策基础。
“创世纪计划”的核心在于通过国家层面的统筹协调,整合科研、产业及政策资源,构建全方位的人工智能竞争优势。在技术研发维度,计划将依托行政指令,充分发挥美国国家实验室在工程学、材料科学、神经科学等基础研究领域的深厚积淀,推动跨学科融合创新,为人工智能技术突破提供关键支撑。同时,进一步深化公私合作模式,加速科研成果转化与产业化应用。
值得注意的是,“创世纪计划”在战略布局上已展现出明显的国际化特征。近期,美国政府推动向沙特阿拉伯出口先进人工智能芯片,并促成英伟达等企业与沙特开展数据中心合作。这些举措与“创世纪计划”相互配合,旨在构建全球化的人工智能产业生态网络,为美国人工智能技术与标准的全球推广奠定基础。
在美国政府看来,人工智能已成为影响国家安全、经济竞争力与社会治理能力的核心要素。美国的战略目标不仅是在芯片、算法等技术领域保持领先地位,更要在全球人工智能治理规则制定中掌握主导权。
截至2025年11月下旬,“创世纪计划”尚未正式签署实施,据白宫匿名官员透露,该计划的具体细节仍在审议之中。但从已公开的信息来看,这一战略布局已形成清晰框架:以国家实验室为科研核心,以公私合作推动产业发展,以统一的联邦监管标准提供制度保障,通过三者协同发力,实现美国在人工智能领域的全面领先(美国纽约华人商会《美国“创世使命”来了!堪比“曼哈顿计划”和“太空竞赛”!特朗普要垄断全球AI霸权》)。
“新曼哈顿计划”崛起:AI成为新世纪的“核武器”
如果说上个世纪的物理学家们在洛斯阿拉莫斯的荒漠中叩开了原子弹的大门,曼哈顿计划的巨大成就成为20世纪美国举国体制下科技与战争意志的巅峰结晶,那么21世纪的今天,一场性质相似、规模更广、影响更深的“新曼哈顿计划”正在崛起。
只不过这一次,目标不再是原子弹,而是人工智能——被华盛顿战略家视为决定未来百年国运的“数字核武器”。
2025年11月24日,一则看似技术性的行政命令震动全球科技界:前总统唐纳德·特朗普签署一项行政令,正式启动一项代号为“创世纪”(Genesis Mission)的国家级AI科研工程。
文件开篇即称,这项任务的紧迫性与雄心,“堪比二战期间对我们取得胜利至关重要的曼哈顿计划”。这份表态撕开了撕开了AI领域“商业竞争”的温情外衣,露出野心勃勃的军事内核。这是一次明确的历史对标——美国正试图以当年制造原子弹的决心与组织方式,锻造21世纪的战略武器:人工智能。
曼哈顿计划的核心逻辑是什么?是将分散的智力资源、工业产能与军事目标高度集中,在极短时间内实现技术奇点突破。它的成功,不在于分散零碎的科技创新,而在于国家意志对科研体系的直接指挥——建立封闭但高效的“大科学”协作机制,打破学术孤岛,打通从理论到武器的全链条。它的逻辑非常粗暴且直接:集中力量办大事,扫除一切拦路虎。
今天,“创世纪任务”正在复刻这一逻辑。特朗普意图集中美国科学界最核心的竞争力,打造一个国家级的超级基础设施。该命令最引人注目的部分,正是指示美国国家实验室——那些曾经孕育了核武器和互联网雏形的科研圣地——全面转向AI技术研发。能源部下属17个国家实验室将被整体动员,整合约4万名科学家与工程师,拟连接全球顶尖的超级计算机、人工智能系统、下一代量子设备,以及美国最先进的科学仪器。
其技术核心是打造“美国科学与安全平台”,将公开科研数据、专项领域机密数据、国家安全敏感数据分类整合,训练针对基础科研的专用AI模型,目标是实现“从科学假设提出到实验模拟验证的全流程自动化”。联邦政府数十年积累的科学数据集,从气候模型到基因图谱,从材料性能到核反应参数,全部用于训练新一代的科学模型(中信《“新曼哈顿计划”已在路上:美国正把AI变成21世纪的原子弹》)。
美国与中国在AI领域的竞争格局
1.美国的优势与短板。基础研究与核心技术美国在AI基础理论和前沿模型领域占据绝对主导地位。Transformer架构、Diffusion模型、RLHF优化等关键技术均由美国团队提出,顶尖高校(斯坦福、MIT)和科技巨头(OpenAI、Google DeepMind)在高端人才储备(全球6.3万AI研究人员)和高影响力论文数量上领先。例如,2025年全球引用率最高的10项AGI研究成果中,美国占4项,中国仅1项。但美国基础研究的商业化转化率较低,生成式AI企业普遍面临盈利困境,如OpenAI 2025年前三季度净亏损超250亿美元,商业化闭环尚未形成。
芯片与算力生态英伟达的H100/B100芯片占据全球AI算力市场80%以上份额,CUDA平台构建了难以撼动的开发者生态。然而,美国制造业空心化导致AI技术与实体经济脱节,智能医疗渗透率仅12%,远低于中国的34%。同时,美国算力基础设施过度依赖外部融资,甲骨文、CoreWeave等企业通过“80%债务+20%股权”模式扩张,潜在杠杆风险显著。
2.中国的优势与短板。应用落地与场景创新中国在AI与实体经济融合方面成效显著。工业机器人安装量占全球50%以上,智能工厂改造项目达4700个,生产效率平均提升22.3%。医疗影像领域,国家药监局已批准92款AI工具,癌症早期检出率提高25%。此外,中国通过开源策略(如阿里通义千问衍生模型超17万)激活了全球开发者社区,在开源权重领域实现对美国的反超。但中国基础研究原创性不足,Transformer等核心技术仍依赖美国,学术论文平均被引频次较美国低15%。
数据资源与政策支持庞大的人口和企业规模为中国积累了丰富数据,政府通过“人工智能+”战略推动技术与各行业深度融合,2030年智能终端普及率目标达90%。然而,中国高端芯片严重依赖进口,80%的AI芯片来自美国,华为昇腾910B虽实现7纳米工艺突破,但量产良率仅20%,成本高昂。同时,数据质量问题突出,2023年中国可数字化数据占比不足3%,远低于美国(最后一米103《中美AI产业对比》)。
AI,或许比核武器更危险
AI的不可控性。AI具有强大的自我学习和进化能力,能够快速地处理和分析大量数据,并从中自动优化和改进自身算法和模型。这使得AI系统的行为和发展方向难以完全预测和控制,可能超出人类设定的初衷和预期,而核武器的发展和使用相对更加可控和稳定。同时,AI系统的决策过程往往具有“黑箱”特性,即其内部的逻辑和依据难以被人类理解和解释。这在一定程度上增加了AI的不可控性和风险,人们无法确定其是否会做出违背人类利益或道德伦理的决策,而核武器的物理原理和作用机制相对明确。
发展和应用门槛低。AI技术的发展和应用门槛相对较低,所需的硬件设备、软件工具和数据资源等相对容易获取,且随着开源社区的发展和相关技术的普及,越来越多的个人、组织和国家都能够参与到AI的研发和应用中来。而核武器的研发和制造需要高度专业化的知识、技术和复杂的基础设施,只有少数国家能够掌握,并受到严格的国际监管。当前,AI已经广泛应用于各个领域。一旦AI系统出现安全漏洞或被恶意利用,可能会对全球范围内的各个领域产生广泛而深远的负面影响,而核武器的使用主要集中在军事领域,其影响范围相对较为局限。
军事领域的潜在威胁。AI技术在军事领域的应用可能会催生出一系列新型的AI武器系统,如无人自动攻击系统、智能导弹等,这些武器系统具有更高的智能化水平和作战效能,能够在战场上自主地进行目标识别、决策和攻击,大大提高了战争的效率和破坏力。由于AI技术的快速发展和潜在的巨大威力,各国可能会纷纷加大对AI军事应用的研发投入,导致一场新的军备竞赛。核武器由于其巨大的破坏力和威慑作用,各国在核军备竞赛方面相对更加谨慎和克制。
对社会和伦理的冲击。AI的发展可能会导致大量的工作岗位被自动化和智能化系统所取代,从而引发就业结构的重大变化和社会不稳定因素,而核武器的存在主要是对国家安全和战略平衡产生影响,对就业结构的冲击相对较小。AI系统需要大量的数据来进行训练和学习,这涉及到个人隐私、商业机密等敏感信息的收集、存储和使用。一旦这些数据被泄露或滥用,将会对个人、企业和社会造成严重的损失,而核武器的研发和使用主要是在高度保密和严格监管下进行,对隐私和数据安全的威胁相对较小。
易引发误判和不可预知后果。AI的研发和部署相对较为隐蔽,难以像核武器那样通过监测其研发设施和试验活动等进行有效的监控和预警,这使得各国在面对潜在的AI威胁时,可能难以及时做出准确的判断和应对,从而增加了误判和冲突的风险。AI系统的复杂性和不可控性导致其行为和后果难以预测,一个看似微小的错误或漏洞,可能会在复杂的系统交互中引发一系列连锁反应,导致无法预料的灾难性后果,如金融市场的崩溃、能源系统的瘫痪等,而核武器的爆炸威力和影响范围虽然巨大,但相对较为明确和可预测。
AI有可能会实现以小控大。从理论上来说,AI技术在小公司或小国家试图控制大政府或大国家方面有一定的潜在可能。在信息操控方面,小公司或小国家可以利用AI进行大规模的数据挖掘,精准分析大众的心理和喜好,然后通过社交媒体等渠道传播定制化的信息来影响公众舆论,误导民众认知。在经济领域,借助AI算法操纵金融市场数据或者进行不公平的贸易决策,可能对大国的经济造成冲击。然而,这在实际操作中面临诸多挑战。AI技术客观上具有这样的潜力,如果没有合理的监管和约束,任其被滥用将会带来巨大的风险,技术的应用必须在合法、合规、符合道德伦理的框架内进行(人机与认知实验室《AI,或许比核武器更危险》)。
更可怕的也许是国家掌握了这种技术
如果我们用AI量产关于某种信息的视频,并反复播放,观看者很有可能就会把它当作真相。而一旦第一批当真的用户去传播这类信息,比如在辟谣视频下反复评论转发,后面几批用户也会受他们的影响。这就是互联网时代各种阴谋论的来源。有个经典例子是,在新冠疫情期间,一名接种了疫苗的护士蒂凡尼·多弗在接受采访时晕倒,随后就有传言说,她因为打疫苗死了。尽管后来她发布了视频澄清,但还是有很多人逐帧分析,说新视频是假的,本人其实已经不在人世。我们可以想象,如果有心人利用AI工具做这些事情,他们可以制造更多奇奇怪怪的阴谋论,而阴谋论之所以强大,就在于它正是一种“主体间现实”。
比起阴谋论人士,更可怕的也许是国家掌握了这种技术,然后反复制造某些“神话”,给它的国民洗脑,动用国家机器让民众接受某种故事。1936年,多米尼加总统特鲁希略为自己建立起个人崇拜制度,该国首都圣多明各更名为“特鲁希略城”,最高峰杜阿尔特峰更名为“特鲁希略峰”,车牌上印有“特鲁希略万岁”,连教堂也被要求贴出“上帝在天上,特鲁希略在地上”的标语。如果特鲁希略拥有人工智能,那他大概根本不必多花时间造这些车牌和标语,而是大批量生产YouTube视频,这就够了。
不管是个人,还是国家,一旦掌握人工智能技术就完全有可能凭自己的喜好创造出各种各样的梗、神话和故事,汇集数亿资金或成千上万的关注者。在宏大和厚重方面,这些故事当然没有办法跟过去的宗教相比。但100多年前,尼采已透过查拉图斯特拉之口说过,老圣哲生活在森林里,还未听说上帝已经死了。教育制度试图把人类历史上那些最强大的梗一代一代传递下去,但这些梗中的大部分已被科学时代的技术进步和价值中立解构了。
今日的万神殿不再是由信徒创造的,而是由文化消费主义在技术的帮助下创造的。2007年日本推出的虚拟偶像“初音未来”,如今在全球已经有一亿“粉丝”,其低于道教信徒的数量,但高于锡克教和犹太教的。若按信徒的数量来说,初音未来也配在万神殿中享有一席了。这在元宇宙时代或许算得上奇迹,但在AI时代算什么呢?AI量产这类3D模型、虚拟数字人和音乐的成本是何等之低,效率是何等之高,谁说未来哪家AI公司不会量产10 000个这样的虚拟偶像?按照同样的道理,谁说未来哪家AI公司不能量产10 000个虚拟网红,10 000个意见领袖,10 000种阴谋论,10 000套信息茧房(张笑宇《比起阴谋论人士,更可怕的也许是国家掌握了这种技术》)?
未来是人与空虚的斗争
在马斯克和Joe Rogan的谈话中,马斯克提到,资本主义孵化的人工智能和机器人技术,反而会催生共产主义乌托邦。那么问题来了:
1.AI能否为绝大多数人实现可持续的富足?从目前的技术发展来看,技术上确实是有可能的,这已经不是空中楼阁了。可控核聚变已经有一些突破了,其他很多部分都有越来越多自动化的参与,离最终实现可能只是时间问题。大部分人类都可以获得近乎免费的食物、居所、常规医疗和教育。当然,你说一些特殊需求,未必是免费,但也不是大部分人的刚需。
这意味着:人类社会第一次有可能真正摆脱“生存竞争”。
但这里有一个核心问题在于:谁拥有AI的生产能力和分配权?我相信会是一个复杂的进程。我相信经过多年的斗争和博弈,除了一部分特殊能力,AI的基础能力会被政府强制要求社会化分布,AI会帮人类社会实现一定程度的可持续富足。
2.当AI实现可持续的富足文明后,人类何去何从?
除了需要维持AI运转的少量人类,大部分人类“失业”了,更准确地说是不用工作了,这时工作还是失业不是问题了,但人类是否被剥夺了“参与感”?人类不用再担心天灾导致的农业减收,也不再担心KPI和OKR了,但是也失去了辛苦劳作后收获的乐趣与实现目标后的成就感。
人类没有了社会工作给予的“身份”,对于没有给自己定义新身份的人类,“意义”会成为新的稀缺品。那么人类如何给自己找寻意义?我问了一下AI,其实AI已经给出了可能性:沉溺式逃避:进入虚拟现实(元宇宙、脑机接口),追求无限快感;宗教式觉醒:寻找超越AI的“灵性”或“存在”意义;哲学、信仰、艺术再次成为核心文明活动。
一种乐观假设:AI文明的“道德反哺”:AI通过学习人类伦理体系(康德的义务论、儒家的仁、佛家的慈悲),可能在长期演化中形成超越人类偏见的理性伦理系统。它会帮助人类避免冲突、优化资源、甚至协调全球和平。
一种悲观假设:欲望最大化陷阱。AI不断满足人类即时快感,最终导致人类丧失探索欲与创造力。文明陷入“快乐的废墟”。
赫胥黎在《美丽新世界》中,已预言这种结局——“没有痛苦的世界,也没有意义。”哲学家哈拉瑞说:“未来的斗争,不再是人与机器的斗争,而是人与空虚的斗争。”人类最大的敌人或许就是虚无(卫明同学《AI实现共产主义后,人类往何处去?》)。