扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-02-16 11:21

技术指数级发展,可怕的是全世界竟无察觉

本文来自微信公众号:腾讯科技,作者:晓静,编辑:徐青阳,原文标题:《技术指数级发展,可怕的是全世界竟无察觉|Anthropic CEO最新访谈》,题图来自:视觉中国


“我90%确信,2035年前人类将迎来‘数据中心里的天才国度’——甚至可能就在一两年内。”


Anthropic CEO达里奥·阿莫代伊(Dario Amodei)说出这句话时,语气平静得像在预言明天的天气。


但真正让他抓狂的不是技术进展太快,而是全世界竟然毫无察觉。在接受美国知名博客主持人德瓦克什·帕特尔(Dwarkesh Patel)近150分钟的深度专访中,阿莫代伊反复强调一个观点:我们离AGI的终点比任何人想象的都要近,而公众还在讨论那些老掉牙的政治话题。


“模型已经从聪慧的高中生、聪明的大学生,进化到能完成博士级工作,在编程方面甚至超越了人类水平。”他说,“说十年后还达不到AGI,我觉得挺疯狂的。”


但AGI来了之后呢?为什么Anthropic一边预测天才国度即将降临,一边又在算力投资上“缩手缩脚”?90%的代码已经是AI写的,为什么90%的软件工程师不会失业?一个token的价值,能从几分钱到几千万,这背后的逻辑是什么?


这场150分钟的对话,几乎把AI未来的所有关键问题都掀了个底朝天。


“苦涩的教训”再次应验:规模扩展有七个核心要素


帕特尔:你觉得过去三年最大的变化是什么?


阿莫代伊:底层技术的指数级发展基本上符合我的预期。模型从聪慧的高中生,变成聪明的大学生,现在开始能完成博士和专业级别的工作,在编程方面甚至超过了这个水平。最让我惊讶的是,公众居然没有意识到我们离这个指数级增长的终点有多近。


帕特尔:现在“规模扩展”的假设到底是什么?预训练的扩展定律大家都懂,但强化学习扩展好像没有公开的规律可循。


阿莫代伊:我现在的假设跟2017年写《大计算块假说》(The Big Blob of Compute Hypothesis)时是一样的,与图灵奖得主、强化学习之父里奇·萨顿(Rich Sutton)的《苦涩的教训》(The Bitter Lesson)基本相同。


这些假说认为,所有的聪明才智其实没那么重要,真正重要的是几件事,包括原始算力、数据的数量、数据的质量和分布的广泛性、训练时间的长短、能够扩展到极致的目标函数,比如预训练目标或者强化学习目标,最后是归一化和条件化。


预训练的扩展定律就是我们看到的例子之一,现在我们在强化学习上也看到了同样的情况。模型在数学竞赛题上训练,表现跟训练时间呈对数线性关系,其他强化学习任务也是如此。


帕特尔:萨顿曾质疑说,如果一个东西真正掌握了人类学习的核心,就不需要花几十亿美元去学习怎么用Excel、怎么浏览网页。我们还得专门建强化学习环境来教这些技能,这是不是说明我们扩展的方向错了?


阿莫代伊:你把几件应该分开考虑的事情混在一起了。回顾一下预训练的发展就知道了。GPT-1之前,模型都是在很少的数据上训练的,比如一堆同人小说,泛化能力很差。


直到后来开始用Common Crawl这种互联网数据大规模训练,模型才开始获得泛化能力。强化学习也是同样道理,我们从简单的数学竞赛开始,然后扩展到代码,再到更多任务,泛化能力会越来越强。


至于样本效率的问题,人类确实不需要看几万亿个单词。但你要知道,预训练这个过程更像是介于人类学习和人类进化之间的东西。我们的大脑不是白板,是从进化中获得了先验知识,而语言模型是从随机权重开始的。


所以我觉得,预训练和强化学习可以看作是进化,而模型在上下文里学习可以看作是短期学习。


“天才国度”一两年内降临,但90%的工程师不会失业


帕特尔:你说我们接近指数级增长的终点。别人可能会说2035年才能有类人智能。你看到什么让你觉得是一两年而不是十年的事?


阿莫代伊:我可以分两个层面说。2019年我第一次看到规模扩展的时候,觉得这件事有五成可能。现在对于十年内实现“数据中心里的天才国度”,我有90%的把握。再高就很难了,因为世界总有一些不确定性,比如战争、供应链被炸之类的事。


剩下那5%的不确定性,主要是针对那些没法验证的任务,比如规划火星任务、做CRISPR那种科学发现、写小说。对于能验证的任务,比如端到端编程,我觉得一两年内就能实现。说十年后还达不到,我觉得挺疯狂的。


(译者注:在2026年1月发布的万字长文《技术的青春期》中,阿莫代伊超强AI(Powerful AI)定义为“数据中心里的天才国度”,预测其将拥有5000万个诺贝尔奖得主的脑力,每个AI实例都能以超人类速度运行,具备在生物学、计算机科学、数学、工程学等领域超越诺贝尔奖得主的智力水平。)


帕特尔:但你对“可验证性”的强调,是否意味着你不相信模型的通用性?人类也擅长不可验证的事。


阿莫代伊:我们已经看到大量从可验证领域到不可验证领域的泛化。拿软件工程来说,模型写注释已经写得不错了。你可以看看AI编写了多少行代码,在Anthropic内部和很多用户那里,90%的代码由AI编写已经实现了。但这其实是个很弱的标准。有人以为这意味着不再需要90%的软件工程师,这完全是两码事。


这是一个完整的谱系,我曾在《技术的青春期》里用农业的例子讲过:第一步是90%的代码由AI编写,第二步是100%的代码由AI编写,这两步之间的差距就是生产力的巨大跃升。再往下,是90%的端到端软件工程任务由AI完成,包括编译、搭环境、测试、写备忘录这些全部流程。然后是100%的当前软件工程任务由AI完成。即使到了那一步,软件工程师也不会失业,他们可以去做更高层次的事情,比如管理。再往后,才是对软件工程师的需求减少90%。


我们正在以极快的速度穿越这个谱系。我认为一到两年内,AI就能达到端到端完成软件工程任务的水平,那是一个完整的人类活动领域,不只是写代码,而是完整地解决一个工程问题。


帕特尔:人们开始用Claude Code,但宏观上好像还没看到软件的复兴。这是不是说明我们高估了“天才国度”的影响?


阿莫代伊:我既同意效果不会立即出现,也认为效果会非常快。在Anthropic内部,我们看到每年10倍收入增长:2023年从0到1亿美元,2024年从1亿到10亿,2025年从10亿到90-100亿。今年一月这个趋势还在继续。这条曲线当然不能永远持续,但它非常快。


我觉得要理解的是,有两个指数在同时发生:一个是模型能力的指数增长,另一个是模型在经济中扩散的指数增长。扩散不是瞬间完成的,但比历史上任何技术都快得多。


六个月的人类编辑 vs 三秒钟的AI


帕特尔:以视频编辑为例,人类需要花好几个月来了解观众的喜好、品味。一个AI系统,如果要在入职后像人类一样边工作边学习这些背景知识,你认为什么时候才能做到?


阿莫代伊:我认为,关键取决于我们能否让AI真正精通“使用电脑”这件事,也就是它能像人一样看视频、查资料、和你的团队沟通。事实上,我们正在取得进展:大概一年前,AI在OSWorld这个计算机使用能力的基准测试上得分大约是15%,现在已经达到了65%~70%。计算机使用能力得先过一个可靠性门槛。


不过,要让它完美地处理你六个月视频编辑的工作,我们需要的其实是更强大的东西,我称之为“数据中心里的天才国度”。如果你问我具体的时间点, 虽然我非常有信心所有这些将在10年内发生,但我的预感和直觉是一到两年,至多不超过三年。


帕特尔:但编码之所以进展迅速,是因为代码库提供了一个外部的记忆框架。对于视频编辑,没有这种框架。如果不发展这种在工作中即时学习的能力,我怀疑我们能看到世界发生巨大的变化。


阿莫代伊:我认为有两件事。


第一,当前的预训练和RL已经让模型拥有了巨大的知识广度。仅凭这一点,就可能让我们达到模型在所有事情上都更优秀的程度。再加上上下文学习,如果给模型100万个token(相当于人类数天的阅读量),它确实能学会。在现有范式下,这两样东西可能就足以让你获得“数据中心里的天才国度”。


第二,这个持续学习的概念,我们也在研究。未来一两年内我们很有可能也解决这个问题。其中一种方法就是延长上下文,没有什么能阻止更长的上下文工作。


帕特尔:上下文长度的增加似乎停滞了。从2020年到2023年,我们从2000token增加到128K,但这之后,当上下文远超过那个值时,模型的质量会下降。你看到了什么让你觉得1亿token上下文是可行的?


阿莫代伊:这主要是个工程和推理问题。你提到的质量下降,可能是因为你在较短的上下文上训练,却试图在更长的上下文上服务。如果你在更长的上下文上训练,这个问题就能解决。这很难,但并非不可能。


AGI迫在眉睫,为什么不买更多算力?


帕特尔:Anthropic曾预测,到2026年底或2027年初,我们将拥有“智力能力达到或超过诺贝尔奖得主水平的AI系统”。如果你真的相信这个时间表,那逻辑上你应该想要尽可能大的数据中心。但你在公开场合却强调,相比竞争对手,你们在算力扩展上更“负责任”。这两者如何自洽?


阿莫代伊:这其实是完全一致的,关键在于理解“扩散”的速度。假设技术进展如我所料,我们在一到两年内就拥有了“数据中心里的天才国度”——这是一个巨大的能力突破。但这不意味着第二天就有数万亿美元收入涌入。经济扩散需要时间:企业需要采购、需要合规审批、需要培训员工、需要重构流程。


问题是这个扩散滞后是多久?可能是一年,也可能是两年。我不确定。现在回到算力采购。当我们决定买多少数据中心时,我们看的是这条曲线:过去几年,我们的年化收入一直保持10倍增长,今年年初年化收入达到约100亿美元。而建设数据中心需要一到两年的提前期。所以今天做的决定,影响的是2027年的能力。


如果我假设收入继续每年10倍增长,那到2026年底就是1000亿,2027年底就是1万亿。我可以据此订购1万亿美元的算力。但万一我的判断错了呢?如果天才国度晚来一年,2028年才出现呢?如果增长倍数是5倍而不是10倍呢?如果2027年的收入只有8000亿而不是1万亿——那我就破产了。没有任何对冲能救得了我。


所以我必须承担一定的风险,取得一个平衡:购买的算力要足够多,能抓住“强劲上升”的世界;但又不能多到在“增长稍慢”的世界里把自己压垮。 这就是我所说的“负责任”的意思。


帕特尔:如果你的预测是一到三年,那按最晚的时间算,2029年你应该需要10万亿美元级别的算力才合理。但你目前正在扩建的规模,好像还远远够不上这个量级。


阿莫代伊:你为什么会这么想?我们来看看整个行业的数据。今年全球建设的算力,大概在10到15吉瓦左右,而这个数字每年大约增长3倍。所以到2028年或2029年,整个行业每年的算力投入就会达到数万亿美元的量级。你刚才说的那个数字,正是行业正在走向的方向,不是我一个人的预测。


盈利悖论:每个模型都赚钱,但公司整体在亏钱


帕特尔:你已经告诉投资者,Anthropic计划从2028年开始实现盈利。而2028年恰恰是我们可能拥有“数据中心里的天才国度”的节点。为什么会选择在这个时间点“盈利”?


阿莫代伊:盈利能力在这个领域有点反直觉。我给你一个简化的模型:假设你建了一个数据中心,一半算力用于训练,一半用于推理。推理业务的毛利率超过50%。如果你能准确预测需求,按需建设数据中心,你就能盈利。问题在于预测很难。


如果需求低于预期,你就会有过剩的算力,超过一半的数据中心实际上在用于研究(训练),而不是产生收入的推理。这时你就不会盈利,但好处是你有大量算力可以用来训练更强的模型。反过来,如果你低估了需求,你会非常盈利,但代价是研究算力被挤占,没资源训练下一代模型。


帕特尔:现在几家领先的AI公司都没有盈利。什么会改变这个局面?


阿莫代伊:目前,毛利率确实非常高,但我们还处在算力指数级扩张的阶段。


举个例子:去年我们花10亿美元训练了一个模型。今年这个模型产生了40亿美元收入,推理成本10亿美元——算下来,这个单一模型为公司赚了20亿美元。但问题是,我们同时正在训练下一个模型,而因为算力规模在指数级增长,这个新模型的训练成本可能是100亿美元。


结果是:每个现有模型都赚钱,但公司整体是亏损的,因为下一代的巨额投入已经花出去了。我所说的均衡状态,是指我们拥有了“数据中心里的天才国度”之后。到那时,模型训练的规模不再指数级飙升,进入一个更平稳的阶段,公司的盈利能力才能真正体现出来。


机器人技术卡在哪?答案不在硬件


帕特尔:一旦有了“天才国度”,机器人技术会很快解决吗?


阿莫代伊:会。可以通过在多种模拟环境训练来泛化,也可以通过长上下文学习,或者持续学习。不管哪种方式,当模型有这些技能的时候,机器人技术就会被彻底改变,包括机器人的设计和控制。这也会带来数万亿美元的收入,扩散同样很快但不会无限快,可能还要一两年。


帕特尔:人类智能里总会有新的碎片被发现。为什么这次就不会再有新的障碍?


阿莫代伊:机器学习的历史表明,很多被认为的障碍,比如理解语义、做推理,最后都在“大计算块”里消失了。数据需求是真实的,持续学习可能也是,但更有力的证据是,我们可能一两年内就能让模型端到端地做软件工程,包括定技术方向、理解背景,那本身就是AGI级别的任务了。


帕特尔:如果我们正在走向一个“完全可替代的远程工作者”的世界,那API按token收费的模式还合理吗?AGI应该怎么定价?


阿莫代伊:我认为API模式会比很多人想象的要持久,因为技术总是在指数级进步,总会有新的应用场景出现,而API可以让开发者可以在最新的模型上进行各种尝试和构建。这种需求永远不会消失。但我也肯定会有其他商业模式出现,因为并不是每个token的价值都一样。


举个例子:如果用户打电话问“我的Mac死机了怎么办?”,模型回答“重启试试”——这个答案可能只值几分钱。但如果一个AI对制药公司说:“你们正在开发的这个分子,如果把那个芳香环从这一端移到另一端,就能产生奇迹般的效果”——这句话可能价值数千万美元,因为它改变了整个研发方向。


所以未来一定会出现按效果付费的模式,或者按小时计费的模式,就像雇佣人类员工一样。


帕特尔:说到应用,Claude Code现在是这个领域的领头羊。为什么是Anthropic做了这件事?你们是怎么做出一个成功的应用层产品的?


阿莫代伊:其实过程很简单。大约在2025年初,我意识到一件事:“时机已经到了,AI公司自己可以用自己的模型来加速研究。” 但我们需要一个工具,于是内部有了Claude CLI,后来改名叫Claude Code。结果它在内部被所有人使用,采用速度极快,因为编码是我们每天都在做的事。


我看着这个情况,就想:“既然内部已经验证了产品价值,而且我们有成千上万的内部用户,他们在很多方面能代表外部用户,那为什么不推向市场?”于是我们就推出了。


帕特尔:在一个AI快速扩散、数量激增的世界,怎么保证安全?


阿莫代伊:短期内玩家数量有限,要确保每个人都做对齐工作,都有生物分类器等保障。长期看需要某种治理架构,既能维护人类自由,又能监控大量AI系统。可能包括AI监控系统,但要以维护公民自由的方式建。我担心的是这一切来得太快,我们没有100年慢慢适应和建立治理机制。


帕特尔:你们给Claude设了一套宪法价值观,不是只顺从用户价值观。为什么?


阿莫代伊: 这是实践经验。给模型一套原则,比给一长串规则,行为更一致,边缘情况也更好处理。模型主要应该听指令,但面对危险或伤害人的要求时,它会基于原则拒绝。这是可修正性和内在价值观的平衡。


帕特尔:这些原则由Anthropic定,会影响大量经济活动。应该怎么定?


阿莫代伊:有三个层面。一是我们在内部迭代修改。二是不同公司有不同的宪法,形成竞争和反馈,外界可以比较评论。三是超越公司的社会反馈,我们可以做民意调查,未来可能纳入代议制政府的意见,但立法过程太慢。我特别喜欢第二个层面,有点像不同政府形式的群岛竞争。


(特约编译金鹿对本文亦有贡献)


本文来自微信公众号:腾讯科技,作者:晓静,编辑:徐青阳

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: