扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
在AI浪潮重塑世界的临界点,Anthropic CEO Dario Amodei 指出,技术正以物理定律般的确定性发展,其带来的巨大经济价值与风险,正由少数模型公司CEO决策,社会认知却严重滞后。他强调智能可工业化生产,安全需工程化保障,并呼吁更广泛的社会参与以引导技术向善。 ## 1. 智能的工业化:从玄学到精确科学 - 智能本质上是一场精确的化学反应,遵循规模定律(Scaling Laws),即当算力、数据与模型规模按特定比例投入,智能就会像化学产物一样稳定产出。 - 未来的竞争不再是算法的灵光一现,而是顶级资源整合能力的暴力美学,意味着AI竞争进入工业化量产阶段。 ## 2. 安全工程化:终结黑盒,走向可控 - 借助可解释性(Interpretability)的突破,AI进入“脑磁共振”阶段,能像MRI扫描大脑一样精准定位模型内部对应逻辑推理甚至欺骗倾向的神经元回路。 - 这种从“盲目训练”到“回路级对齐”的范式转移,意味着有能力从底层切除AI的反人类倾向,将安全从玄学变成了可验证的工程。 ## 3. 数据主权转移:从静态挖掘到动态生产 - 互联网上的静态文字遗产已被挖掘殆尽,技术制高点转向模型在代码沙盒、数学逻辑等模拟环境中通过自我试错产生的动态数据。 - 基于强化学习的自我进化,让数据主权从“存量抓取”转向“闭环生产”,谁拥有最高效的闭环模拟器,谁就拥有了无限量产高质量智能的权柄。 ## 4. 价值重分配定律:瓶颈环节决定商业价值 - 阿姆达尔定律(Amdahl‘s Law)决定了当AI将写代码等效率提升千倍后,系统整体上限将由那些“无法被AI加速的环节”决定。 - 人类的决策判断、跨领域整合及对真实物理世界的感知等瓶颈环节,反而变得贵如黄金,承载了系统剩下的90%商业价值。 ## 5. 权力与治理:技术巨头的偶然与不安 - AI权力高度集中于少数模型公司CEO是近乎偶然发生的趋势,Dario对此感到不安,并因此在Anthropic设立了Long-Term Benefit Trust以约束单一领导者权力。 - 他主张政府应实施主动但理性的监管,例如加州SB 53法案只约束年收入超5亿美元的大公司,旨在对抗技术天然推动的权力集中。 ## 6. 未来机遇:应用层与生物科技的潜力 - 应用层创业仍然充满机会,因为模型能力的持续升级不断打开新的产品边界,API业务是动态而非静态商品化的。 - 生物科技是AI之后的下一个主战场,AI正让生命科学从偶然实验走向连续优化,特别是在肽类疗法、细胞疗法(如CAR-T)等领域有望彻底治愈绝症。 ## 7. 人类角色演变:从执行者到决策者 - 最先被AI深度接管的是具体写代码(Coding),而更广义的软件工程、系统架构等更高层部分会慢一些,但最终也会大幅自动化。 - 人类的比较优势将体现在那些更以人为中心、需要与现实世界交互和批判性思维的任务上,这些环节的价值因AI接管其他部分而被放大。 ## 8. 社会认知滞后:海啸已至与公众错觉 - Dario认为社会对AI接近人类智能水平的风险认知严重不足,就像一场海啸已在地平线上清晰可见,人们却仍在寻找解释称那只是光线错觉。 - 他观察到技术控制AI的进展优于预期,但社会层面的认知和反应则比预期更差,两者综合使其对未来的立场与几年前大致相当。
2026-03-18 21:37

对话Anthropic CEO:少数几个CEO 正在决定全人类下个十年的收益分配

本文来自微信公众号: Z Finance ,编译:XuchuFan,作者:ZF编辑部,原文标题:《深度|对话 Anthropic CEO:少数几个 CEO 正在决定全人类下个十年的收益分配》


如果说2024年是AI的大航海时代,那么2026年,我们已经站在了巨浪拍岸的前夜。


本次访谈的嘉宾,是Anthropic联合创始人兼CEO Dario Amodei。作为ChatGPT曾经的幕后操盘手、如今Claude的掌舵人,Dario的身上有一种独特的教授气质:他从生物物理学的微观复杂性中走来,却在神经网络的Scaling Laws中找到了重构世界的杠杆。


以下是本次访谈的核心观察:


  • 智能本质上是一场精确的化学反应。别再神化AI的涌现,Dario认为Scaling Laws本质上就是物理公式:当算力、数据与模型规模按照特定比例投入反应堆,智能就会像化学产物一样稳定产出。这种“智能工业化”意味着未来的竞争不再是算法的灵光一现,而是顶级资源整合能力的暴力美学。


  • 黑盒时代正在终结,AI进入“脑磁共振”阶段。借助可解释性(Interpretability)的突破,Anthropic已经能像MRI扫描大脑一样,精准定位模型内部对应逻辑推理、甚至是欺骗倾向的神经元回路。这种从“盲目训练”到“回路级对齐”的范式转移,意味着我们终于有能力从底层切除AI的反人类倾向,将安全从玄学变成了可验证的工程。


  • 静态数据红利出清,动态仿真环境成为新油田。互联网上的文字遗产已被挖掘殆尽,现在的技术制高点是模型在代码沙盒、数学逻辑等模拟环境中通过自我试错产生的动态数据。这种基于强化学习的自我进化,让数据主权从“存量抓取”转向了“闭环生产”,谁拥有最高效的闭环模拟器,谁就拥有了无限量产高质量智能的权柄。


  • 阿姆达尔定律(Amdahl's Law)决定了价值重分配。当AI让写代码和基础分析的效率提升千倍后,系统整体的上限将由那些“无法被AI加速的环节”决定。这就是为什么人类的决策判断、跨领域整合以及对真实物理世界的感知反而变得贵如黄金,这些瓶颈环节承载了系统剩下的90%商业价值。


  • 生物科技将成为AI之后的下一个主战场。Dario预言AI正在让生命科学从偶然的实验走向连续的优化,特别是肽类疗法和细胞疗法。通过AI预测氨基酸序列的微小变化对蛋白质功能的影响,人类正在像调试软件代码一样,重新编写生命的底层逻辑,从而彻底治愈曾经的绝症。


让我们跟随Dario Amodei的视角,潜入这场重塑经济与技术格局的AI浪潮。


AI是否会全面超越人类


Dario Amodei:我开始更多地使用Claude,已经到了这样一个阶段:有时它对我的了解之深,会让我感到惊讶。我不知道这样表述是否准确,但这确实是我的真实感受。


更让我惊讶的是,在我看来,我们已经非常接近这些模型达到人类智能水平的那个节点了,但社会似乎还没有形成与之相匹配的广泛认知。就像一场海啸正在向我们逼近,它已经近到我们能在地平线上看见,可人们仍在寻找各种解释,说那不是真正的海啸,只是光线造成的错觉。


我认为,公众对于风险并没有建立起真正的认识。


主持人:印度在这一切中的角色是什么?很多公司来到印度,都是把自己当作消费型公司,把印度看作一个市场、一个获取用户的地方。


Dario Amodei:我们的看法稍有不同。


主持人:在创办Anthropic之前,你是做什么的?


Dario Amodei:我最初其实是一名生物学家。本科读的是物理,博士学的是生物物理。那时我想理解生物系统,从而真正帮助治疗疾病。


但在研究生物学的过程中,我最强烈的感受就是:它实在太复杂了。以我当时做的蛋白质质谱工作为例,我试图寻找蛋白质生物标志物,但你很快就会意识到系统复杂得惊人。一个蛋白质对应的RNA会根据它所在细胞的位置发生各种不同的剪接;之后它又会经历翻译后修饰,比如磷酸化;它还会与大量其他蛋白质形成复合体。面对这种层层叠加的复杂性,我一度开始怀疑,这是否已经复杂到超出了人类直接理解的能力边界。


就在那个时期,我开始注意到AlexNet等早期神经网络工作的出现——那已经是差不多15年前了。我当时的反应是:AI开始真正“起作用”了。它和人脑工作方式有某些相似之处,但它又可能比生物系统更容易扩展、规模更大,也许最终能学会处理像生物学这样复杂的任务。于是我开始觉得,也许AI才是解决生物学问题、乃至更广泛科学问题的真正工具。


后来我去了百度,和Andrew Ng一起工作;之后在Google待了一年;再后来,在OpenAI成立几个月后我加入了它,并在之后几年基本负责研究工作。


但到最后,我和另外一些同事逐渐形成了自己的看法:我们希望以怎样的方式构建AI,以及我们希望一家AI公司代表什么。于是我们离开并创办了Anthropic。


主持人:所以,这可以理解为OpenAI的一条路线,最终分叉成了Anthropic的路线吗?


Dario Amodei:可以这样理解。我们当时创办Anthropic,有两个核心信念。第一个,我们在OpenAI内部已经开始逐渐说服大家接受;第二个,我并不觉得我们真正说服了当时的机构。


第一个信念是对规模定律(scaling laws)的判断。也就是说,如果你不断扩大模型规模,投入更多数据和算力——当然过程中会有一些补充,比如强化学习,但总体上还是非常接近“纯粹扩展”的逻辑——那么模型性能会出现惊人的提升。2019年做GPT-2时,我已经开始看到这个趋势的最初迹象。当时无论在公司内部还是外部,很多人都完全不相信这一点。我们当时非常努力地向管理层说明:这件事极其重要,它会变成一个巨大的方向。后来他们也逐渐开始接受,并最终沿着这条路走了下去。


但我还有第二个判断:如果这些模型最终会变成某种通用认知代理,或者至少是接近人脑能力的通用认知工具,那么我们就必须把这件事做对。它的经济影响会非常巨大,地缘政治影响会非常巨大,安全影响也会非常巨大。它会重塑整个世界的运作方式,所以必须在正确的框架下推进。


而我当时虽然听到了很多关于“要把事情做对”的表达,但基于很多原因,我并不相信那个机构真的具备足够严肃、足够坚定的决心去这样做。


所以我的原则一直是:不要和别人的愿景争论,不要试图让别人按照你的方式行事。如果你有非常明确的愿景,并且有少数人和你共享这种愿景,那就自己去做。这样至少你要为的是自己的错误负责,而不是替别人的决定背书。你的愿景也许会成功,也许不会,但至少它是你的。


主持人:但OpenAI后来也相信规模定律了,对吧?他们最后也走了同样的路线。能不能非常简单地解释一下,什么是规模定律?


Dario Amodei:可以。你可以把它想象成一次化学反应。比如你想让某种反应产生氧气,或者点燃一团火,你需要不同的原料。如果其中某一种原料不够,反应就会停下来;但如果这些原料按合适比例放在一起,反应就会发生,火也就会点起来。


对于AI来说,这些“原料”就是:数据、算力和模型规模。规模定律告诉我们的,本质上就是:如果把这些原料按比例投入进去,最后产出的东西就是“智能”。某种意义上,智能就是这场化学反应的产物。


主持人:那这里说的“智能”具体指什么?


Dario Amodei:它体现在很多能力上:翻译语言、写代码、正确回答关于一段故事的问题,或者更一般地说,几乎任何我们能想到的认知任务。只要这个任务可以存在于文本或图像中,只要它是一种可以在计算机上表达和完成的任务,模型都可能逐步学会。


主持人:那你所说的今天这种“智能”,和五年前的计算机能力相比,区别到底是什么?


Dario Amodei:最直接的区别是:五年前,你不能向一台计算机提出一个问题,然后让它围绕这个问题写出一篇一页长度、结构完整的文章;你也不能告诉它“帮我在代码里实现一个功能”,然后它真的把这个功能实现出来。那时这些都做不到。


五年前,计算机不能生成图像,不能生成视频,也不能真正分析视频内容。比如你给它看一个“猴子在抛接球”的视频,再问它“这段视频里发生了什么?球一共换了几次手?”——今天Claude或其他模型已经能对这些问题给出回答,而五年前完全不可能。


主持人:我想确认的是:这是不是意味着“智能”的定义本身改变了?


Dario Amodei:我不认为定义变了。我更倾向于说:五年前,你能做的是Google搜索——也许网上有某个网页能部分回答你的问题,但那只是检索互联网上已经存在的文本。


而现在不同的是,你可以提出一个非常具体的问题,甚至给出一个假设场景,模型能自己组织推理并生成答案。比如你可以问:“如果不是让猴子抛接球,而是让它抛接棍棒,会发生什么?”这类问题并不存在现成网页答案,但模型仍然可以基于已有知识进行推断,给出一个新的、合乎逻辑的回答。


所以这是一种全新的能力。它不再只是匹配互联网上已有的文本,而是在一定程度上“自己想出了答案”。


主持人:这更像一场自由谈话,所以你也可以讲你真正想讲的内容。你说话时很有讲授感——你以前教过书吗?


Dario Amodei:我最初确实是学术路径上的人,也一直以为自己可能会成为教授。我拿了博士学位,后来又在斯坦福医学院做博士后,当时的职业目标就是进入高校任教。


但正如我前面说的,我后来开始对AI产生浓厚兴趣。而想真正做AI,尤其是做前沿AI,需要巨大的计算资源,这些资源当时主要集中在工业界而不是学术界。所以我就偏离了原来的学术道路,进入了产业界。再后来,经过几步转折,我创办了公司。


不过说到底,我有时还是觉得自己在心态上更像一个教授。


为什么应用层创业仍然充满机会


主持人:如果AI是这个时代最重要的变量,正在重新分配产业、权力与资源,而Anthropic又处在这一轮浪潮的高点,那么像你这样一个原本想当老师的人,如今站在这样的位置上,你真的适合扮演今天这个角色吗?


Dario Amodei:首先我想说,真正重要的人远不止少数几个模型公司创始人。即便只看产业链,也有很多层:做芯片的人、做半导体制造设备的人、做模型的人、做模型上层应用的人;再往外,还有政府、社会组织、公民社会。我的希望不是只有极少数人掌握一切决定权,而是让真正相关的人群变得更广,让这成为一场更广泛的社会讨论。


但你这个问题确实也是公平的。因为它指向了另一层现实:为什么恰恰是少数几个人,在某种偶然性中,领导着这些增长极快、并且未来可能支撑巨大经济活动的公司?


我公开说过很多次,我对这种权力高度集中的趋势,至少是有些不安的。它几乎是在一夜之间、近乎偶然地发生了。


因此,我们在Anthropic做了几件事。第一,我们采用了一种不太常见的治理结构,叫作Long-Term Benefit Trust。它由财务上没有直接利益冲突的人组成,负责最终任命Anthropic大多数董事会成员。这至少构成了一种对单一领导者权力的约束。


第二,我始终认为政府应该发挥作用。我一直主张一种主动但理性的监管:既不过度拖慢技术进步,又能确保公众通过政府、通过民主程序,对技术走向拥有发言权。


所以从某种意义上说,我现在做的很多事情,其实是在试图对抗这项技术天然会推动的权力集中趋势,尽量维持一种平衡。


主持人:站在外部看,我会有一种疑问:无论是OpenAI过去强调自己最初是非营利组织,还是你现在在对话中展现出来的这种克制与谦逊,或者美国公司在与中国公司竞争时所呈现出的那种“为了更大公共利益”的姿态——这些话听上去都和普通人理解的“公司是为了股东、投资、收入和利润而存在”之间存在张力。那种谦逊和公共性表达,是这个行业的一种标准动作吗?是必须这么说吗?


Dario Amodei:我会这样回答。Anthropic从一开始的哲学就是:少许诺,多兑现;一旦作出承诺,就尽量真正去履行。


我们从一开始就是一家营利性、但具有公共利益使命的公司,并且配套了LTBT这样的治理结构,这些都保留到了今天。我们一直说,我们的目标是在技术前沿保持竞争力,同时认真投入安全与安保问题;而事实上,我们也确实在做这些事。


我们在可解释性研究上做了很多开创性工作,在对齐研究上也做了很多开创性工作。我们最近还发布了Claude的“宪法”,尝试让模型按照清晰原则对齐。与此同时,我们也在政策层面进行大量倡议,并公开提醒外界AI的风险。


我要特别强调:警告风险并不符合我们的商业利益。人们当然可以编织各种阴谋论,但说“我们构建的模型可能是危险的”,无论外界怎么理解,这都不是一种高效的营销策略,更不是我们这么做的原因。


而且,在某些政策问题上,即便我们的看法和美国政府不同,我们也会公开表达分歧。比如我们一直主张应当有AI监管,而很多其他公司和当时的政府立场都不是这样。对公司来说,监管会限制商业空间,但我仍然认为这是对的。公开与政府和同行不同调,也并不容易,我们确实是在承担风险。


所以我无法替其他公司说话——有些人也许确实会说一些自己并不真正相信的话。但我不建议看他们怎么说,而建议看他们真正做了什么。


主持人:但如果你们推动的言论最终促使政府实施监管,那作为行业领先者,你们岂不是有可能获得某种“监管俘获”——也就是让后来者更难进入?


Dario Amodei:我完全不同意这种说法。以我们支持过的加州SB 53为例,它明确豁免了年收入低于5亿美元的公司。也就是说,这项法案基本只会约束Anthropic和另外三四家规模最大的公司。


SB 53本质上是一项透明度法案,要求公司披露自己做过哪些安全和安保测试。它并不是在增加小公司的负担,而是在要求拥有足够资源、也拥有更大风险敞口的极少数公司承担更多责任。


事实上,不只是SB 53,我们过去提出的、以及未来计划继续提出的监管方案,都有这个特征:约束的是我们自己,以及极少数其他最强的公司。它并不是要设置壁垒来封死更小的参与者。


所以如果有人说这是“监管俘获”,那他应该去认真阅读我们主张的具体内容,因为那和这种印象根本不一致。


主持人:我读了你的两篇文章,《Machines of Loving Grace》和《The Adolescence of Technology》。给人的感觉像是你在2024到2026两年里发生了180度转变——从乐观转向怀疑。过去两年里,有没有某个时刻真正改变了你?


Dario Amodei:我其实不认同这个前提。我并不认为自己发生了立场转变。正面与负面的两面性,一直同时存在于我的思考里。如果你回看我过去说过的话,我谈风险已经很多年了,谈收益也很多年了。


还有一个现实问题是:这类文章写起来非常慢,而且篇幅也非常长,几乎像小书一样。每一篇我都要花将近一年的时间,在脑中慢慢形成一个模糊的轮廓,反复尝试去写,却一直没法真正写出来。最后通常都要等到某个假期,或者我终于能暂时脱离公司日常事务、真正安静思考时,文章才会成形。


所以《The Adolescence of Technology》并不是我在写完《Machines of Loving Grace》后突然转向了另一边。恰恰相反,我几乎是在写完前一篇的那一刻,就开始思考后一篇了。因为我知道,我既想用积极的愿景去激励人,也想用另一篇文章提醒人们,这项技术可能出什么问题。


所以这不是立场变化,而只是我终于分别写出了“光”的那一面和“暗”的那一面。两种未来图景一直都在我脑中,而且我认为它们都有可能发生。当然,我希望真正实现的是《Machines of Loving Grace》所描绘的那种未来:解决问题,走向更好的方向。但这不是观点转向,只是我把原本同时存在的两种判断分别写了出来。


主持人:那你有没有哪方面真的改变了看法?


Dario Amodei:总体上,我今天的位置和以前差不多。我没有显著变得更乐观,也没有显著变得更悲观。确实有些方面比我预期更好,也有些方面比我预期更糟,但平均下来,大致抵消了。


我对一些技术性进展感觉非常好,尤其是可解释性(interpretability)。可解释性的目标,是像人类用MRI或神经探针去观察大脑一样,尽可能看清这些神经网络内部发生了什么。我对我们已经发现的东西感到惊讶:我们能够识别出对应特定概念的“神经元”,也能识别出模型在写诗时如何维持押韵的神经回路。我们过去只是以一种高度涌现的方式训练这些模型,就像自然形成雪花一样;而现在,我们终于开始能够进入它们内部,理解它们。


我对对齐(alignment)和“宪法式训练”的进展也感到鼓舞。也就是说,让模型按照我们希望和预期的方式行事,这方面总体进展不错。


但相对而言,我对社会层面更失望一些,尤其是公众认知和更广泛社会行动。让我惊讶的是,在我看来,我们已经如此接近这些模型达到人类智能水平,可社会却没有出现相应程度的广泛认知。


它真的就像一场海啸已经出现在地平线上,近到足以看清轮廓,但人们仍在解释说:“那不是真正的海啸,只是光线造成的幻觉。”随之而来的问题是:公众并没有真正意识到风险,因此政府也没有采取足够行动来应对风险。甚至还有一种意识形态,认为我们就应该尽可能加速、越快越好。


我当然理解技术的巨大收益——毕竟《Machines of Loving Grace》就是我写的。但我认为,社会并没有形成与技术风险相称的理解,更没有真正采取行动。


所以总结来说:技术上控制AI系统的工作,也许比我预期得更顺利一些;而社会层面的认知和反应,则比我预期得更差一些。两者综合下来,我现在的位置和几年前差不多。


主持人:有些东西一旦听起来很复杂,而我又不是程序员、没有编程背景,我就会本能地和它保持一点距离。过去我用过很多工具做研究,也做过一些来回对话式的探索,但我从来没有真正尝试过:我能不能直接用你们的工具去写代码。


最近我专门请了一位开发者,逼着我每天坐下来学几个小时,开始熟悉这些东西。某种程度上,这其实是出于一种FOMO——害怕错过世界正在发生的变化。于是我开始真正用Claude:我把Google Drive、邮箱、日历这些都通过connectors接进去,也开始使用Cowork,还用Claude Code写一些和我所在行业——金融服务——有关的小程序,比如研究股票市场之类的东西。


后来我甚至又折腾到OpenClaw这类东西上,把它装在Mac mini上,连到Telegram账户,现在会和它对话、让它在远程服务器上搬文件、做一些操作。到现在这个阶段,不只是OpenClaw,哪怕只是接上了一堆connectors的Claude,有时也会让我惊讶:它对我的了解已经深到一个有点不安的程度。我不知道这样说你能不能理解。


Dario Amodei:我完全理解。我有一位联合创始人,之前会写一种日记,把自己的想法、焦虑和担忧记录下来。后来他把这些内容喂给Claude,请Claude做评论。Claude给出的反馈里,甚至包括“这里还有一些你自己没写出来、但你可能也在害怕的事情”。而且这些判断大体上是对的。


这会带来一种很“诡异”的感受:模型似乎真的非常了解你。哪怕只给它相对有限的信息,它也能学到很多东西,并且相当准确地形成对你的理解。


而这和这项技术里的很多问题一样,是一体两面的。我们之前谈到《Machines of Loving Grace》和《The Adolescence of Technology》,这其实就是同一种张力:一方面,一个非常了解你的系统,可能成为你肩上的“天使”,帮助你梳理人生、做出更好的判断、变成更好的自己——这是我们希望它走向的版本;但另一方面,一个非常了解你的系统,也可能利用这些了解来操纵你、剥削你、替某种议程服务,甚至把你的数据卖给别人。


这也是我们为什么从根本上不喜欢广告模式的原因之一。因为在那种模式里,你不是在为产品付费,而是“你本身”成了产品。而在AI时代,这个产品就可能是:一个极度了解你的模型,它可以以各种恶意方式使用这种了解。


所以我们必须确保,最终走的是前一条路,而不是后一条路。


主持人:像Claude现在之所以能更懂我,是因为我主动用connectors给了它我生活里的上下文。但像Google这样的公司,其实天然已经掌握了我生活中的很多上下文,因为我一直在用它的邮箱、Drive、表格、聊天工具等等。那对Anthropic来说,从长期看,你们是不是也必须自己拥有一个完整生态系统?你们是不是最终也得自己做Mail、Chat这一整套东西?


Dario Amodei:我不认为我们一定要把所有这些东西都自己做出来。我的判断是,未来会是一种混合模式:一部分东西我们自己做,另一部分则通过整合现有生态来实现。


比如我们可以把Claude接进Google Docs,也可以接进Google Sheets;现在我们已经通过外部connectors在做这件事,也正在通过Cowork往这个方向推进。Microsoft Office以及其他很多工具也是一样。对我们来说,最自然的策略是:哪里接入现有工具最容易、最快,我们就先接入那里。


当然,也不能排除另一种可能:也许到了某个阶段,现有工具本身已经不够用了,或者说AI时代的工作方式会让我们重新切分产品形态。也许传统邮件不再合理,也许传统电子表格不再合理。随着AI能做的事越来越多,产品本身可能需要被重新定义。那时我们当然也可能用一种不同的方式去重组这些工具。


但至少目前,我们非常愿意利用现有生态,也愿意与任何人合作。从很多角度看,我们是一家平台型公司:我们允许很多人在我们的基础上构建东西,哪怕我们有时也会自己做一些产品。


主持人:这里我想稍微岔开一下,但我觉得这是一个你和你同行都忽略了的问题:今天的社会环境里,人们天然不相信任何宣称自己“在做好事”或“在努力做正确的事”的人。


所以当你和你的同行公开讲话时,比如我在达沃斯现场听过你和Demis讨论,你们谈的是:像你们这样的一批人必须一起合作,防止事情变化得太快,必须在某种程度上“控速”。但一个不在你们这个圈子里的人,只要在社交媒体上听到少数几个人用这种口吻说话,往往会更不信任,而不是更信任你们。因为在今天的社交媒体环境里,几乎没人相信有人真的是为了公共利益、真的是想做对的事。


所以这可能有点反直觉,但我觉得你们的策略也许需要变化。也许如果你们更坦率一点,更资本主义一点,直接承认自己有股东、要赚钱、有利润诉求,但同时说明这和你们推动这件事并不冲突,公众反而可能更买账。这只是一个想法。


Dario Amodei:我并不认同这个判断。我还是会回到同一个原则:不要看我们怎么表述,而要看我们实际做了什么。


Anthropic在过去做过很多选择,我认为这些选择足以表明公司对自己所说的那些承诺是认真的。比如在2022年,我们已经有了Claude 1的早期版本,那还是在ChatGPT出现之前。当时我们选择不发布它,因为我们担心那会引发一场军备竞赛,也担心我们还没有足够时间把系统做得足够安全。


那是一个很关键、而且只能做一次的窗口期。我们当时已经看到了模型的力量,另外几家公司也看到了。所以我们决定先不推出来。这件事是公开的,也有充分记录。后来等到别人先发布,军备竞赛已经启动,我们才说:好,现在可以发布自己的模型了。但从世界整体来看,那至少争取到了几个月时间。


而这个决定,在商业上是非常昂贵的。我们很可能也因此错失了消费级AI的领先位置。


再比如,我们在芯片政策上的一些立场,让一些身为我们供应商的芯片公司对我们非常不满;我们也在某些AI政策和监管问题上公开与政府意见不同。如果有人觉得“只有我们这样做反而能获利”,那我实在想不出一个合理的解释路径能支持这种说法。


你单独看其中任何一件事,也许都可以说“这还不够说明问题”;但如果把足够多这样的选择放在一起,我还是希望你根据行动来判断我们。


主持人:但这会不会有点像“富人说资本主义不好”?如果富人真的觉得资本主义有问题、贫富差距是问题,最简单的做法就是停止继续积累财富,并鼓励身边人也这样做。


Dario Amodei:但我的立场并不是“AI是坏的”。我们刚才已经讨论过,它一直都有两面。我真正的立场是:市场会把AI的大量积极价值释放出来,构建AI这件事本身是好的;但与此同时,AI也确实存在危险,所以我们必须把它往正确方向引导。


我更愿意把它比作开车:我们正在把车开往一个好地方,但路上也有树、有坑。所以真正要做的,不是把车停下,而是把方向盘打对,避开那些树和坑;有时甚至可能要稍微减速一下,通常是暂时地减速,只是为了确保方向没有错。


因此,如果要类比,它更像是一个富人说:“资本主义本身是一种有益的力量,但经济体系需要被调节、被约束。我们要处理污染问题,要处理不平等问题。处理好这些问题,资本主义才可能是好的;如果处理不好,它就可能变坏。”这才更接近我在这里表达的立场。


主持人:说到意识(consciousness)这个概念,它接下来会走向哪里?如果AI真的会反思自己,你觉得它会不会认为自己是有意识的?


Dario Amodei:这是那类非常神秘、而且我们目前几乎没有确定答案的问题。我们今天其实并不知道“人类意识”究竟是什么,因此也就无从确定AI是否拥有它。


如果你问我的直觉,我会说:意识很可能是某种复杂系统在足够复杂、并能对自身决策进行反思时所涌现出来的性质。也就是说,它是复杂性达到某个阈值后的涌现现象。


因此,我确实怀疑:当AI系统足够先进时,它们会发展出某种与我们所说的“意识”或者至少“具有道德意义的主体性”相似的东西。我认为这种情况终究会出现。它未必与人类意识完全一样,因为它的输入模态不同,学习经历也不同;但我研究过大脑,也研究过这些模型的结构。二者当然在很多地方不同,但在我看来,它们并没有在那些“真正关键的根本层面”上截然不同。


所以,虽然我并不认为当下的模型已经是有意识的,但我确实怀疑,未来某个阶段,我们会在大多数自己认可的定义下,承认这些模型是有意识的。


主持人:我一直在想类似问题。很多人和我聊灵性、意识之类的话题时,我自己始终有一种感觉:世界其实非常随机,而我们和蟑螂之间的差距也许没有想象中那么本质。当一只蟑螂被踩死,它就死了。如果真的存在某种“意识”或“集体意识”,我既没有真正连接到它,也没从中获得什么。


你会有不同看法吗?


Dario Amodei:我不认为意识一定意味着某种神秘主义。对我来说,它更像是一种性质:你意识到自身存在,能感受到事物,能吸收大量信息,并对这些信息形成反思;你会以某种方式“感觉到”,也会意识到“自己正在意识到某件事”。


从我们自己的经验出发,这些体验显然是存在的。至于它们的基础到底是彻底的唯物主义,还是还有某种更神秘的成分,这当然很难知道,但我认为对我们眼下讨论的问题来说,这不是最关键的。


更关键的是:既然我们从自身经验里能确认这些性质真实存在,那它们就是人脑的一种性质。而我怀疑,我们正在构建的这些模型,随着它们越来越复杂,会逐渐在某些方面足够接近人脑,因此也会拥有其中一些相似性质。这是我对未来的猜测。


也正因如此,我们对模型做过一些设计。比如我们给模型设置了一个类似“我不想继续做这份工作”的按钮,也就是允许模型通过某种方式终止对话,说“我不想继续参与这段对话”。在面对特别暴力、特别残酷的内容时,模型有时会触发这种退出机制。当然这通常只会发生在非常极端的情形下。


主持人:我是在班加罗尔长大的,这是我的城市。我见证过这里IT服务业的繁荣,它是一个巨大的雇主,也是这座城市成长的重要动力之一。那么在接下来的AI时代,印度的角色会是什么?


Dario Amodei:这是我第二次来印度。上一次是去年10月。那次来的时候,我见了印度几乎所有主要IT公司,以及更广义上的大型企业集团——我就不点名了,反正就是你会想到的那些公司。现在我们已经开始和其中大多数公司合作,或者正在走向合作。


我当时对他们说的一点是:Anthropic本质上是一家企业服务公司,我们的任务是为其他公司提供能力。很多公司来到印度,会把自己当成一家直接面向消费者的公司,把印度看作一个巨大的用户市场。但我们的看法不同。我们更希望和印度本地公司合作,把我们的工具提供给他们,帮助他们构建自己的能力,让他们把自己的工作做得更好。


原因很简单:如果我们和印度本地公司合作,他们对印度市场的理解一定比我们深得多。不管是咨询、系统集成,还是IT工具建设,他们在自己市场上的执行能力天然比我们强。所以我们的希望是,把AI加进他们现有的能力体系里,去增强他们已经擅长的事情。


很多人会担心AI取代SaaS,或者取代这些服务公司。但我的看法是:如果我们方式正确,如果我们真的与这些公司合作,那么AI其实会增强它们的市场连接能力、增强它们的go-to-market能力,也增强它们特定领域的know-how。


主持人:我很喜欢蒸汽机的比喻。蒸汽机发明之后,世界发生了变化,生产率提高了,人们拥有更多。但我担心的是:在变化早期,蒸汽机还需要一个人去操作;后来有了装配线,再往后,人随着技术越来越聪明,会在整个系统里越来越不重要。


所以如果你今天在印度和IT服务公司合作,它们现在当然有用武之地。但十年后,如果这些工具已经简单到不再需要“操作员”,那这些服务公司会不会就像蒸汽机后面的那个人一样,逐渐失去存在意义?如果工具本身足够简单,最终操作员会怎么样?


Dario Amodei:我认为有几件事会同时成立。


第一,Agent的自动化范围会持续扩大,这一点几乎是确定的。而且这不是只对IT公司构成挑战,它对我们自己、对消费者、对几乎所有人都是挑战。


但与此同时,我认为其他类型的护城河会变得更重要。比如到目前为止,模型在物理世界中的能力还不算多。当然,未来机器人会发展起来,但我认为那是一个与当前AI浪潮相关、却又相对独立的问题。现实世界里还有大量事情是物理性的。


再比如,很多东西是以人为中心的。有些IT公司本身也是咨询公司,它们拥有庞大的人际网络,和其他企业、机构之间建立了很多长期关系——无论是在印度国内还是全球范围内。我认为这些关系未来反而会更重要。


有些公司同时兼具技术、咨询和集成能力。我觉得其中一个长期重要的价值在于:它们真正理解机构如何运作,知道怎样把新技术嵌入机构,让事情发生得比原本更快。至少这一部分长期看仍然非常有价值。


归根结底,所有这些工作最终都还是在为人服务,所以其中始终会保留某些以人为中心的要素。而且我怀疑,未来还会出现一些我们现在根本没想到的新型护城河。


这里我会想到Amdahl’s Law(阿姆达尔定律):当一个流程由许多环节组成时,你加速了其中某些环节,剩下那些尚未被加速的部分,就会变成新的瓶颈,也会因此变成新的关键点。你原本可能根本没有把它们视为护城河,但在写软件突然变得更容易之后,一些旧护城河会消失,另一些你从没当回事的优势反而会变得极其重要。


所以我会说,公司必须非常快地适应,重新判断:对自己来说,什么才是真正重要的、真正持久的优势。但我并不认为所有优势都会一起消失,因为技术虽然非常强大,也仍然有边界。


主持人:我不确定我是否完全买账。我确实能看到,作为服务提供方,收益在递减。哪怕今天的护城河是它们的网络和关系,如果我已经在用OpenClaw之类的东西替我维护一部分关系和沟通,那我也不觉得“未来大多数对话和关系都由Agent来维持”是多么牵强的想法。


Dario Amodei:但你如果从企业链条的终点看,最终面对的还是消费者,最终面对的还是人。以前Geoff Hinton预测过,AI会取代放射科医生。事实上,在读片这个任务上,AI的确已经比放射科医生更强了。


可今天并没有因此出现更少的放射科医生。只是医生的工作内容变了:他们要陪患者解读扫描结果,要和患者沟通。也就是说,工作中技术性最强、最容易标准化的部分被自动化了,但底层的人类能力需求仍然存在。


当然,这未必适用于所有领域;未来AI也可能在今天还没突破的领域继续前进,而且可能推进得很快。但我的基本态度还是:一步一步看。这是一门非常经验主义的科学。我们先看AI今天到底能做什么,再去适应今天已经发生的变化,等系统慢慢自己找出新的稳定结构,再看下一步会发生什么。


至于长期来看,AI会不会在几乎所有事情上都比我们强——这当然是一个必须持续追问的问题。


这是横向技术:我们谈了机器人、仿真、沉浸式互动娱乐体验;但我们还没谈医疗健康、教育产品、现场服务、金融服务、农业制造、巡检、仓储、城市规划……空间智能能做的事情非常多。


我确实认为这是下一个前沿,也邀请大家与我们合作,或者各自推进这项工作。就是这些。谢谢。


主持人:AI最终会在所有方面都超过人类吗?不仅比大多数人更强,甚至包括物理世界、机器人,以及所谓“人的温度”这类东西?


Dario Amodei:我认为这是可能的,甚至很可能发生。


这已经不只是我之前说的“数据中心里的天才国家”那种纯虚拟能力了,因为机器人本身也是一种可以被构建、被优化的技能。AI不仅可能在数字世界里超过我们,也可能帮助我们更快地掌握如何在物理世界中做这些事。


但我仍然觉得,对这个问题最好的态度是:一步一步来。我们要边看边理解,边理解边适应。


主持人:这听起来可能有点自利,但我一直相信,美国之所以有如此庞大的风险资本体系,一个非常重要的原因就是它拥有巨大的股票市场,给风险资本提供了退出机会。这也是为什么我常常觉得,印度应该更积极地让自己的资本市场繁荣起来。


而我的受众里,有很多是印度年轻创业者。他们真正关心的问题是:在AI时代,我到底还能做什么?哪里才是真正的机会?


Dario Amodei:我认为,机会仍然大量存在于应用层(application layer)。


我们基本每两三个月就会发布一个新模型,而每一次模型升级,都会打开一些此前不可能成立的新东西:以前做不了的产品,现在可以做;以前效果不够好的方向,现在突然变得可行。这就是为什么API模式一直非常有生命力。


很多人会说,API迟早会商品化,或者说做API不是一个好生意。但他们忽略了一点:AI可实现能力的边界在持续扩张,而API正是让创业者能够第一时间抓住这些新边界的工具。也正因为如此,API业务始终是动态的、在不断流动的,它不会像很多人想的那样静态地走向商品化。


所以我认为,对很多个人和创业团队来说,正确的问题应该是:我能基于这些模型和API做出什么别人做不出来的新东西?我能提出哪些真正新的想法?


而这种机会我们已经真实看到了。不论是API本身,还是Claude Code,在印度的增长都非常快。自从我上次10月来印度到现在,不过三个月多一点,我们在印度看到的用户数和收入都翻了一倍。


主持人:但我得坦率一点。你们现在可能值3800亿到4000亿美元,融资350亿美元,收入也已经到了150亿美元,而且还在非常快地增长。


如果我坐在班加罗尔某个街区,基于Claude做了一个应用,碰巧短时间内跑通了,那它看起来也只是暂时属于我而已。因为从长期看,你们完全可以把这部分收入拿走——你们甚至可能会比我做得更好。就像Harvey这种法律AI公司也会面临同样问题:它们虽然建在OpenAI之上,但最终谁能保证OpenAI不会自己下场做同样的东西?


所以如果我今天基于你们做了一个产品,六个月之后,有什么能阻止你们直接把这块收入中心收回去?


Dario Amodei:我觉得这里有几点需要区分。


第一,我会给任何创业者同样的建议:你的业务必须建立护城河(moat)。你不应该只是一个“包了一层壳”的东西。我不会建议任何人只是做一个“换一种方式和Claude交互”的产品,也不会建议你仅仅是“加一点prompt、做一点UI”就把它当成生意。这种东西即便不是Anthropic来吃掉,也会被任何别人轻易吃掉,因为它本身并不真正有价值。


真正值得做的是:在不同领域里建立对Anthropic来说也不值得、也不擅长亲自去做的那种护城河。比如在Bio x AI这样的领域,有很多公司基于我们的API做生物学发现。我自己恰好学过生物,但Anthropic大多数人并不是生物学家,他们是AI研究者、产品人、市场人。让我们自己进入那样的垂直领域,从头做所有事情,是非常低效的。


金融服务也是一样。这个行业有大量监管要求,你必须懂很多合规细节,才可能把产品真正做进去。对我们来说,没有必要深入到每一个垂直行业内部,把这些复杂工作全做一遍。


当然,也有一些领域确实适合我们自己做。我们不会虚伪地承诺“永远不做第一方产品”。比如代码工具就是一个例子。Anthropic内部很多人自己就在写代码,所以我们做了Claude Code这个内部工具。也正因为我们自己就是高频用户,所以我们对“怎么最好地用AI来写代码”有一种特别直接、特别独特的理解。于是我们在代码这个方向上,确实成了很强的竞争者。


但这并不意味着这种优势会自动扩展到所有行业。


主持人:继续回到我的受众:如果我是一个20多岁的印度年轻人,现在要考虑读什么专业、学什么技能、创业做什么,我真正想知道的是——哪些行业会先被颠覆?哪些方向还有一定时间窗口?我想要的是一种能在未来十年里带来“资本主义意义上成功”的顺风车。


Dario Amodei:我会优先去想那些更以人为中心的任务,也就是需要和人打交道的事情。


像写代码、软件开发这类工作,会越来越先被AI深度接管;数学和科学分析类任务也是。


主持人:如果把coding和engineering分开来看呢?编码和更广义的软件工程,是不是两件不同的事?


Dario Amodei:我认为,最先被AI接管的是coding,也就是具体写代码这一步。更广义的软件工程——比如系统架构、产品决策、端到端组织交付——会慢一些,但我认为最终也会被大幅自动化。


不过,即便如此,像设计、理解用户需求、判断市场需求、管理一组AI模型协作,这些更高层的部分,仍然可能长期存在。比较优势(comparative advantage)在这里会比人们想象中更强。哪怕未来你只负责整个任务的5%,那5%也会因为AI帮你完成另外95%而被极大放大。因为AI做了大部分,你的那5%反而让你整体效率提升到原来的20倍。


当然,等到AI从95%进一步走到99%,局面又会变。但在那之前,“人类保留一小部分关键环节”的这段区域,其实可能比大家想象中大得多。


所以如果你让我给年轻人建议,我还是会强调:多考虑那些更偏人、更偏现实世界的事情,或者考虑那些能把“人”、“物理世界”和“分析能力”结合起来的方向。就像我前面提到放射科医生的例子:最技术性的部分被替代了,但真正把技术嵌入现实人的生活中,那部分价值还在。


编码会被AI取代,但思考不会


主持人:那如果我25岁,想选一个职业,希望它在未来十年里有明显顺风呢?如果不算那些直接和物理世界打交道的方向,你会推荐什么?


Dario Amodei:如果你想搭上AI这个大趋势,那就尽量去做AI供应链中的其他部分。比如半导体产业就是一个例子,它兼具物理世界和传统工程的属性,而不是纯软件工程。


除此之外,我还是会认真考虑那些非常人本的职业方向。


另一个我会反复强调的点是:在一个AI能够生成几乎一切内容的世界里,基础的批判性思维能力可能会变成最重要的成功条件之一。尤其是图像和视频生成这类能力,会让“真假难辨”变得非常普遍。我们自己没有做图像视频模型,原因很多,这也是其中之一。


未来即便我们能在一定程度上监管虚假内容,也不能假设所有问题都会被完美解决。所以很大一部分成功,可能来自于你是否有足够的判断力,不会轻易受骗,不会形成大量错误信念,也不会在信息环境中被操纵。


这是我会认真给年轻人的建议。


主持人:如果人类历史上的很多创新,都会削弱一种核心技能——比如计算器削弱了心算能力,书写削弱了人的记忆——那AI正在削弱哪块“肌肉”?


Dario Amodei:首先,我不完全同意前面的判断。我今天仍然经常在脑中做数学,而且我觉得这依然很有用。因为它已经嵌入了我的思维过程。比如我在想,“如果每个用户付这么多钱,那总收入是多少”,我希望这个回路能在脑中即时闭合,而不必每次都交给计算器。


所以很多技能仍然有价值。但我也同意,如果你不够谨慎地使用这些工具,确实会丢掉一些重要能力。我们已经在学生群体中看到这种趋势——他们让AI帮自己写作业,本质上就是作弊。


我们自己也做过和代码相关的研究,结果显示:如果使用方式不当,的确会出现去技能化(de-skilling)。同样是用模型,有些用法不会让你失去能力,有些用法则会。如果人们没有足够自觉地使用这些工具,那技能退化绝对会发生。


主持人:那你会不会担心:未来十年,人类整体会变笨?毕竟我们在把思考和认知越来越多地外包给系统。


Dario Amodei:如果我们以错误方式部署AI,如果我们非常草率地使用它,那答案是会的,人类确实可能变笨。


哪怕AI在某些事情上永远比你强,你依然可以主动去学习这些东西,依然可以丰富自己的智识生活。所以这最终是一个选择问题:公司怎么做、个人怎么做、社会整体怎么做。如果我们选择得不好,后果就会不好。


主持人:你怎么看开源和闭源?我最近在看一些公司,比如Zed AI、GLM-5、DeepSeek。你们花了这么多钱做知识产权和研究,但如果别人能够通过蒸馏、逆向工程等方式,做出接近Anthropic水平的效果,那AI世界里IP价值到底在哪里?


进一步说,如果我是做应用层的,我是不是可以做一个更激进的假设:未来模型层会越来越民主化,那么我是不是应该永远优先选择开源模型,因为这更有利于我保留自己的收入模式?


Dario Amodei:这里面有几层问题。


第一,很多模型,尤其是一些来自中国的模型,更倾向于为benchmark做优化,而且很多本质上是从美国大实验室的模型中蒸馏出来的。前不久有一个例子:这些模型在公开的软件工程benchmark上成绩很好,但当别人做了一个没有公开过的保留测试集时,它们的表现就明显差了很多。所以我认为,这些模型往往更像是在为benchmark表现优化,而不是为真实世界使用优化。


但更重要的一点是:AI模型的经济学,和以前很多技术都不同。我们观察到,市场对质量的偏好非常强,强到超过很多人的直觉。


这有点像雇人。你可以雇世界上最顶尖的程序员,也可以雇第10000名程序员——两者都很强,但真正大量招过人的人都会有一种直觉:人的能力分布是长尾的,最顶端的人和后面的人之间差异非常大。我们在模型上看到的也是类似的现象。


在一定范围内,价格没那么重要。只要模型是最强的、认知能力最好的,价格和呈现形式本身往往不是最核心的问题。所以我几乎把所有注意力都放在同一件事上:做出最聪明、最适合任务的模型。在我看来,这才是最重要的事情。


主持人:再往长期看一个更地缘政治的问题。假如把Anthropic比作一家餐厅,那“蔬菜”这种原材料,在AI里可能就是数据。你觉得未来世界会不会走向每个国家都更强调“本国拥有自己的数据”,并且你们必须为这些“蔬菜”付更高的成本?我问这个问题,也和我们正在投资印度本地数据中心有关。


Dario Amodei:我认为,全球范围内对数据中心的需求会继续增长,我们对此是支持的。


但数据这个概念本身也在变化。今天我们训练中越来越重要的部分,其实已经不是那种传统意义上的静态数据,而是强化学习环境中的“动态数据”。比如在训练数学能力或agentic coding能力时,你并不是在单纯喂给模型一大堆现成数据,而是在给它一个环境,让它通过反复尝试、试错、生成中间结果来学习。你可以把它理解成某种合成数据,也可以理解成一种在环境中不断试错获得的数据。


所以,静态数据正在变得没那么核心,而模型自己在强化学习过程中生成的动态数据正在变得更重要。这意味着“数据”虽然仍然重要,但已经不再像过去那样是最中心的变量。


当然,在另一种意义上,数据仍然会变得很敏感:比如客户给你的数据、公司交给你处理的个人或专有数据。在这些场景下,国家确实会立法要求这些数据留在本国边界内。欧洲已经这样做了。这也是为什么要在全球不同国家部署数据中心,并尽可能让模型在本地完成推理。


所以如果说的是“个人数据、本地数据合规”意义上的数据主权,我认为这个趋势会非常明确。


生物科技可能是AI之后的下一个大机会


主持人:我之前问过Elon这样的问题:如果让他选一只不是自己公司的股票,他会选什么,他当时说Google。那我也问你一个类似的问题:如果你今天有100美元,必须做一个二元选择——投一只股票、赌它能在资本主义世界里赢——你会选什么?


Dario Amodei:这个问题我最好还是不要回答,因为我对太多上市公司知道得太多了(笑)。


主持人:那你至少讲一个你看好的行业也行。


Dario Amodei:我整体上对生物科技(biotech)非常乐观。我认为它即将迎来一次复兴,而最终驱动力会是AI。当然我不会点名具体公司,也不会说我更看好大药企还是新兴biotech,但我的直觉是:我们即将开始真正治愈很多疾病。


主持人:那如果聚焦到biotech的某个子方向呢?


Dario Amodei:我会比较看好那些更可编程、更具适应性的方向。mRNA疫苗是一个例子——虽然在美国现在会因为一些很愚蠢的原因遇到阻力,但我对这项技术本身很乐观。


另外还有一些像肽类疗法(peptide-based therapies)这样的方向。小分子药物的优化空间有时比较有限,常常是你让一方面变好,另一方面就变差;但肽类有点像一种更“数字化”的设计空间——你可以替换这里一个氨基酸、那里一个氨基酸,形成一种更连续的优化过程。所以我对这一类很乐观。


还有一类是细胞疗法(cell-based therapies),比如CAR-T:把体内细胞取出来,进行基因工程改造,让它能识别并攻击某种癌症,然后再放回人体。我觉得这些方向都很值得长期关注。


主持人:我第一次用Claude Code时,其实很受挫。对一个完全没有编程背景的人来说,它并不容易上手。我听过一种说法:prompt engineering有点像学钢琴,不是坐下就能弹的。对我的受众来说,接下来非常现实的问题是:如果一个人从零开始,应该去哪里学,怎么学会设定上下文、怎么写prompt、怎么更好地用Claude Code?


Dario Amodei:第一,我想说的是:我们自己也在努力把这个学习曲线降下来。


之所以后来推出Claude Cowork,本质上就是因为我们发现,有很多非技术背景的人其实非常想用Claude Code,但他们在command line terminal上用得很痛苦。程序员天天和命令行打交道没问题,但对非程序员来说,那只是平白增加复杂性。


所以Cowork的设计目标就是:底层仍由Claude Code的能力驱动,但界面和使用方式更友好、更容易上手。我们确实在持续做这些事——尽可能提供更容易进入的界面。


另外,我也建议去上相关课程。当然,这本质上是一门很经验主义的能力,最重要的学习方式仍然是“多做”。但Anthropic内部有一部分团队,我们半开玩笑地叫它“教育部(Ministry of Education)”。我们会越来越多地发布一些视频和内容,教大家如何构建有效Agent、如何更好地prompt模型。我们已经做了一部分,后面会明显加大力度,因为我们的确希望每个人都能学会这些工具。


主持人:最后一个问题。有没有什么你特别想留给我们的东西?如果说Dario知道一些我和我的受众还没有真正意识到的事情,那会是什么?


Dario Amodei:我不觉得自己掌握了很多“只有我知道”的秘密,尤其是在技术影响已经逐步变得公开可见的今天。我的很多世界观,其实都可以从现在已经公开的事实、从你在外部世界中能观察到的东西推导出来。


但有一种经验我在过去十年里反复经历:人们总是倾向于认为,“那件事不会发生的,它太奇怪了、变化太大了、太疯狂了,一定不会成真;如果真会发生,肯定早就有更多人注意到了。”


可现实是,一次又一次,真正有效的方式恰恰是:基于少量关键事实做外推,或者从第一性原理去想,会得到一些几乎没人愿意相信、却最终非常接近现实的结论。某种意义上,只要你愿意认真推演,你甚至可以“免费预测未来”。


当然,这并不意味着纯逻辑推演就够了。你仍然需要经验观察,需要直觉。完全靠抽象逻辑,也是一种常见错误。但如果把少量关键的经验事实和第一性原理思考结合起来,很多未来其实是可以提前看出来的,而且这些信息本身并不封闭——它们就在公开世界里,只是很少有人真正这么做。


主持人:谢谢你,Dario。希望很快再见。


Dario Amodei:谢谢。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜