扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-02-11 10:12

AI离人类水平智能有多近?基于Nature一篇文章中的“AI不可能街道”来理解这个问题

本文来自微信公众号: 生态学时空 ,作者:复旦赵斌,原文标题:《【科学怎么说】AI离人类水平智能有多近?基于Nature一篇文章中的“AI不可能街道”来理解这个问题》


记得2024年OpenAI的新模型o1一发布就炸了锅——这家公司直言,o1的思考方式更接近人类,还在奥数题上创下83%的正确率,比之前的GPT-4o(13%)翻了6倍。


这让很多人好奇:难道传说中的通用人工智能(AGI)要来了?那种能像人一样抽象推理、灵活适应新任务,甚至自己规划学习的AI,真的离我们不远了?今天,我们就从科学认知和技术进展的角度,拆解这个问题的核心——AI与人类水平智能之间,到底还隔着什么?


一、我们说的人类水平智能到底是什么?


首先,通用人工智能(AGI)不是指AI在某件事上超过人类(比如AlphaGo下棋、AI画画),而是具备和人类大脑相当的通用能力——能从一个任务举一反三,能抽象推理解决没见过的问题,能自主规划目标,还能主动选择要学习什么。


简单说,现在的AI是偏科天才:AlphaGo只会下棋,DALL-E只会画画,即使是GPT-4o,也只是什么都懂一点的问答高手,但它们都做不到像人一样思考。而AGI则是全能选手,能像你我一样,面对陌生场景也能灵活应对——比如从没学过导航,却能根据地图和突发状况规划路线;从没做过某类题,却能靠逻辑推理找到解题方法。


过去几十年,AGI只是科幻小说里的概念,直到大型语言模型(LLMs)出现,才让科学家们认真讨论AGI是否近在咫尺——因为LLMs第一次展现了跨领域能力:既能写代码、总结论文,又能解数学题、聊哲学,就像人类大脑一样有了广度。


二、LLM已经进化到哪一步?


当时o1的出现,代表了曾经AI的最高水平,它的核心突破的是思维方式的升级:


1.从直接给答案到一步步思考


之前的AI解题,更像凭感觉猜答案,而o1融入了思维链(CoT)提示技术——简单说,就是教AI拆题:先把复杂问题分成小步骤,一步步推导,最后得出答案。这就是它能在奥数题上大获成功的原因。比如遇到鸡兔同笼的变种题,o1不会直接输出结果,而是先分析已知条件是什么、需要求什么、中间缺什么变量,这种推理过程,已经很接近人类做题的思路了。


2.Transformer架构:让AI读懂语境


LLM能理解语言的关键,是一种叫Transformer的技术。它能让AI识别出文本中远距离的关联,比如区分“河岸(bank)被淹”和“银行(bank)的ATM坏了”中同一个词的不同意思——这种对语境的理解,是AI接近人类语言能力的核心。


而且,Transformer不仅能处理文本,还能解析图像、音频(只要把这些数据转换成文本式标记),这为AI具备多感官认知打下了基础,也让它有了成为AGI的潜力。


3.初步的世界模型萌芽


神经科学家认为,人类智能的核心是大脑能构建世界模型——也就是对周围环境的认知地图,能预测不同行动的后果,从而规划决策。现在的LLM也开始显现这种苗头:


比如训练时输入纽约市的信息,LLM会在内部形成对纽约的大致认知;训练奥赛罗棋的走法,它能记住棋盘状态,预测下一步合法走法。但这只是萌芽,和人类的世界模型还差得远。


三、关键短板:AI离人类智能,还差3个核心能力


尽管当时的o1表现惊艳,但科学家们一致认为:它依然不是AGI,甚至仅凭现在的LLM技术,永远也到不了AGI。因为它存在3个无法逾越的短板:


1.抽象推理和泛化能力极差


人类能轻松从几个例子中总结规律,再用这个规律解决新问题——比如看几道数学题就学会解题方法,看别人拼乐高就知道怎么搭新造型。但LLM做不到。


2.没有可靠的世界模型,一遇新情况就懵


LLM的世界认知是碎片化的,甚至是错误的。哈佛大学的研究团队做过一个实验:用纽约市出租车的海量行驶数据训练AI,让它预测下一个转弯方向,准确率几乎100%。


但当研究人员分析AI的内部思考时发现,它构建的曼哈顿地图完全是虚构的——有方向不符合物理规律的街道,还有不存在的立交桥(见后面的详细解读)。更关键的是,一旦加入训练数据中没有的绕行路线,AI就彻底无法预测,完全不会灵活调整。


这和人类的世界模型完全不同:我们哪怕没走过某条路,也能根据地图逻辑和实际情况规划路线——因为我们的认知是连贯且可预测的,而AI的认知只是数据统计的堆砌。


3.数据要耗尽了,且缺乏自主性


现在的LLM是数据吃货,训练一次要吞噬数十亿文本、代码。但研究机构Epoch AI预测,公开可用于训练的文本数据,可能在2026-2032年间耗尽。更麻烦的是,随着LLM规模扩大,性能提升越来越慢——之前“模型越大越聪明”的规律,正在失效。


更核心的问题是自主性缺失。人类会主动选择该学什么、学多少,比如想了解一个新领域,会先查基础资料,再深入细节;但LLM只会被动“吃”给它的数据,不会主动判断我需要什么信息。也就是说,现在的LLM只专注于‘预测下一个词’,这种单一目标太局限了,根本撑不起AGI。


四、突破AGI:还需要3个关键科学突破


科学家们一致认为,要实现人类水平智能,光靠放大LLM的规模没用,还需要3个核心技术突破:


1.真正的世界模型:从统计关联到因果理解


现在的AI只能识别数据中的关联(比如“下雨”和“umbrella”经常一起出现),但不懂“因果关系”(比如“因为下雨,所以需要带伞”)。未来的AGI必须能构建因果型世界模型,能模拟不同行动的后果,比如如果我选择这条路线,会不会堵车,而不是只依赖过去的数据预测。


2.内生反馈机制:AI需要自我修正的能力


人类的大脑是双向反馈的:眼睛看到的信息传给大脑,大脑的认知又会指导眼睛关注什么(比如找东西时,会主动扫描可能的位置)。但现在的LLM只有单向反馈——训练时调整参数,推理时只能被动输出,没有内生的“自我修正”能力。


比如o1的思维链,是训练时植入的附加功能,而不是它自己主动想我该一步步推导。未来的AGI需要像人类一样,能自己发现错误、调整思路,而不是依赖人类设计的验证器(现在的AI需要专门为每个任务设计验证模块,没有通用的自我纠错能力)。


3.真正的自主性:从被动接收到主动探索


现在的AI是喂什么吃什么,而人类智能的关键是主动探索——比如孩子会好奇“天空为什么是蓝的”,会主动提问、实验、学习。未来的AGI需要具备这种能动性:能自主判断我需要什么数据、该学什么技能,甚至能通过内部模拟生成虚拟数据,而不是完全依赖外部输入。


2018年就有研究团队做出过尝试:让AI自己构建虚拟环境的世界模型,再用这个模型训练自己驾驶虚拟汽车——这说明,自主探索和内部模拟,可能是AGI的关键路径之一。


五、最后:AGI真的能实现吗?科学家的答案是…


关于AGI是否可能,科学界已经达成共识:理论上完全可行。就像新墨西哥州圣塔菲研究所的梅拉妮·米切尔说的:人类和动物的存在,本身就证明了‘智能’不是生物的专属,非生物系统也能实现。


但关于AGI离我们有多近,科学家们却没达成一致:有人认为只要几年,有人觉得至少需要十年以上。而且,AGI的到来可能不会像电影里那样“惊天动地”——弗朗索瓦·肖莱推测,它会悄无声息地出现:先被发明出来,再慢慢扩大应用,最后才逐渐改变世界。


更重要的是,AGI的核心不是比人类聪明,而是像人类一样灵活。现在的AI已经能在很多领域超越人类,但它们的聪明是机械的、碎片化的;而人类的智能,胜在连贯的、有因果的、能自主调整的。


AI的致命短板:这张假地图,暴露了它离人类智能的核心差距



这张图叫《AI的不可能街道》(THE IMPOSSIBLE STREETS OF AI),看似是两张简单的路线图,实则一针见血地戳破了当前AI的关键缺陷——它看似聪明,却没有真正理解世界,这也是它离人类水平智能(AGI)还差得远的核心原因。


灰色线的“真实世界”,橙色线“AI的幻想世界”


图是两个地图叠加的,核心是对比“纽约曼哈顿的真实街道”和“AI自己构建的街道”:


  • 灰色:纽约曼哈顿的真实街道。这是现实中存在的道路布局,所有街道的方向、连接方式都符合物理规律——比如街道大多是横平竖直的网格状(曼哈顿经典道路规划),没有互相冲突的走向,也没有凭空出现的桥梁,每一条路都能走得通。人类大脑对这种真实街道的认知,是连贯且有逻辑的:我们知道从A点到B点可以走哪几条路,遇到堵车还能灵活绕路,因为我们的大脑里有一张靠谱的世界地图。


  • 橙色:AI重建的不存在街道。这是AI通过分析纽约出租车海量行驶数据后,在自己大脑里构建的地图。看似AI能100%预测出租车的下一个转弯,但这张地图其实漏洞百出:


    • 有方向不符合物理规律的街道:比如有的路拐了个根本不可能的弯,现实中汽车根本无法行驶;


    • 有不存在的立交桥:AI凭空造了一些架在其他街道上方的桥梁,现实里曼哈顿根本没有这些建筑;


    • 整体布局混乱:道路之间的连接毫无逻辑,就像一堆碎片随便拼在一起,完全不是一张能用的地图。


    这张图背后的实验:AI猜得对,但看不懂


    要理解这张图,得先说说它对应的科学实验:


    1. 研究人员给AI喂了纽约市出租车的海量行驶数据——相当于让AI“看”了无数次出租车从出发地到目的地的路线;


    2. 训练后,AI预测出租车下一个转弯的准确率几乎达到100%,看起来比老司机还懂路;


    3. 但当研究人员深入分析AI的思考过程时发现:AI根本没有理解街道布局,只是记住了数据中的统计规律——比如在某条路的某个路口,99%的出租车都会左转,所以它能精准预测,但背后没有任何地图逻辑支撑;


    4. 更关键的测试来了:研究人员给AI加入了训练数据里没有的绕行路线(比如前方修路需要绕路),结果AI瞬间懵了,完全无法预测下一个转弯——因为它的地图是死的,不会像人类一样根据真实路况灵活调整。


    AI缺了人类智能的灵魂——靠谱的世界模型


    神经科学家说,人类智能的核心是大脑能构建世界模型——也就是对周围环境的认知地图,不仅能记住是什么,还能理解为什么,能预测如果这样做会怎样。


    比如你第一次去曼哈顿,看一眼地图就知道第五大道和百老汇大道是交叉的、从中央公园到华尔街可以走哪条路,遇到突发情况还能快速调整——这就是靠谱的世界模型在起作用。


    但这张图告诉我们:AI的世界模型是假的、碎的——它只是把海量数据的统计规律拼凑起来,看似能完成任务,却没有真正理解街道是什么、道路为什么这样布局、汽车为什么要这么走。简单说:人类是看懂了再做,AI是没看懂但猜中了。


    这就是AI离人类智能的关键差距


    这张图不只是一个有趣的实验结果,更暴露了当前AI的3个核心短板(文章重点强调):


    1. 不会灵活应变:AI只能处理训练过的数据,遇到没见过的情况(比如新的绕行路线)就束手无策,而人类能靠世界模型快速适应;


    2. 没有因果理解:AI知道出租车在这个路口会左转,但不知道因为这条路是单行道,所以只能左转,它只懂关联,不懂因果;


    3. 认知是碎片化的:AI的地图是一堆毫无逻辑的碎片,而人类的认知是连贯的——我们知道街道、汽车、交通规则之间的关系,AI却不知道。


    这张图告诉我们——AI的聪明,和人类的智能不是一回事


    AI能在特定任务上表现得比人类好(比如预测转弯、解奥数题),但它的聪明是机械的、统计性的;而人类的智能是灵活的、有逻辑的,核心就是我们有一张靠谱的世界模型。


    这张不可能的街道图,就像一面镜子:照出了AI的表面聪明,也照出了它离真正的人类水平智能(AGI)的核心差距——要实现AGI,AI必须先学会构建“真实、连贯、有因果的世界模型”,而不是靠数据拼凑出看似有用的碎片。



    解读文献:


    • https://doi.org/10.1038/d41586-024-03905-1

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜