扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-02-27 19:50

按参数算,我们1300克的人脑相当于多大的AI模型?

本文来自微信公众号: 卫夕指北 ,作者:卫夕,题图来自:视觉中国



按参数算,人脑相当于多大的模型?


答案是:要看怎么算。


如果只看神经元的个数,人脑大概是860亿个神经元,也就是86B的模型,并不大。


参考一下,DeepSeek V3是671B,Kimi K2.5大概1000B,即1T;但事实上人脑每个神经元又有7000个突触,从技术的角度类比,颗粒度更小的突触才更像AI模型的权重参数。


如果这么算,860亿*7000,那么人类大脑相当于大约600T模型。


而这么大的模型,今天的硬件肯定暂时还跑不动。


这么类比略糙。


但也说明——咱们这颗脑子的架构还是很复杂的,属于先进制程。


有点牛逼。



那么,大脑的制程到底有多先进呢?


我随即问了Claude opus 4.6和Gemini 3.1 Pro一个问题(实在受不了GPT无比谄媚的风格)


“如果人脑是一块芯片,那么它的制程是几纳米的?”


他们的答案出奇一致:


如果看神经元细胞体直径的直径,大概 10000~100000 纳米 (10~100微米)


这么看大脑相当于几十年前的电子管计算机。


这TM也太落后了。


但逻辑显然不是这样的:


神经元并非一个简单的开关,它更像处理器的一个核,真正的开关和信号传递发生在突触。


那么突触是什么水平的制程呢?


神经元之间传递信号的突触间隙,它的宽度大概是20到40纳米。


这相当于台积电2012年左右的水平,也就是28nm工艺。


说句糙的:如果单看这个指标,咱们的脑子也就是个iPhone 5的水准。


然而,账不能这么算,碳基有碳基牛逼的地方:


我人脑传递电信号最细颗粒度的单元是——细胞膜上的离子通道蛋白(Ion Channels)


这些蛋白质孔道的直径只有0.3~0.5纳米,这个尺寸仅允许单个离子(如钠、钾离子)排队通过。


在这个层面上,人类牛逼的大脑达到了原子级别,也就是0.3nm工艺。


这是目前包括台积电在内的所有硅基芯片还没达到的物理极限。


人脑牛逼!


其实还有更牛逼的:


硅基芯片还是在一个平面硅片上通过光刻层层堆叠,层数有限,也就是说它其实本质是2D的。


而人脑是一个充满了胶状物的真正三维结构,一个神经元突触能同时错综复杂地和一万个邻居搭上线。


这个复杂度,要高几个量级。


2D VS 3D,人脑,升维了。


更重要的是,晶体管就俩个状态,开或者关(0和1),是个老实人。


而我人脑突触传递的信号是连续的、有强有弱、还带化学反应的。


一个突触干的活,信息量比一个晶体管要高一个层级。


所以,从架构层面,人脑:有点东西。


来,可酌情站起来,晃一晃咱这颗几斤重的脑袋(我特意去查了一下,准确地说是1300克左右,包括大脑、小脑和脑干),跟着我说一句——“碳基黑科技,牛逼!”



再说一说功耗,人脑的功率大约20瓦,恒定运行。


注意,这20瓦不是只全部用来想问题的,是同时在管呼吸、心跳、消化、情绪,也包括你现在对我发这篇文章的阅读理解。


认知神经科学的测量显示,大脑在高强度思考时功耗只比静息态多出大约1 瓦。


这意味着,一个问题想 5 秒钟,额外耗电约0.0014瓦时(瓦是功率单位,瓦时是耗能单位,还记得吧?)


那AI回答一个问题要耗多少能量呢?


恰好去年6月10日,山姆*奥特曼在它的个人博客上那篇著名的《温和的奇点》的文章里披露过。(https://blog.samaltman.com/the-gentle-singularity)


“人们常常好奇 ChatGPT 查询会消耗多少能量;平均而言,一次查询大约消耗 0.34 瓦时,这大约相当于烤箱在一秒多一点的时间里消耗的电量,或者一个高效节能灯泡在几分钟内消耗的电量。”


0.0014瓦时 VS 0.34瓦时。


我人脑依然领先2个数量级。


很显然,无与伦比的功耗,也是碳基智能的一个显性优势。



DeepSeek V3总共671B参数,每次推理只激活37B。


也就是说,它95%的参数在每次思考时是躺平的,只有5%在干活。(Kimi K2.5这种参数更大的模型激活参数比例更小:3.2%)


嘿嘿,巧的是,咱们进化了辣么久的人脑也是这么干的:


根据Lennie, P. (2003)基于大脑能量预算的计算:


平均皮层神经元的放电频率大约只有0.16Hz,也就是每6秒才开火一次。(论文地址:https://www2.bcs.rochester.edu/sites/plennie/pdfs/Lennie03a.pdf)


Shoham(2006)等人的研究也发现:


超过90%的大脑神经元在任何给定时间都处于沉寂状态,沉寂到实验设备根本探测不到它们的存在。


(论文地址:https://pubmed.ncbi.nlm.nih.gov/16550391/,有意思的是:达尔文的曾孙Horace Barlow也是研究这方面的专家,扯远了,打住!)


所以,我辅导我家闺女作业时常用的口头禅——能不能上点心?你只用了你脑子的1%!


这句话既可以形容AI,也可以形容人类。


他们都有一个洋气的名字——MoE


大模型有幻觉:一本正经、胡说八道。


这被视为缺陷。


但人脑呢?


每天晚上准时幻觉八小时——梦。


清醒时的幻觉,如果质量高,叫想象力,再高一点,叫创造力,高到特别牛逼,就TM叫艺术。


Anthropic、OpenAI和无数国内的实验室都在花巨资试图搞定幻觉这件事。


但幻觉并非模型的缺陷,而是特性。


2024年初,康奈尔大学的Ziwei Xu等人在一篇研究(arXiv: 2401.11817)中从数学上证明——幻觉对于LLM是不可避免的。


幻觉和创造力是一枚硬币的两面。


人脑差不多也是这样的机制。


人和AI一样,既要又要是不现实的。



DeepSeek V3的上下文窗口是 128K,大约十万字。


最新的Claude Opus 4.6 到了1M,接近百万字,差不多是一整本《红楼梦》塞进去还有余。


人脑的上下文长度是多少?


答案是:很难评。


短期记忆,我根本记不住两个以上的手机号码。


心理学家米勒1956年在那篇引用量破天际的论文《The Magical Number Seven, Plus or Minus Two》中量化过了,工作记忆的容量是 7±2 个组块。


你甚至记不住一个稍微复杂的验证码。


按这个算,人脑的上下文窗口大概也就几十个token,连GPT-2都不如。


但长期记忆呢?


你可以记住15年前初恋的样子。


其实,大脑的存储本身是很大的:


2016年,Salk研究所的研究给出过一个参考数字:每个突触可以存储大约4.7bits的信息。


按照大脑皮层约125万亿个突触来算,仅皮层的存储容量就达到了大约74 TB,整个大脑的存储容量还要高一个数量级。


所以,大脑的上下文窗口到底是长是短?


这个问题本身就问错了,因为人脑压根不是用上下文窗口这个东东来运行的。


大脑最牛逼的是压缩与抽象。


你不需要记住老板三个月来发的所有微信,你只需要记住一个判断:这人不靠谱。


这个操作在信息论里叫做——极端的有损压缩。


这个压缩不是一次性完成的:


每天晚上,你的海马体都在趁你睡觉的时候把白天的经历重播给新皮层听,反复蒸馏。


这个压缩比,任何RAG系统都做不到。



有意思的是,DeepSeek在模拟类似的效果:


2025年底DeepSeek发的OCR论文就在探索用视觉token来压缩文本信息:把文字拍成照片喂给模型。


它的机制是:最近的内容保留高清细节,越久远的内容存储得越模糊。


这和人脑的记忆,惊人的相似。


今年年1月,DeepSeek又放了一个更牛逼的东西:Engram,梁文锋亲自挂名。


Engram论文的核心搞法是:把想和记分开——75%的算力给推理,25% 给记忆查找。


这TM不就是人脑的运作方式么?


你知道你妈的生日,不需要从头回忆,这是陈述性记忆,直接读取。


而当你需要解一道新的数学题,那才动用推理——推理是昂贵的,人脑也不愿意轻易整它。


丹尼尔·卡尼曼管这叫系统一和系统二:快思考和慢思考


所以你看,AI发展了70年,兜兜转转,一定程度上,还是继续往人脑的架构上靠。


人脑这个东西,不容易搞明白,但不明觉厉。(我有点理解曾经的首富陈天桥为什么要花辣么多钱资助脑科学研究了。)


从这个意义上,我更期待即将发布的DeepSeek V4了,希望是憋了一个大招。



再说说训练数据。


GPT-4 据传用了大约13万亿token来训练,DeepSeek V3用了14.8万亿,现在最新的模型只会用得更多。


人类呢?


Michael Frank在2023年发表于Trends in Cognitive Sciences的论文中做了一个系统的估算:


一个孩子从出生到成年(约20岁),总共接触到的语言输入大约是2×10⁸个词(2亿)(我又用Gemini 3,1 Pro和Claude opus 4.6确认了一遍,答案略有差异,但数量级没跑)


2亿 VS 13万亿。


差了五个数量级。


人脑的样本效率,狠狠地碾压所有AI模型。


事实上,如何提升样本效率,也是目前各大顶尖AI实验室最前沿的研究课题。


毕竟大家隐约感觉到,单纯堆数据的Scaling Law可能正在接近它的天花板。


而人脑用极少的数据就能实现极高的泛化,这个秘密一旦被破解,可能就是下一次AI跃迁的钥匙。


今年我在承德过年的时候,我一岁3个月的小侄女,还不太会说话。


我用iPhone上自带的那个动态表情逗她玩,我惊讶于她能非常准确地区分每一个极其抽象的动物。



说实话,我都对辣个区分度不大的小猫和小狐狸图标有点恍惚。(不信你去看看)


至于我人类是怎么做到的?


核心在于进化的5亿年中,我们的脑子里是预装了一堆先验知识滴,比如婴儿天生就会注意人脸,这是出厂设置。


AI要从零开始学,人脑天生带着外挂。



人脑有一个大模型目前有的东西:身体。(继续看就知道我不是在聊目前火热的具身智能。)


这句话听上去像废话,但其实很致命。


近年来认知科学有一个越来越火的流派叫Embodied Cognition。


他们核心观点是:思维并非单纯发生在脑子里的,身体本身就参与了思考。


举个栗子,你理解“沉重”这个词,是因为你真的搬过重东西,你的肌肉记得那种感觉。


你说这个东西很沉的时候,此时如果给你做核磁共振,是能看到你的运动皮层有在轻微激活滴。


这就是为什么我们说AI,还是在做语言层面的模式匹配,而非真正的共情。


当然你可以说,谁TM在乎它是不是真的共情呢,它的回答够好不就行了么?


这话也对。


但这引出了一个哲学味很重但又避不开的问题:智能,到底需不需要一个身体?


目前的答案是:不知道。



我平时看的东西很杂。


聊到这我想起了刘慈欣6年前(彼时ChatGPT还没诞生)在喜马拉雅上线了一个付费节目,叫“刘慈欣的思想实验室”。


其中有一期在回答文学教授戴锦华的提问中说了这样一段话:


“按照传统的不管是科幻领域的思维,还是我们正常的思维说,(人还是人)这个底线在大脑。


就是说他的周围的其他的这个生物器官都换成机器了,只要他的大脑还在,我们就认为他还是人。


但最近的一些研究,发现事情完全没有这么简单,人的思维不仅仅是由大脑决定的。


就像莎士比亚有一句诗,他说:“爱情啊你来自何方?是大脑还是心房?”


而对外部世界的感知,以及我们对自身的感知,相当一部分并非只由大脑来决定的,而是由我们整个的生物学结构来决定的。


而生物学结构90%都变了,就剩一个大脑,那这个大脑的思维方式还是原来的大脑?它还是人类的思维吗?这个现在很难说。”


大刘的这段话显然更具现实思维而非科幻思维。


这和《三体》第三部程心把云天明的大脑送给三体世界并期望他们重新恢复的思路并不一致。


无论如何,人脑和人脑相辅相成的生物学结构,是我们作为碳基生命独特的存在。


是滴,时隔很多年的某个午后,不经意在人群中闻到初恋的同款香水,我们会忽然一阵鼻酸。


而AI这货,没有鼻子。


Vibe到这里,请允许我彪一句英文舒一下情:


We are unmistakably unique—irreplaceable, unrepeatable, and entirely our own!


(我特意让Claude opus 4.6给我写的,我写不出这么骚的词)


没错,如果只拼显性智力,大模型毫无疑问迟早会追上并超越人脑。


可如果拼的是:To live as a human being should,硅基目前看起来还需要时间。


这里边唯一的不确定性在于:


AI是否有可能走出了一条完全不同的、我们今天根本想象不到的智能路径。


毕竟,飞机也不是靠扇翅膀飞起来的。


我相信,这个概率绝非0。


事实上,DeepMind的哈萨比斯在多个播客里说,要实现AGI,目前其实差一到两个研究范式的突破。



前面说了辣么多人脑牛逼的地方,是时候说点扎心的了。


人脑的所有优势,有一个致命的前提——它TM是静态的。


你今天的大脑有860亿个神经元,600T的突触参数,功耗20瓦——5万年前智人的大脑,基本也是这个配置。


进化给了我们一颗很牛逼的脑子,然后就撒手不管了。


而AI呢?


GPT-3是2020年发布的,1750亿参数,今天Kimi、智谱、Minimax这些最牛逼的开源模型,已经奔着万亿走了。


(其实它们可以做的更大,只是为了权衡成本做到现在的水平。)


这是指数提升,更不用说芯片领域基本遵循的摩尔定律。(我特意不提量子计算,免得有读者说我过于放飞)


前面我们算过,人脑在功耗上领先AI两个数量级,在训练数据效率上领先五个数量级,在制程上碾压到原子级别。


听上去遥遥领先,对吧?


但要知道,指数增长面前,几个数量级其实不算什么。


来,简单算一笔账:


如果AI的能效每两年提升10倍(这还是保守估计,实际上很多指标的提升速度远快于此),那两个数量级的领先,四年就追平了;


五个数量级,十年。


十年,也就是你家娃从小学到大学的时间。


如果你稍微懂一点数学,你就晓得,指数增长意味着——前面99%的路程,只占了总进度的很小一部分。


没错,我牛逼人脑,确认是一颗了不起的处理器。


但,它是一颗不会迭代的处理器。


十一


再说一件最近被大众低估的一件事:


去年5月,Google DeepMind发布了一个叫AlphaEvolve的系统——用AI来发现和优化算法。


它的工作方式是:不断生成代码、测试代码、淘汰烂的、保留好的,自己跟自己玩迭代进化。


去年它干的一件事是优化了Gemini自身的训练过程,让训练速度快了1%。


好像也没什么,然而事情并没有结束。


一周前,2月18日,DeepMind放出了一篇关于AlphaEvolve的论文:


标题叫——《Discovering Multiagent Learning Algorithms with Large Language Models》(用大语言模型发现多智能体学习算法)。(论文地址:https://arxiv.org/abs/2602.16928)。


这篇论文讲的就是——让AI去设计AI的学习方法。


多智能体强化学习(MARL)是AI领域最硬核的子方向之一,研究的是多个AI在博弈中怎么学习最优策略。


这个领域的核心算法,比如CFR(反事实遗憾最小化)和PSRO(策略空间响应预言机),都是顶级研究者花了十几年搞出来的。


而现在,AlphaEvolve接管了这个过程。


它发现了两个全新的算法:VAD-CFR和SHOR-PSRO。


这两个名字你不需要记住,你只需要知道一件事——它打败了人类研究人员花了十几年搞出来的最优算法。


论文里一句描述值得琢磨:VAD-CFR采用了“novel, non-intuitive mechanisms”——新颖的、反直觉的机制。


也就是说,这个算法的核心逻辑,大概率是人类极难想到的。


来,咱们把这个逻辑链理一理:


AI设计出了比人类更好的AI学习算法,更好的学习算法让AI学得更快,学得更快的AI又能设计出更好的算法。


没错,它递归了,加速了。(至少表现了递归的特征)


业界把这个称之为递归式自我改进(Recursive Self-Improvement)


过去业界只是讨论递归在理论上的可能性,现在,它在真实地悄然上演。


你品,你细品。


十二


写到这里,我确实有一种略奇怪的感觉:


开始一直在说人脑牛逼——600T参数、0.3nm制程、20瓦功耗、样本效率碾压一切。


后面又讲了另一件事——AI在指数增长、在设计让自己更牛逼的算法,在递归自我改进。


不幸的是,这两件事同时为真。


AI赶上人脑的交叉点什么时候到来?


没有人知道。


也许很快,也许永远没有这种可能性。


没错,这篇文章是我vibe writing出来的:


从上午10点开始,5个小时,和Claude以及Gemini聊着聊着就忘记吃午饭了。(一边说人脑多么牛逼,一边还是离不开AI,想想也挺讽刺的)


中间歇了一会刷了半个小时Twitter,又是满屏的AI牛逼冒出来,根本看不过来:


杰克*多西还宣布把公司1万人一下子裁掉40%,注意:是40%。


我已经累了,这篇就虎头蛇尾吧,说两点:


第一,认真地煽个情——趁我们还拥有作为碳基生命唯一的感受力:去闻一闻三月的风。


(Claude opus 4.6还给我写了大段煽情的话,我都删掉了,大家都不傻,搞一堆信息量接近为0的话,是浪费读者的时间。)


第二,闻完三月的风,继续回来和AI相爱相杀,so,该跟还得跟,该学还得学。


逃不掉的宿命。


我始终有一个朴素的想法:略微激进一点没啥的,毕竟,我们也损失不了什么。


就酱!

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: