扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
人类大脑通过抽象概念理解世界,而AI缺乏这一能力。CATS Net提出双模块框架,将概念形成与任务求解分离,实现类人概念认知,并与大脑神经机制高度一致,为AI提供新路径。 ## 1. 概念形成与理解的计算机制 - 人类认知的核心是将高维感知压缩为低维概念(如“苹果”),并能在无直接输入时重新激活组合。 - 现有AI模型(如CNN)无法自主形成可迁移概念,而多模态模型依赖预设语言符号,两者割裂。 - CATS Net通过概念抽象(CA)模块生成控制信号,动态调制任务求解(TS)模块,实现“概念驱动”的感知判断。 ## 2. 可学习的概念空间与功能特异性 - 训练后的20维概念空间自发形成语义结构(如动物、家具聚类),与人类语义模型(Binder65、SPOSE49)显著相关。 - 功能熵分析显示,概念空间低熵且强选择性,表明概念是任务中涌现的功能性结构,而非预设标签。 - 固定概念空间(如Word2Vec)性能显著下降,证明可学习低维空间的高效性。 ## 3. 概念通信与知识迁移 - 通过“翻译模块”,teacher模型可将概念向量传递给缺失某类别的student模型,后者识别未见类别的准确率远超随机水平。 - 实验表明知识可通过低维概念传递,类似人类语言用符号编码复杂经验,而非依赖参数复制。 ## 4. 模型与大脑神经机制的对应性 - 概念层与腹侧视觉皮层(VOTC)表征一致,CA模块则对应语义控制网络,分工符合认知神经理论。 - 独立训练的模型会收敛到相似概念结构,且高一致性模型与人脑对应更强,暗示概念结构可能是计算约束的“最优解”。 ## 5. 从AI模型到认知理论的范式转变 - 研究价值在于将问题从“如何预测”转向“如何形成概念”,提出概念=压缩表示+可调度计算+可通信接口的统一框架。 - 为AI发展指明方向:更结构化的表示(而非更大模型)是实现类人智能的关键。
2026-04-22 14:36

自然·计算科学:当机器拥有“概念”,理解才真正发生

本文来自微信公众号: 集智俱乐部 ,作者:周骁俊


人类大脑的一项非凡能力是能够从感知—运动经验中形成更抽象的概念表征,并在脱离直接感官输入的情况下灵活应用。然而,这种能力背后的计算机制仍未被清晰理解。本文提出了一种双模块神经网络框架——CATS Net,用以弥合这一空白。该模型由概念抽象模块和任务求解模块构成。前者提取低维概念表示,后者在概念的层级门控下完成视觉判断任务。系统基于概念表征形成可迁移的语义结构,并可通过“概念通信”实现跨网络知识传递。模型与大脑的拟合分析表明,其概念空间与人类语义模型及腹侧视觉皮层的表征结构一致。同时,其门控机制对应语义控制网络。该工作提供了一个统一的计算框架,用于理解人类概念认知,并推动类人概念智能系统的发展。


关键词:概念形成(Concept formation)、概念理解(Concept understanding)、层级门控(Hierarchical gating)、语义结构(Semantic structure)、知识迁移(Knowledge transfer)、脑-模型对齐(Model–brain alignment)



论文题目:A neural network for modeling human concept formation,understanding and communication


论文链接:https://www.nature.com/articles/s43588-026-00956-4


发表时间:2026年3月24日


论文来源:Nature Computational Science


为什么“概念”是智能的核心问题


在人类认知中,最关键的一步并不是“看到”,而是“理解”。语言学家Saussure早已指出,人类能够用符号指代不在场的对象,这种“脱离当下”的能力,使我们可以规划未来、想象过去、进行抽象推理。


从计算角度看,这意味着大脑完成了两件事:一是将高维感知经验压缩为低维概念空间;二是在需要时重新激活这些概念,并将其组合用于任务。前者是概念形成(formation),后者是概念理解(understanding)。


但现有AI体系在这两点上是割裂的。一类模型(如CNN、ViT)擅长表征学习,但知识被“埋”在参数中,难以抽取与迁移;另一类模型(如多模态大模型)依赖已有语言符号,却无法从感知经验中自主形成概念。因此,核心问题不是“如何建模视觉”,而是:能否构建一个系统,同时完成概念的形成、理解与传递?


图1.A.概念的核心特征是将高维感知-运动信息压缩成低维表示,并能够没有直接输入的情况下重新激活。B.概念形成与理解的计算框架:通过低维概念向量压缩经验,并在任务中重新调用以驱动行为。C.CATS Net的整体架构:概念抽象(CA)模块生成控制信号,对任务求解(TS)模块进行层级调控,实现“概念驱动”的感知判断。


CATS Net:把“概念”从参数中解耦出来


本文提出的CATS Net,本质是一个结构极简但思想关键的设计:用两个模块,将“概念”显式建模出来。概念抽象(CA)模块接收一个低维向量(concept vector),输出控制信号;任务求解(TS)模块处理感知输入,但其计算过程会被概念动态调制。


关键机制是“门控”(gating):概念不是标签,而是直接改变网络内部计算路径的控制变量。这意味着,同一张图像,在不同概念输入下,会激活完全不同的功能。例如,当输入“apple”概念时,网络会判断图像是否属于苹果类别;而输入“vehicle”,同一输入将被重新解释。


从数据中“长出”概念,而不是预定义


模型的训练过程同样体现了这一思想,训练分为两个交替阶段:一阶段学习网络参数;另一阶段学习概念向量。这种分离带来一个关键结果:概念空间本身是可学习的,而不是预设的。


图2.A.涌现的20维概念空间从训练前的“任意向量空间”,变成了“具有语义结构和功能选择性的概念坐标系”。B.训练概念空间(蓝色)和任务求解参数空间(紫色)中功能熵的概率密度分布。


实验表明,固定的概念空间(如Word2Vec或one-hot)都会显著降低性能,而可学习的低维空间不仅更高效,还能形成结构化语义。更重要的是,这些概念具有“功能特异性”:每个概念向量对应一类任务功能,而不是简单标签。通过熵分析(functional entropy),作者发现训练后的概念空间明显比随机空间更有结构,表现为低熵、强选择性。这说明:概念不是人为定义的类别,而是从任务中自然涌现的低维结构。


概念空间为什么“像人类”


一个关键问题是:模型学到的概念,是否真的具有认知意义?作者通过表征相似性分析(RSA)发现,模型的概念空间与两类人类语义模型显著相关:


  • 基于神经科学的语义维度(Binder65),


  • 基于行为相似性的人类判断(SPOSE49)。


这种一致性说明,即使模型只接受视觉分类训练,它仍然自发形成了类似人类的语义组织结构。进一步分析发现,这些概念还能聚类出“动物、家具、交通工具”等语义群落,甚至捕捉颜色、形状、共现关系等多维特征。换句话说:语义结构不是语言专属,而是可以从感知任务中涌现。


真正关键的一步:概念可以“沟通”


最有意思的实验,是“概念通信”。作者构建了teacher–student体系:teacher学习全部类别,student刻意缺失一个类别(如apple)。两个网络独立训练后,各自形成不同的概念空间。然后,通过一个“翻译模块”,将teacher的概念映射到student空间。结果是:student可以仅凭传递过来的概念向量,识别从未见过的类别,准确率远高于随机水平。


图3.概念通信流程。Phase 1:teacher与student独立学习概念空间(student缺失一类)。Phase 2:通过翻译模块对齐两者概念结构。Phase 3:传递teacher的概念向量,student在未见类别上完成判断任务。


这意味着:知识不再依赖参数复制,而可以通过低维概念进行传递。这与人类语言的本质高度一致——我们用极低维的符号,传递复杂经验。


与真实大脑的对应关系


模型不仅在行为上有效,在神经层面也具有对应性。作者使用fMRI数据发现:概念层(concept layer)与腹侧视觉皮层(VOTC)高度相关,说明其编码类似人类的对象表征;而CA模块则与语义控制网络显著相关,表明其与之对应,负责选择与调制语义信息。这种分工与认知神经科学理论高度一致:感知系统负责表征,控制系统负责调度。


图4.模型与人脑一致性(ROI-level RSA)。左:concept layer与VOTC显著相关。右:CA1层与semantic-control network的相关性强于multiple-demand network,体现功能特异性。


进一步,多个独立训练的模型会收敛到相似的概念结构,而这些“高一致性模型”与人脑的对应关系更强。这暗示一个重要结论:概念结构可能是由计算约束决定的“最优解”。


结语与展望:从AI模型到认知理论的转变


这项工作的真正价值,不在于提出一个更强的模型,而在于改变问题的提法:


  • 从“如何预测”转向“如何形成概念”


  • 从“参数学习”转向“结构学习”


  • 从“单体模型”转向“可沟通的智能体”。


它给出一个统一视角:概念=高维经验的压缩表示+可调度的计算规则+可通信的语义接口。这不仅解释了人类认知的核心机制,也为AI提供了一条新的路径:不是更大的模型,而是更结构化的表示。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: