扫码打开虎嗅APP
本文来自微信公众号:nextquestion (ID:gh_2414d982daee),采访:Lixia,嘉宾:周昌松,题图来自:《超体》
记忆作为一种高级脑功能,一直是脑与认知科学的重要研究范畴,为了带大家深入了解记忆及其背后的机制,我们将以记忆研究领域的问题进行追问,以多人联动的方式,带领大家了解记忆背后的原理以及目前的最新进展。
之前我们从学习记忆、本能记忆以及成瘾的细胞分子机制角度出发,采访了中科院生物物理所研究员李岩。在采访过程中,李岩研究员对“脑功能的底层构架策略是什么?”发起追问。本期我们特意邀请了香港浸会大学周昌松教授分享他的研究和观点。按照惯例,周昌松教授也提出了自己最想知道答案的一个追问,我们将在文末公布该问题。
以下为具体文字内容:
Q:请您简单介绍一下目前的研究领域,以及您选择该领域的原因。
周昌松:我们团队目前研究主要集中在大脑复杂的连接结构和它的动态模式的分析和建模,也就是从物理科学、系统科学和复杂性的视角对大脑进行分析和建模,并探究这些复杂的结构和动力学与一些认知活动或者脑的一些疾病和障碍的关系。
我们之所以选择这个研究方向,一是基于我们的研究背景,像我自己的研究背景是物理和非线性复杂系统科学,从原理上来说,大脑是一个非常复杂的耦合非线性动态网络系统,所以我们关注它的复杂的连接结构,它的自发动力学的产生和涌现,以及这些复杂动力学模式可能在脑的功能中的作用。我个人觉得这是我们研究神经系统和脑的组织和运作原理的一个重要的视角和方向。
Q:您研究过程中使用的方法有哪些?可以解决什么问题?
周昌松:前面提到,大脑本质上是一个非常复杂的多时空尺度的多层次的非线性相互作用的系统。现在影像学的发展,能在不同精度和尺度上对它的结构和活动进行更好的数据记录。面对这些复杂数据,我们需要从统计物理学和复杂系统等视角进行分析,因为在很多场合中,这些复杂的脑活动被当作一种随机性或者噪声来处理。
基于系统科学、物理科学的概念,这些复杂动力学可能是系统自组织涌现出来的一些活动,所以我们会用到一些方法,比如从复杂网络的角度对它进行分析和刻画;从物理科学的耦合系统角度,使用特征模的概念和方法对它进行分析;动力学上,对这个系统不同的层面进行建模,基于非线性神经网络动力学对它进行分析和建模;用统计物理(比如平均场)的方法来分析不同尺度的动力学之间这种涌现的一些组织特征,包括单个神经元的无规则发放、集群上出现的振荡和雪崩的临界性等融合和统一的机理等等。这些都可以利用生物合理的神经动力学模型和理论分析来揭示复杂数据下所蕴含的运作原理。
在我们建模和分析的过程中,我们也考虑到这个系统作为一个生物功能系统受到一些条件限制,比如能量的限制,结构上布线距离最优化的限制,甚至代谢废物引起衰退的风险,以及它的动力学能支持一些复杂模式或者是支持计算所需要的优化关系。
这些方面跟具体功能系统的运作似乎不是直接相关,在很多研究中不予考虑,但它却是这样一个非线性神经网络系统处理的基本机制,所以我们比较关注利用一些物理的、非线性科学的、复杂性科学的方法对这些问题进行分析和建模。
我们感兴趣解决的问题包括几个方面:
一个是刚才讲到在约束下的多尺度动力学,在神经科学研究里,不同研究领域一般会对发放率和振荡等做独立分析,而我们希望了解这些动力学底层共同的相互关系和运作原理。这是建模方面的工作。
另外一方面,建模分析是想要了解这些复杂动力学(比如说个体之间差异表征)会不会跟认知能力有关系,在我们处理活动的时候,脑的基本运作状态怎样影响对外界信息的处理和响应以及行为上的表征。
再者,从理论上我们通过建模可以在高维系统里寻找一些重要的参数组合对动力学的影响,以及这些影响或者波动性在正常的人群中,或者是从正常到疾病的过渡过程中,哪些地方可能发生了一些比较敏感的重要变化。比如在脑网络研究中常常被忽略的大量弱连接可能有很重要的动力学和功能作用。这些是我们采用这些研究方法,想要回答的一些问题。
Q:大脑是一个复杂的网络系统,对于我们每时每刻接收到的大量外界信息,它是如何高效处理的?
周昌松:这个问题我觉得是一个非常核心的问题,也是脑科学研究中真正的挑战。以我目前对神经科学的有限了解,神经科学大部分处理方法是,当外界信号传入大脑时,通过测量不同脑区的脑响应活动来理解这个过程。在这样的研究里面,我们经常把大脑自主产生的一些内禀脑活动当作某种背景的随机过程来处理,我们在分析外界信号的时候,也是分析它在基准上发生的一种变化。
从复杂性非线性科学的角度来说,大脑本身就以高能耗为代价组织出很多复杂的活动,这些脑活动与脑网络结构、生理和解剖之间的关系是怎样的;更重要的是,它有怎样的功能意义,它如何影响我们对外界信息的处理,我觉得这方面的认识还刚处于初步阶段,是目前系统神经科学探索的前沿。
我们现在越来越多地通过影像学观察到静息态的功能网络结构,以及在很多情况下,静息态下的脑活动以一种时空传播模式表现出某种大小不一临界雪崩的关联活动,都表明这些脑活动对于外界信号进入大脑之后的处理是有很多影响的,但具体是如何影响的,这方面值得进一步深入的研究。所以大脑如何进行高效处理,还没有一个非常清晰的回答。
但有一些初步的迹象,比如临界性可能对于信息处理提供了一个非常好的基准态,即当外界信号来的时候,它可以做出非常敏感的响应;这种动态模式具有很高的神经表征的容量,有需要的时候可以在不同的状态之间进行非常有效的快速切换等等。
我们最近的工作表明,神经回路具有“少即是多(less is more)”的组织特征,用更少的发放和连接代价在兴奋-抑制平衡的模块化回路上实现这种响应敏感、表征丰富的临界动力学状态。这些特征应该是神经系统中复杂动力学赋予该系统的高效节能处理的基本能力,但这种波动性很强的自发活动在具体的功能过程中是怎样进行控制和利用的,是实验神经科学、理论神经科学、计算神经科学的一个前沿的方向。
Q:不同的认知能力,如情景记忆、执行功能和信息处理等,能否用神经动力学模型预测?
周昌松:这是一个很好的问题,可能可以分成两个层面来思考。一个就是我们的这些功能,比如认知能力,它的底层神经生物学基础是什么。这个是目前智能研究里的前沿课题。以前关于认知能力的研究,大部分是从行为学上考察不同认知能力之间的关系,比如看到流体智力、晶体智力、记忆等等这些不同智力之间既有相对独立的结构也有关联,但是对于支撑这些能力的底层脑网络系统,我们还不清楚。现在网络神经科学的前沿研究之一就是,企图通过不同脑区之间形成的一些网络跟功能行为之间的关系来揭示这个问题。
第二个层面的问题就是模型能不能预测这些能力。如果对第一个层面问题的研究比较清晰,同时我们的模型,特别是大尺度脑网络模型也能抓住支撑不同能力的这种多层次网路结构和动力学,那么原则上,这个模型是可以去预测这些能力的。
Q:记忆是人类认识自我的基石,您的团队近期在团队在《细胞报告》(Cell Reports)发文,解码记忆过程中脑电波动与可塑性背后的秘密,可否跟我们分享一下这篇文章的研究见解?
周昌松:这篇研究是基于浙江大学马欢老师团队前不久在《神经元》(Neuron)上发表的文章,他们发现一种神经元从兴奋到抑制的突触可塑性对于动物的学习和记忆来说非常重要,他们将一个与突触可塑性相关的蛋白酶敲除后,发现这种可塑性消失了,小鼠的短期记忆没有受影响,但是通过睡眠将短期记忆转化为较长期记忆的过程受损了,行为上也受损了。而且他们在实验上也看到一些跟记忆和学习相关的波,比如γ波和θ波,都受损了。我们就是在这样的一些脑活动和行为的实验基础上,以及微观可塑性变化的启发下,想从建模的角度来理解从微观的可塑性变化到回路的动力学到行为上的跨尺度研究。
我们的模型是一个两层网络,第一层是短期记忆的存储,第二层是通过兴奋—抑制突触可塑性将短期记忆转化为更长期记忆。第一层和第二层之间或者第二层内部兴奋到抑制的可塑性可以在模型上操作——没有可塑性或者有可塑性。通过这个模型研究,我们重复了实验上看到的现象,在一个恰当的模型参数范围里,有可塑性的网络可以很好地进行记忆的存取和恢复,如果可塑性被消除,记忆就受损了。该模型揭示,记忆之所以受损是因为没有兴奋到抑制的可塑性的第二层网络会过度兴奋,过度兴奋致使在前一层不同记忆的驱动下,第二层网络不能产生不一样的激发模式来记录第一层的记忆。
如果是过度兴奋,原则上可以通过使兴奋和抑制恢复平衡,把记忆拯救回来。我们选用的方法是在第二层的抑制性神经元上加一个刺激。在真实的网络里面,我们看到γ波和θ波受到了损伤,是不是说刺激信号处于γ频段或θ频段对过兴奋会有比较明显的作用?我们发现,如果用θ波为间隔的方波去刺激抑制性神经元,抑制性神经元被激发,产生抑制,兴奋性神经元的活动就会减弱。但是,如果是θ波的话,频率为8赫兹,间隔太长,这个抑制不够强,网络还是处于过度兴奋状态。
如果在8赫兹的间隔中加上1~2个间隔为γ波的方波,也就是40赫兹的方波,这时候抑制会加强,可以达到一个比较好的兴奋和抑制平衡和记忆拯救效果。一个有趣的反常现象是,如果在中间再加一些方波最终就成了一系列方波,变成了完全的γ频段,本来随着更多的抑制性神经元被激发,抑制应该更强,但实际上反而出现了抑制后的反弹,兴奋反倒加强了,记忆拯救效果又变差了。
我们发现θ和γ双频嵌套的刺激模式能最有效地把网络恢复到比较平衡的状态,可以对前一层的记忆进行表征和学习。我们的这项工作,一方面可能揭示了为什么在真实的生物系统里,我们经常在学习记忆的研究中看到θ和γ嵌套作用的现象,它可能对于维持学习记忆很重要;另一方面一旦记忆功能受损了,我们可能可以用这种θ加γ的双频耦合刺激更好地恢复回路的运作能力。
Q:这一研究发现对于与学习记忆能力受损密切相关的脑疾病,双频耦合刺激可能是更为有效的选择方案,目前临床上是否已经推广应用?
周昌松:我们前面讲到的这个刺激在我们跟马老师研究的系统里可能是一个合适的解决方法,至于这种刺激是否可以推广到一般的与学习记忆相关的系统或脑疾病中,我们不敢妄下定论。在疾病研究当中,对大脑进行这一双频耦合的调制应该是可以尝试的。
因为在大部分的调制研究和应用里,我们其实不太清楚应该采取什么样的刺激,比如深度脑刺激的研究中,你要采取怎样的频率或者频率组合,在临床上经常是以试错为主,而且个体上可能存在差异性,效果并不确定,可能有的人有作用,有的人没有作用。
在这个模型的研究中,如果这个模型能抓住系统的关键的结构和动力学特征,那么它可以通过分析对外界刺激的响应,提出可能的刺激信号的设计,这对于临床来说可能有参考意义。这个工作发表后,我们希望从事临床方面工程开发的同事可能会有兴趣去尝试,在不同场景下这一频率组合是不是可以提高治疗的作用,我们非常期待在这方面真的有帮助。
Q:大脑无时无刻不在接收着海量的信号,记忆也不断发生着动态变化。大脑是如何完成动态可塑又保证一定的稳定性?如何基于纷繁复杂的脑活动选择行为输出?那些本能相关的信息如何在意识下影响行为,又如何在特定时刻浮出水面到意识上?中科院生物物理所李岩研究员提到:“脑功能的底层构架策略是什么?”对此,您怎么看?
周昌松:我们前面有讲到,大脑是一个非常复杂的网络体系,在我们发育和成长过程中,它已经把我们生活中的很多知识和经验整合到结构和动力学里了,所以就算外界没有输入信息,静息态的脑活动也体现了个体的某种特征,可以预测我们的认知能力。
因为大脑是可塑的,所以在与外界信号相互作用过程中,外界信息会对它内禀的活动产生影响,内禀活动又会对外界信号的响应有影响,在复杂系统的语言上说是一个结构—动力学—外界刺激共演化(co-evolution)的系统。比如内在的一些记忆跟我们学习到的新记忆,在一个相互连接的网络系统里是通过动力学和可塑性相互作用的,新的记忆跟旧的记忆之间会进行新的整合,在记忆的固化过程中进行重组。从动力学的意义上来说,这些我们还没有完全很好地理解,但是从动力学系统相互作用的角度来说,这样的一个图像是比较自然的,与很多关于记忆的研究是吻合的。
我们最近发表在《物理评论快报》(Physical Review Letters)的工作分析了大脑的结构能产生怎样的动力学模式。我们用磁共振和数据的模型都可以看到,大脑结构连接网络有多层次的模块化,这些模块使得我们可以在不同层次上进行特异的处理,又可以在更大尺度上进行整合。
它对应的动力学,也就是我们前面提到的全脑处于某种临界状态,它可以在不同的尺度上很快地进行切换,跟这相关的概念我们叫做功能性分离和整合的处理。结构的层次模块化和动力学的临界性使得大脑处于一种复杂且最优的状态,在功能性分离和整合的模式间频繁地切换并维持整体的平衡。
Q:不同的认知过程对大脑活动提出了不同的要求,静息大脑如何配置功能性组织,以支持不同的认知表型?
周昌松:人的认知确实有不同的表型,比如流体智力、晶体智力、记忆、反应速度或创造力等等,这些能力在行为上表现出来是相对独立的,大脑怎样构建一个结构和功能来支持这样的能力,目前还是认知神经科学研究的一个前沿问题,对人工智能的发展也极为重要。
但是我们可以从不同认知能力对这个系统的两个比较竞争性的要求来理解,它其实就是功能的特异处理和功能的整合。当我们要处理某一方面的信息时,一些特异化的脑区或者脑系统要进行分离处理,不要受到其他系统太多的干扰,但是处理完了不同的信息后它们又需要整合来形成更高级的认知。
不同能力对这两个方面都是有需求的,但是对这两方面的要求可能不太一样。大脑在一个基准静息态就要形成这样一种组织方式,即它应该在有需要的时候可以快速过渡到认知任务所要求的组织形态,比如说某一个子系统,在一个处理过程中它可以尽量分化出来进行处理,而在有需要的时候很快又整合起来。
从这种角度我们就可以更好地理解大脑,无论是脑的结构,还是它的动力学,就应该有一些模块化的处理方式,它内部有很紧密的相互作用和快速的交流和通讯来进行特异化处理,它的层次可以很局部,也可以很广阔。就是带着这样的想法,我们对脑网络的研究一直关注的是这种多层次的模块化结构。前面提到的脑结构连接网络多层次的模块化的组织架构原则上可以提供这一功能的基本要求。
我们最近在PNAS上发表的文章揭示,脑的功能网络也的确有多层次的模块化结构,使得系统在不同的层次上进行功能的分离和整合。我们还可以看到,正常的年轻大脑是处于模块化的功能分离和整合的动态平衡状态。在较短的时间尺度上,大脑处在这样的一个整合和分离的状态的动态转变上,对全脑进行非常快速的扫描,然后当有任务的时候,大脑可以过渡到任务处理状态。
个体在这样的平衡状态上存在一些差异,比较倾向于分离状态的人,他/她可能可以比较容易和比较快地切换到分离状态,他/她在对分离要求比较高的任务中表现得比较强。相对整合的大脑,他/她可能更容易切换到整合状态,在对整合要求比较高的行为上表现得更强。平衡的状态则有利于整体的能力。
这是我们目前理解到的大脑的一种组织方式,需要这个系统来构建这种平衡状态以适应环境的多种需求。在动力学上,这种平衡状态与我们前面讲到的自组织的动力学处于某种临界可变的连接状态是关联的,这种状态对外界刺激很敏感,可以发生状态的灵活转变。这可能可以为前面“脑功能的底层构架策略是什么?”这一问题提供一个思考的方向。
Q:您实验室未来研究的重点是什么?
周昌松:从我个人的视角来说,前面谈到大脑系统的很多优越的能力可能是建立在其复杂的结构和动力学基础上的。我们对这种复杂性如何产生,更重要的是对这种复杂性跟功能和信息处理的关系的认识才刚刚开始。我们团队未来还是以神经动力学的复杂性为研究核心。
一方面研究它跟底层网络的关系,如结构、生理上的差异(比如个体之间的正常差异,或者衰老、发育、脑疾病引起的差异)是如何影响这些复杂动力学的涌现的,然后进一步研究复杂动力学如何影响功能和信息的处理。在研究方法方面,我们也在想办法构建更好的模型,比如比较微观的平均场模型可能可以涵盖从神经元发放到回路集群波动和临界动力学的多尺度特征,之后把它推广到大尺度网络,在协同运作尺度上分析结构和生理上的变化如何影响正常的脑功能,以及跟一些障碍的关系。
另一方面我们非常感兴趣的是,这样的复杂性如何带来智能方面的研究,能不能启发我们去开发以复杂性为基础的类脑智能。下一步,我们可能跟其他团队交流和合作,一起开发这一方向。
嘉宾简介:
周昌松:物理学博士,香港浸会大学物理系教授、系主任,浸会大学非线性研究中心主任,计算及理论研究所副所长
研究方向:对生物神经网络复杂结构、动力学及其低成本高效益如何启发类脑智能具有浓厚的兴趣。致力于复杂系统动力学基础研究及其应用,特别是网络的复杂联结结构与体系的动态行为的关系和相互作用。近几年与国际国内系统和认知神经科学家合作,把这些理论进展应用到大脑的复杂联结结构和活动以及认知功能及障碍的分析和建模等方面研究中。
本文来自微信公众号:nextquestion (ID:gh_2414d982daee),采访:Lixia,嘉宾:周昌松