从认知任务中的异质神经响应推断潜在神经环路

从认知任务中的异质神经响应推断潜在神经环路

学术背景

在认知任务中,大脑的高级皮层区域(如前额叶皮层,prefrontal cortex, PFC)负责整合多种感觉、认知和运动信号。然而,单个神经元的响应通常表现出复杂的异质性(heterogeneity),即它们同时对多个任务变量做出响应。这种异质性使得研究者难以从神经活动中直接推断出驱动行为的神经环路机制。传统的维度降维方法(dimensionality reduction methods)依赖于神经活动与任务变量之间的相关性,但无法揭示这些异质响应背后的神经环路连接。

为了解决这一问题,Christopher Langdon和Tatiana A. Engel开发了一种新的维度降维方法——潜在环路模型(Latent Circuit Model)。该模型通过低维度的循环连接(recurrent connectivity)来模拟任务变量之间的相互作用,并生成行为输出。通过这一模型,研究者能够从高维度的神经响应数据中推断出低维度的神经环路机制,从而揭示认知任务中的计算过程。

论文来源

这篇论文由Christopher Langdon和Tatiana A. Engel共同撰写,他们分别来自Princeton Neuroscience Institute, Princeton University和Cold Spring Harbor Laboratory。论文于2025年发表在Nature Neuroscience期刊上,标题为“Latent circuit inference from heterogeneous neural responses during cognitive tasks”。

研究流程与结果

1. 潜在环路模型的开发

作者首先开发了潜在环路模型,该模型通过低维度的循环连接来模拟任务变量之间的相互作用。模型的核心思想是将高维度的神经响应数据映射到一个低维度的潜在空间中,并通过一个低维度的神经网络生成行为输出。具体来说,模型的动态方程如下: $$ \dot{x} = -x + f(W{rec}x + W{in}u) $$ 其中,(x)是潜在变量,(W{rec})是循环连接矩阵,(W{in})是输入连接矩阵,(u)是任务输入,(f)是激活函数。

2. 模型在RNN中的应用

为了验证潜在环路模型的有效性,作者将其应用于一个经过训练的循环神经网络(Recurrent Neural Network, RNN),该RNN被训练用于执行一种上下文依赖的决策任务(context-dependent decision-making task)。在该任务中,RNN需要根据上下文线索选择性地处理感觉输入。通过潜在环路模型,作者发现了一种抑制机制,即上下文表征抑制了不相关的感觉响应。这一机制与之前的手工设计的神经环路模型假设一致。

3. 模型的验证

为了验证潜在环路模型推断出的机制,作者对RNN的连接进行了模式化扰动(patterned perturbations),并观察其对行为的影响。结果发现,这些扰动对行为的影响与潜在环路模型的预测一致,进一步证实了推断出的抑制机制。此外,作者还在猴子执行相同任务时的前额叶皮层神经记录中发现了类似的抑制机制。

4. 与回归模型的对比

作者还对比了潜在环路模型与传统回归模型(regression models)的结果。回归模型通过寻找与任务变量最相关的低维度投影来分析神经响应,但其未考虑任务变量之间的相互作用。结果显示,回归模型未能揭示出潜在环路模型中所发现的抑制机制,表明忽略任务变量之间的相互作用可能导致对神经计算的误解。

结论与意义

该研究通过开发潜在环路模型,成功地从高维度的神经响应数据中推断出低维度的神经环路机制。这一模型不仅解释了异质神经响应的来源,还揭示了认知任务中的计算过程。此外,该研究还证明了在高维网络中,低维度的神经环路机制仍然能够驱动行为。这一发现为理解大脑中的认知功能提供了新的视角,并为未来的神经环路研究提供了有力的工具。

研究亮点

  1. 新颖的模型开发:潜在环路模型首次将低维度的神经环路机制与高维度的神经响应数据相结合,填补了传统维度降维方法与神经环路机制之间的空白。
  2. 抑制机制的发现:通过模型推断,作者发现了一种抑制机制,即上下文表征抑制了不相关的感觉响应,这一机制在RNN和猴子的前额叶皮层中均得到了验证。
  3. 与传统模型的对比:研究通过与回归模型的对比,强调了任务变量之间相互作用的重要性,为未来的神经计算研究提供了新的方向。

其他有价值的信息

该研究还展示了如何通过扰动实验验证推断出的神经环路机制,为未来的神经环路研究提供了可操作的方法。此外,研究结果还表明,高维网络中的低维度机制可能与经典的小规模神经环路模型相似,这为理解复杂神经计算提供了新的思路。