Coherence in language requires the brain to satisfy two competing temporal demands: gradual accumulation of meaning across extended context and rapid reconfiguration of representations at event boundaries. Despite their centrality to language and thought, how these processes are implemented in the human brain during naturalistic listening remains unclear. Here, we tested whether these two processes can be captured by annotation-free drift and shift signals and whether their neural expression dissociates across large-scale cortical systems. These signals were derived from a large language model (LLM) and formalized contextual drift and event shifts directly from the narrative input. To enable high-precision voxelwise encoding models with stable parameter estimates, we densely sampled one healthy adult across more than 7 hours of listening to thirteen crime stories while collecting ultra high-field (7T) BOLD data. We then modeled the feature-informed hemodynamic response using a regularized encoding framework validated on independent stories. Drift predictions were prevalent in default-mode network hubs, whereas shift predictions were evident bilaterally in the primary auditory cortex and language association cortex. Furthermore, activity in default-mode and parietal networks was best explained by a signal capturing how meaning accumulates and gradually fades over the course of the narrative. Together, these findings show that coherence during language comprehension is implemented through dissociable neural regimes of slow contextual integration and rapid event-driven reconfiguration, offering a mechanistic entry point for understanding disturbances of language coherence in psychiatric disorders.


翻译:语言连贯性要求大脑满足两个相互竞争的时间需求:在扩展语境中意义的逐渐积累,以及在事件边界处表征的快速重构。尽管这些过程对语言和思维至关重要,但它们在自然聆听过程中如何在大脑中实现仍不清楚。本研究检验了这两个过程是否可以通过无标注的漂移和切换信号来捕捉,以及它们的神经表达是否在大规模皮层系统中分离。这些信号源自一个大语言模型(LLM),直接从叙事输入中形式化了上下文漂移和事件切换。为了实现具有稳定参数估计的高精度体素编码模型,我们对一名健康成人进行了密集采样,在其聆听超过7小时的十三个犯罪故事的同时,采集超高场(7T)BOLD数据。随后,我们使用在独立故事上验证的正则化编码框架,对特征信息化的血流动力学响应进行建模。漂移预测在默认模式网络枢纽中普遍存在,而切换预测在双侧初级听觉皮层和语言联合皮层中明显。此外,默认模式和顶叶网络的活动,最佳地由一个捕捉意义如何在叙事过程中积累并逐渐消退的信号所解释。总之,这些发现表明,语言理解过程中的连贯性是通过慢速上下文整合和快速事件驱动重构的可分离神经机制实现的,为理解精神疾病中语言连贯性障碍提供了一个机制切入点。

0
下载
关闭预览

相关内容

【ICML2024】揭示大脑中视觉-语言整合的多模态网络
专知会员服务
29+阅读 · 2024年6月21日
【WWW2024】动态图信息瓶颈
专知会员服务
23+阅读 · 2024年2月13日
专知会员服务
39+阅读 · 2021年6月11日
【NeurIPS 2020】视觉注意力神经编码
专知会员服务
42+阅读 · 2020年10月4日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关VIP内容
【ICML2024】揭示大脑中视觉-语言整合的多模态网络
专知会员服务
29+阅读 · 2024年6月21日
【WWW2024】动态图信息瓶颈
专知会员服务
23+阅读 · 2024年2月13日
专知会员服务
39+阅读 · 2021年6月11日
【NeurIPS 2020】视觉注意力神经编码
专知会员服务
42+阅读 · 2020年10月4日
相关资讯
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员