Coherence in language requires the brain to satisfy two competing temporal demands: gradual accumulation of meaning across extended context and rapid reconfiguration of representations at event boundaries. Despite their centrality to language and thought, how these processes are implemented in the human brain during naturalistic listening remains unclear. Here, we tested whether these two processes can be captured by annotation-free drift and shift signals and whether their neural expression dissociates across large-scale cortical systems. These signals were derived from a large language model (LLM) and formalized contextual drift and event shifts directly from the narrative input. To enable high-precision voxelwise encoding models with stable parameter estimates, we densely sampled one healthy adult across more than 7 hours of listening to thirteen crime stories while collecting ultra high-field (7T) BOLD data. We then modeled the feature-informed hemodynamic response using a regularized encoding framework validated on independent stories. Drift predictions were prevalent in default-mode network hubs, whereas shift predictions were evident bilaterally in the primary auditory cortex and language association cortex. Furthermore, activity in default-mode and parietal networks was best explained by a signal capturing how meaning accumulates and gradually fades over the course of the narrative. Together, these findings show that coherence during language comprehension is implemented through dissociable neural regimes of slow contextual integration and rapid event-driven reconfiguration, offering a mechanistic entry point for understanding disturbances of language coherence in psychiatric disorders.


翻译:语言的连贯性要求大脑满足两种相互竞争的时间需求:在扩展语境中意义的逐渐积累,以及在事件边界处表征的快速重构。尽管这些过程对语言和思维至关重要,但它们在自然聆听过程中如何在大脑中实现仍不清楚。本研究检验了这两种过程是否可以通过无标注的漂移和切换信号来捕捉,以及它们的神经表达是否在大规模皮层系统中分离。这些信号源自大型语言模型(LLM),直接从叙事输入中形式化地定义了上下文漂移和事件切换。为了实现具有稳定参数估计的高精度体素级编码模型,我们对一名健康成人进行了密集采样,在其聆听超过7小时的十三个犯罪故事时采集超高场强(7T)BOLD数据。随后,我们使用在独立故事上验证的正则化编码框架,对特征信息引导的血流动力学响应进行建模。漂移预测在默认模式网络枢纽中普遍存在,而切换预测则在双侧初级听觉皮层和语言联合皮层中显著。此外,默认模式和顶叶网络的活动,最佳地由一种捕捉意义在叙事过程中如何积累并逐渐消退的信号所解释。这些发现共同表明,语言理解过程中的连贯性是通过可分离的神经机制实现的:缓慢的上下文整合和快速的事件驱动重构,为理解精神疾病中语言连贯性障碍提供了机制性切入点。

0
下载
关闭预览

相关内容

【ICML2024】揭示大脑中视觉-语言整合的多模态网络
专知会员服务
29+阅读 · 2024年6月21日
【WWW2024】动态图信息瓶颈
专知会员服务
23+阅读 · 2024年2月13日
专知会员服务
39+阅读 · 2021年6月11日
【NeurIPS 2020】视觉注意力神经编码
专知会员服务
42+阅读 · 2020年10月4日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关VIP内容
【ICML2024】揭示大脑中视觉-语言整合的多模态网络
专知会员服务
29+阅读 · 2024年6月21日
【WWW2024】动态图信息瓶颈
专知会员服务
23+阅读 · 2024年2月13日
专知会员服务
39+阅读 · 2021年6月11日
【NeurIPS 2020】视觉注意力神经编码
专知会员服务
42+阅读 · 2020年10月4日
相关资讯
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员