Understanding how emotional expression in language relates to brain function is a challenge in computational neuroscience and affective computing. Traditional neuroimaging is costly and lab-bound, but abundant digital text offers new avenues for emotion-brain mapping. Prior work has largely examined neuroimaging-based emotion localization or computational text analysis separately, with little integration. We propose a computational framework that maps textual emotional content to anatomically defined brain regions without requiring neuroimaging. Using OpenAI's text-embedding-ada-002, we generate high-dimensional semantic representations, apply dimensionality reduction and clustering to identify emotional groups, and map them to 18 brain regions linked to emotional processing. Three experiments were conducted: i) analyzing conversational data from healthy vs. depressed subjects (DIAC-WOZ dataset) to compare mapping patterns, ii) applying the method to the GoEmotions dataset and iii) comparing human-written text with large language model (LLM) responses to assess differences in inferred brain activation. Emotional intensity was scored via lexical analysis. Results showed neuroanatomically plausible mappings with high spatial specificity. Depressed subjects exhibited greater limbic engagement tied to negative affect. Discrete emotions were successfully differentiated. LLM-generated text matched humans in basic emotion distribution but lacked nuanced activation in empathy and self-referential regions (medial prefrontal and posterior cingulate cortex). This cost-effective, scalable approach enables large-scale analysis of naturalistic language, distinguishes between clinical populations, and offers a brain-based benchmark for evaluating AI emotional expression.


翻译:理解语言中的情绪表达如何与大脑功能相关联,是计算神经科学与情感计算领域的一项挑战。传统的神经影像技术成本高昂且受限于实验室环境,而海量的数字文本为情绪-大脑映射提供了新的研究途径。先前的研究大多分别考察基于神经影像的情绪定位或计算文本分析,鲜有将二者整合的工作。我们提出了一个计算框架,无需神经影像数据即可将文本情绪内容映射到解剖学定义的大脑区域。利用OpenAI的text-embedding-ada-002模型,我们生成高维语义表示,通过降维与聚类识别情绪组,并将其映射至18个与情绪处理相关的大脑区域。研究进行了三项实验:i)分析健康受试者与抑郁症患者的对话数据(DIAC-WOZ数据集),比较其映射模式;ii)将该方法应用于GoEmotions数据集;iii)对比人类书写文本与大语言模型(LLM)生成文本,以评估推断的大脑激活差异。情绪强度通过词汇分析进行评分。结果显示,所得映射在神经解剖学上具有合理性且空间特异性高。抑郁症患者表现出与负性情绪相关的更强边缘系统参与度。离散情绪得以成功区分。LLM生成文本在基本情绪分布上与人类文本相符,但在共情与自我参照相关区域(内侧前额叶皮层及后扣带回皮层)缺乏精细的激活模式。这一经济高效、可扩展的方法支持对自然语言进行大规模分析,能够区分不同临床群体,并为评估人工智能的情绪表达提供了基于大脑的基准。

0
下载
关闭预览

相关内容

【AAAI2021】基于图神经网络的文本语义匹配算法
专知会员服务
50+阅读 · 2021年1月30日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
43+阅读 · 2020年9月8日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员