Decoding brain cognitive states from neuroimaging signals is an important topic in neuroscience. In recent years, deep neural networks (DNNs) have been recruited for multiple brain state decoding and achieved good performance. However, the open question of how to interpret the DNN black box remains unanswered. Capitalizing on advances in machine learning, we integrated attention modules into brain decoders to facilitate an in-depth interpretation of DNN channels. A 4D convolution operation was also included to extract temporo-spatial interaction within the fMRI signal. The experiments showed that the proposed model obtains a very high accuracy (97.4%) and outperforms previous researches on the 7 different task benchmarks from the Human Connectome Project (HCP) dataset. The visualization analysis further illustrated the hierarchical emergence of task-specific masks with depth. Finally, the model was retrained to regress individual traits within the HCP and to classify viewing images from the BOLD5000 dataset, respectively. Transfer learning also achieves good performance. A further visualization analysis shows that, after transfer learning, low-level attention masks remained similar to the source domain, whereas high-level attention masks changed adaptively. In conclusion, the proposed 4D model with attention module performed well and facilitated interpretation of DNNs, which is helpful for subsequent research.


翻译:从神经成像信号中解析大脑的认知状态是神经科学的一个重要主题。近年来,深神经网络(DNN)被招聘为多个大脑国家解码并取得良好业绩。然而,如何解释DNN黑盒的开放问题仍未解答。利用机器学习的进展,我们将注意力模块纳入大脑解码器,以便利对DNN频道进行深入解释。一个4D演动操作也被包括在FMRI信号中提取节奏-空间互动。实验显示,拟议的模型获得了非常高的精确度(97.4%),并超越了人类连接器项目数据集7个不同任务基准的以往研究。视觉化分析进一步说明,具体任务面具的等级存在深度。最后,该模型被重新训练到HCP内部的个别特征,并分别对BOLD5000数据集的图像进行分类。传输学习也取得了良好的业绩。进一步的视觉化分析显示,在转移学习后,低层次关注面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面色色色色色色色色色色色,为高,对四下,为高。高,对四面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面面,对面部下,对面部下,对面面面部下,对面部下,对面部下,对面部下,对面部下,对面面部下,对面部下,对面面面面面面部下,对面部下,对面部下,对下,对分析分析显示,对面部分析分析分析分析分析分析分析显示,对面面面部分析分析分析显示分析显示分析分析显示,对分析显示分析显示分析显示分析显示,对面面面面面面面面面面面面面面面面面面部分析分析分析分析分析分析分析分析分析分析分析分析分析。

0
下载
关闭预览

相关内容

【NUS-Xavier教授】注意力神经网络,79页ppt
专知会员服务
64+阅读 · 2021年11月25日
【NeurIPS 2020】视觉注意力神经编码
专知会员服务
42+阅读 · 2020年10月4日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
111+阅读 · 2020年5月15日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
计算机类 | APNOMS 2019等国际会议信息6条
Call4Papers
4+阅读 · 2019年4月15日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机类 | ISCC 2019等国际会议信息9条
Call4Papers
5+阅读 · 2018年12月25日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
6+阅读 · 2019年4月8日
CoCoNet: A Collaborative Convolutional Network
Arxiv
6+阅读 · 2019年1月28日
Recurrent Fusion Network for Image Captioning
Arxiv
3+阅读 · 2018年7月31日
VIP会员
相关资讯
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
计算机类 | APNOMS 2019等国际会议信息6条
Call4Papers
4+阅读 · 2019年4月15日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机类 | ISCC 2019等国际会议信息9条
Call4Papers
5+阅读 · 2018年12月25日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员