Recurrent Neural Networks (RNNs) are frequently used to model aspects of brain function and structure. In this work, we trained small fully-connected RNNs to perform temporal and flow control tasks with time-varying stimuli. Our results show that different RNNs can solve the same task by converging to different underlying dynamics and that the performance gracefully degrades either as network size is decreased, interval duration is increased, or connectivity is damaged. Our results are useful to quantify different aspects of the models, which are normally used as black boxes and need to be understood in advance to modeling the biological response of cerebral cortex areas.


翻译:经常性神经网络(NealNetworks)经常被用来模拟大脑功能和结构的方方面面。在这项工作中,我们训练了小型完全连接的网络性网络性能和结构,以便用时间变化的刺激性刺激执行时间和流量控制任务。我们的结果表明,不同的网络性能可以通过与不同基本动态相融合来解决同样的任务,而且随着网络规模的缩小、间隔时间的延长或连接的破坏,性能会优于优减。我们的结果有助于量化模型的不同方面,这些方面通常被用作黑盒,需要事先理解才能模拟大脑皮层地区的生物反应。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
已删除
材料科学与工程
6+阅读 · 2019年7月3日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Exact Solutions of a Deep Linear Network
Arxiv
0+阅读 · 2022年2月14日
Arxiv
3+阅读 · 2021年11月1日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
3+阅读 · 2018年10月25日
VIP会员
相关资讯
已删除
材料科学与工程
6+阅读 · 2019年7月3日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员