The use of artificial neural networks as models of chaotic dynamics has been rapidly expanding, but the theoretical understanding of how neural networks learn chaos remains lacking. Here, we employ a geometric perspective to show that neural networks can efficaciously model chaotic dynamics by themselves becoming structurally chaotic. First, we confirm the efficacy of neural networks in emulating chaos by showing that parsimonious neural networks trained only on few data points suffice to reconstruct strange attractors, extrapolate outside training data boundaries, and accurately predict local divergence rates. Second, we show that the trained network's map comprises a series of geometric stretching, rotation, and compression operations. These geometric operations indicate topological mixing and chaos, explaining why neural networks are naturally suitable to emulate chaotic dynamics.


翻译:人造神经网络作为混乱动态模型的使用一直在迅速扩大,但是对神经网络如何学会混乱的理论理解仍然缺乏。在这里,我们使用几何视角来显示神经网络能够有效地模拟混乱动态,而神经网络本身就成为结构混乱。 首先,我们证实神经网络在模拟混乱方面的效力,我们通过显示仅仅在少数数据点上培训的分散神经网络就足以重建陌生的吸引者、外推培训数据边界和准确预测当地差异率。 其次,我们显示,经过培训的网络地图包含一系列几何范围、旋转和压缩操作。这些几何操作表明,在地形上混合和混乱,解释了神经网络为什么自然地适合模仿混乱动态。

0
下载
关闭预览

相关内容

神经网络(Neural Networks)是世界上三个最古老的神经建模学会的档案期刊:国际神经网络学会(INNS)、欧洲神经网络学会(ENNS)和日本神经网络学会(JNNS)。神经网络提供了一个论坛,以发展和培育一个国际社会的学者和实践者感兴趣的所有方面的神经网络和相关方法的计算智能。神经网络欢迎高质量论文的提交,有助于全面的神经网络研究,从行为和大脑建模,学习算法,通过数学和计算分析,系统的工程和技术应用,大量使用神经网络的概念和技术。这一独特而广泛的范围促进了生物和技术研究之间的思想交流,并有助于促进对生物启发的计算智能感兴趣的跨学科社区的发展。因此,神经网络编委会代表的专家领域包括心理学,神经生物学,计算机科学,工程,数学,物理。该杂志发表文章、信件和评论以及给编辑的信件、社论、时事、软件调查和专利信息。文章发表在五个部分之一:认知科学,神经科学,学习系统,数学和计算分析、工程和应用。 官网地址:http://dblp.uni-trier.de/db/journals/nn/
【图与几何深度学习】Graph and geometric deep learning,49页ppt
迁移学习简明教程,11页ppt
专知会员服务
108+阅读 · 2020年8月4日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
74+阅读 · 2020年8月2日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
180+阅读 · 2019年10月11日
ICLR 2020会议的16篇最佳深度学习论文
AINLP
5+阅读 · 2020年5月12日
图神经网络库PyTorch geometric
图与推荐
17+阅读 · 2020年3月22日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Spectral Geometric Matrix Completion
Arxiv
1+阅读 · 2021年6月7日
Arxiv
0+阅读 · 2021年6月4日
Arxiv
8+阅读 · 2021年1月28日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Arxiv
5+阅读 · 2018年5月31日
VIP会员
相关VIP内容
【图与几何深度学习】Graph and geometric deep learning,49页ppt
迁移学习简明教程,11页ppt
专知会员服务
108+阅读 · 2020年8月4日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
74+阅读 · 2020年8月2日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
180+阅读 · 2019年10月11日
相关资讯
ICLR 2020会议的16篇最佳深度学习论文
AINLP
5+阅读 · 2020年5月12日
图神经网络库PyTorch geometric
图与推荐
17+阅读 · 2020年3月22日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员