Understanding the great empirical success of artificial neural networks (NNs) from a theoretical point of view is currently one of the hottest research topics in computer science. In order to study the expressive power of NNs with rectified linear units, we propose to view them as a model of computation and investigate the complexity of combinatorial optimization problems in that model. Using a result from arithmetic circuit complexity, we show as a first immediate result that the value of a minimum spanning tree in a graph with $n$ nodes can be computed by an NN of size $\mathcal{O}(n^3)$. Our primary result, however, is that, given a directed graph with $n$ nodes and $m$ arcs, there exists an NN of size $\mathcal{O}(m^2n^2)$ that computes a maximum flow from any possible real-valued arc capacities as input. This settles the former open questions whether such NNs with polynomial size exist. To prove our results, we develop the pseudo-code language Max-Affine Arithmetic Programs (MAAPs) and show equivalence between MAAPs and NNs concerning natural complexity measures. We then design MAAPs that exactly solve the corresponding optimization problems and translate to NNs of the claimed size.


翻译:从理论角度理解人工神经网络的巨大成功经验,从理论角度理解人工神经网络(NNS)是目前计算机科学中最热门的研究课题之一。然而,为了以纠正线性单元来研究NNS的表达力,我们提议把它们看成一个计算模型,并调查该模型中组合优化问题的复杂性。使用算术电路复杂性的结果,我们作为第一个即时结果显示,用美元节点绘制的图中最小的横线树值,可以用美元(n)(n)3美元来计算。然而,我们的主要结果是,如果用美元节点和美元弧弧值的直线图形来研究NNNS的表达力,则存在一个以$\mathcal{O}(m\2n)为单位的NNNNN($=2)的计算模型,从任何可能的真正价值弧能力作为输入的最大流量。这解决了以前尚未解决的问题,即是否用美元大小的NNNUS($3)来计算。为了证明我们的结果,我们开发了假编码语言的Max-Affirme Arimetical Protical Protical Program Programpal Programpeal Progration pal Progration pal practs pal deal deal deal deal maquimas pal deal maps pal deal mas pals pals pal mas promas pal mas pals palsal mas pals pals pals pals pals pals paldals paldal maps.

0
下载
关闭预览

相关内容

神经网络(Neural Networks)是世界上三个最古老的神经建模学会的档案期刊:国际神经网络学会(INNS)、欧洲神经网络学会(ENNS)和日本神经网络学会(JNNS)。神经网络提供了一个论坛,以发展和培育一个国际社会的学者和实践者感兴趣的所有方面的神经网络和相关方法的计算智能。神经网络欢迎高质量论文的提交,有助于全面的神经网络研究,从行为和大脑建模,学习算法,通过数学和计算分析,系统的工程和技术应用,大量使用神经网络的概念和技术。这一独特而广泛的范围促进了生物和技术研究之间的思想交流,并有助于促进对生物启发的计算智能感兴趣的跨学科社区的发展。因此,神经网络编委会代表的专家领域包括心理学,神经生物学,计算机科学,工程,数学,物理。该杂志发表文章、信件和评论以及给编辑的信件、社论、时事、软件调查和专利信息。文章发表在五个部分之一:认知科学,神经科学,学习系统,数学和计算分析、工程和应用。 官网地址:http://dblp.uni-trier.de/db/journals/nn/
专知会员服务
50+阅读 · 2020年12月10日
专知会员服务
82+阅读 · 2020年12月5日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
30+阅读 · 2020年4月15日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
学术报告|港科大助理教授宋阳秋博士
科技创新与创业
7+阅读 · 2019年7月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Arxiv
4+阅读 · 2021年7月1日
VIP会员
相关资讯
学术报告|港科大助理教授宋阳秋博士
科技创新与创业
7+阅读 · 2019年7月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Top
微信扫码咨询专知VIP会员