题目: On the Number of Linear Regions of Convolutional Neural Networks

摘要:

深度学习的一个基本问题是理解深度神经网络(NNs)在实践中的卓越性能。对神经网络优越性的一种解释是,它可以实现大量复杂的函数,即它们有强大的表现力。ReLU型神经网络的表达能力可以用它能分割其输入空间的最大线性区域数来量化。自2013年以来,关于全连接ReLU神经网络线性区域数的研究已经取得了各种结果。然而,据我们所知,由于缺乏合适的数学工具,对于卷积神经网络(CNNs)的线性区域的数量没有明确的结果。本文给出了研究网络神经网络线性区域所需要的几个数学结果,并利用这些结果得到了单层神经网络的最大和平均线性区域数。进一步,我们得到了多层ReLU网络的线性区域数的上界和下界。还得到了一些渐近结果。结果表明,更深层次的网络比浅层次的网络具有更强的表达能力,而在每个参数上,网络比全连接网络具有更强的表达能力。据我们所知,这篇论文是第一次研究CNN的线性区域数。最后给出了各种可能的发展方向。

成为VIP会员查看完整内容
16

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
150+阅读 · 2020年6月28日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
32+阅读 · 2020年4月15日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
169+阅读 · 2020年3月10日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
已删除
将门创投
5+阅读 · 2019年9月10日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
“取长补短”的RefineDet物体检测算法
深度学习大讲堂
5+阅读 · 2019年5月30日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
如何用张量分解加速深层神经网络?(附代码)
基于混合张量分解提升扩张卷积网络
论智
11+阅读 · 2018年2月11日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Arxiv
3+阅读 · 2019年3月15日
Arxiv
6+阅读 · 2018年10月3日
Arxiv
9+阅读 · 2018年5月24日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
4+阅读 · 2017年7月25日
VIP会员
相关VIP内容
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
150+阅读 · 2020年6月28日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
32+阅读 · 2020年4月15日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
169+阅读 · 2020年3月10日
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
已删除
将门创投
5+阅读 · 2019年9月10日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
“取长补短”的RefineDet物体检测算法
深度学习大讲堂
5+阅读 · 2019年5月30日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
如何用张量分解加速深层神经网络?(附代码)
基于混合张量分解提升扩张卷积网络
论智
11+阅读 · 2018年2月11日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
微信扫码咨询专知VIP会员