We investigate the complexity of deep neural networks (DNN) that represent piecewise linear (PWL) functions. In particular, we study the number of linear regions, i.e. pieces, that a PWL function represented by a DNN can attain, both theoretically and empirically. We present (i) tighter upper and lower bounds for the maximum number of linear regions on rectifier networks, which are exact for inputs of dimension one; (ii) a first upper bound for multi-layer maxout networks; and (iii) a first method to perform exact enumeration or counting of the number of regions by modeling the DNN with a mixed-integer linear formulation. These bounds come from leveraging the dimension of the space defining each linear region. The results also indicate that a deep rectifier network can only have more linear regions than every shallow counterpart with same number of neurons if that number exceeds the dimension of the input.


翻译:我们调查深神经网络的复杂性,这些网络代表了片断线性(PWL)功能。特别是,我们研究由DNN所代表的PWL函数在理论上和经验上都能达到的线性区域数目,即碎片。我们提出(一) 纠正网络上最大线性区域数目的上下界限,其精确度为一维投入的精确度;(二) 多层峰值网络的首个上界;以及(三) 通过以混合整数线性配方模拟DNN,对区域数目进行精确的查点或计数的第一个方法。这些界限来自利用确定每一线性区域的空间的尺寸。结果还表明,深整数网络的线性区域只能比每个具有相同神经元的浅色对应方的线性区域更多,如果这个数字超过输入的维度。

0
下载
关闭预览

相关内容

神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Panoptic Feature Pyramid Networks
Arxiv
3+阅读 · 2019年1月8日
Arxiv
6+阅读 · 2018年10月3日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员