One form of comparing the expressiveness of rectifier networks is by the number of linear regions, or pieces, of the piecewise linear functions modeled by such networks. However, enumerating these regions is prohibitive in practice and the known analytical bounds on their numbers are identical for networks having the same dimensions. In this work, we approximate the number of linear regions of rectifier networks through empirical bounds based on features of the trained network and probabilistic inference. Our first contribution is an algorithm for probabilistic lower bounds of mixed-integer linear sets, which is several orders of magnitude faster than exact counting and obtain values reaching similar orders of magnitude. Our second contribution is a tighter activation-based bound for the maximum number of linear regions, which is particularly stronger in networks with narrow layers. Combined, these bounds yield a reasonable proxy for the number of linear regions and the accuracy of the networks.


翻译:比较整形网络的清晰度的一种形式是,以这种网络模型的线性区域或线性函数的碎片数量来比较整形网络的清晰度。然而,列举这些区域在实践中是令人望而却步的,对于具有相同维度的网络来说,其数字的已知分析界限是相同的。在这项工作中,我们根据经过训练的网络的特点和概率推论,通过经验界限来估计整形网络的直线性区域的数量。我们的第一个贡献是混合整形线性组的概率较低界限的算法,它比精确的计算速度快几个数量级,并获得达到类似数量级的值。我们的第二个贡献是,对最大线性区域(在窄层的网络中特别强)进行更严格的激活约束。这些界限对线性区域的数目和网络的准确性提供了合理的替代。

0
下载
关闭预览

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Arxiv
6+阅读 · 2018年10月3日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Top
微信扫码咨询专知VIP会员