Learning with neural networks relies on the complexity of the representable functions, but more importantly, the particular assignment of typical parameters to functions of different complexity. Taking the number of activation regions as a complexity measure, recent works have shown that the practical complexity of deep ReLU networks is often far from the theoretical maximum. In this work, we show that this phenomenon also occurs in networks with maxout (multi-argument) activation functions and when considering the decision boundaries in classification tasks. We also show that the parameter space has a multitude of full-dimensional regions with widely different complexity, and obtain nontrivial lower bounds on the expected complexity. Finally, we investigate different parameter initialization procedures and show that they can increase the speed of convergence in training.


翻译:神经网络的学习取决于可代表功能的复杂性,但更重要的是,典型参数对不同复杂功能的特殊分配。以激活区域的数量作为复杂的衡量标准,最近的工作表明,深ReLU网络的实际复杂性往往远非理论极限。在这项工作中,我们表明,这种现象也发生在具有最大(多参数)激活功能的网络中,以及在考虑分类任务中的决定界限时。我们还表明,参数空间有许多全维区域,其复杂程度大不相同,并且对预期的复杂度获得了非边际较低的界限。最后,我们调查不同的参数初始化程序,并表明它们能够提高培训的趋同速度。

0
下载
关闭预览

相关内容

神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
7+阅读 · 2021年5月13日
Arxiv
10+阅读 · 2020年2月15日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
7+阅读 · 2021年5月13日
Arxiv
10+阅读 · 2020年2月15日
Arxiv
3+阅读 · 2017年12月1日
Top
微信扫码咨询专知VIP会员