Pooling operations, which can be calculated at low cost and serve as a linear or nonlinear transfer function for data reduction, are found in almost every modern neural network. Countless modern approaches have already tackled replacing the common maximum value selection and mean value operations, not to mention providing a function that allows different functions to be selected through changing parameters. Additional neural networks are used to estimate the parameters of these pooling functions.Consequently, pooling layers may require supplementary parameters to increase the complexity of the whole model. In this work, we show that one perceptron can already be used effectively as a pooling operation without increasing the complexity of the model. This kind of pooling allows for the integration of multi-layer neural networks directly into a model as a pooling operation by restructuring the data and, as a result, learnin complex pooling operations. We compare our approach to tensor convolution with strides as a pooling operation and show that our approach is both effective and reduces complexity. The restructuring of the data in combination with multiple perceptrons allows for our approach to be used for upscaling, which can then be utilized for transposed convolutions in semantic segmentation.


翻译:在几乎所有现代神经网络中,几乎每一个现代神经网络都发现有无数现代方法已经解决了取代共同的最大价值选择和平均价值操作的问题,更不用说提供了一种功能,允许通过变化参数选择不同的功能。还使用了更多的神经网络来估计这些集合功能的参数。因此,集合层可能需要补充参数来增加整个模型的复杂程度。在这项工作中,我们表明,一个端点已经可以有效地用作集合操作,而不会增加模型的复杂性。这种集中可以将多层神经网络直接作为集合操作纳入模型,通过重组数据,从而学习复杂的集合操作。我们将我们的方法与电磁进进化作为集合操作加以比较,并表明我们的方法既有效,又降低了复杂性。数据与多端点相结合的重组使得我们能够用于升级,然后可以用于在断层分区中转换变换变变变变变变。

1
下载
关闭预览

相关内容

【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
155+阅读 · 2020年5月26日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
10+阅读 · 2020年6月12日
Arxiv
13+阅读 · 2019年11月14日
Graph Analysis and Graph Pooling in the Spatial Domain
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
31+阅读 · 2018年11月13日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
10+阅读 · 2020年6月12日
Arxiv
13+阅读 · 2019年11月14日
Graph Analysis and Graph Pooling in the Spatial Domain
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
31+阅读 · 2018年11月13日
Top
微信扫码咨询专知VIP会员