Neural networks are known to give better performance with increased depth due to their ability to learn more abstract features. Although the deepening of networks has been well established, there is still room for efficient feature extraction within a layer which would reduce the need for mere parameter increment. The conventional widening of networks by having more filters in each layer introduces a quadratic increment of parameters. Having multiple parallel convolutional/dense operations in each layer solves this problem, but without any context-dependent allocation of resources among these operations: the parallel computations tend to learn similar features making the widening process less effective. Therefore, we propose the use of multi-path neural networks with data-dependent resource allocation among parallel computations within layers, which also lets an input to be routed end-to-end through these parallel paths. To do this, we first introduce a cross-prediction based algorithm between parallel tensors of subsequent layers. Second, we further reduce the routing overhead by introducing feature-dependent cross-connections between parallel tensors of successive layers. Our multi-path networks show superior performance to existing widening and adaptive feature extraction, and even ensembles, and deeper networks at similar complexity in the image recognition task.


翻译:已知神经网络由于能够学习更抽象的特征而具有更好的性能,因为深度的深度提高。虽然网络的深度已经建立,但是在某一层中仍然有高效地提取特征的空间,这可以减少仅仅参数递增的需要。通过在每一层中增加过滤器而使网络的常规扩展,引入了参数的二次递增递增。在每个层中进行多个平行的递增/重力操作可以解决这个问题,但是在这些操作中没有根据具体情况分配资源:平行的计算往往会学习类似的特征,使不断扩大的过程变得不那么有效。因此,我们提议在层中平行计算中使用数据依赖资源配置的多病态神经网络,这也让输入的端端端到端通过这些平行路径。为了做到这一点,我们首先在随后层的平行电压之间引入基于交叉定位的算法。第二,我们进一步通过在连续层的平行电压层中引入基于特性的交叉连接来减少管理的管理。我们的多路径网络显示在扩大和适应地貌的提取中表现优异性,甚至以图像识别中的更深层网络。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
125+阅读 · 2021年6月4日
注意力机制综述
专知会员服务
203+阅读 · 2021年1月26日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
专知会员服务
60+阅读 · 2020年3月19日
专知会员服务
109+阅读 · 2020年3月12日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【ECCV2018】24篇论文代码实现
专知
17+阅读 · 2018年9月10日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Arxiv
37+阅读 · 2021年2月10日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关VIP内容
【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
125+阅读 · 2021年6月4日
注意力机制综述
专知会员服务
203+阅读 · 2021年1月26日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
专知会员服务
60+阅读 · 2020年3月19日
专知会员服务
109+阅读 · 2020年3月12日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【ECCV2018】24篇论文代码实现
专知
17+阅读 · 2018年9月10日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员