Group convolution has been widely used in order to reduce the computation time of convolution, which takes most of the training time of convolutional neural networks. However, it is well known that a large number of groups significantly reduce the performance of group convolution. In this paper, we propose a new convolution methodology called ``two-level'' group convolution that is robust with respect to the increase of the number of groups and suitable for multi-GPU parallel computation. We first observe that the group convolution can be interpreted as a one-level block Jacobi approximation of the standard convolution, which is a popular notion in the field of numerical analysis. In numerical analysis, there have been numerous studies on the two-level method that introduces an intergroup structure that resolves the performance degradation issue without disturbing parallel computation. Motivated by these, we introduce a coarse-level structure which promotes intergroup communication without being a bottleneck in the group convolution. We show that all the additional work induced by the coarse-level structure can be efficiently processed in a distributed memory system. Numerical results that verify the robustness of the proposed method with respect to the number of groups are presented. Moreover, we compare the proposed method to various approaches for group convolution in order to highlight the superiority of the proposed method in terms of execution time, memory efficiency, and performance.


翻译:为了减少革命的计算时间,人们广泛使用集团集团革命来减少革命的计算时间,这种计算时间占用了革命神经网络的大部分培训时间,然而,众所周知,许多团体大大降低了集团革命的性能。在本文件中,我们提出了称为“两层”集团革命的新的革命方法,该方法在增加集团数目和适合多GPU平行计算方面是强有力的。我们首先指出,集团革命可以被解释为对标准革命的一级组合,这是数字分析领域流行的概念。在数字分析方面,对两个层次的方法进行了许多研究,其中提出了一种解决业绩退化问题的跨集团结构,而没有令人不安的平行计算。我们为此提出了一种粗略的层次结构,它能促进集团之间的交流,而不会成为集团革命的瓶颈。我们发现,在分布式的记忆系统中可以高效率地处理由粗糙层次结构引起的所有额外工作。在数字分析中,我们用数字结果来核查拟议方法的稳健性性,将拟议的改革方法与集团的优越性化方法相比较。在集团中,提出了关于集团业绩的拟议方法与集团的顺序。

0
下载
关闭预览

相关内容

Group一直是研究计算机支持的合作工作、人机交互、计算机支持的协作学习和社会技术研究的主要场所。该会议将社会科学、计算机科学、工程、设计、价值观以及其他与小组工作相关的多个不同主题的工作结合起来,并进行了广泛的概念化。官网链接:https://group.acm.org/conferences/group20/
商业数据分析,39页ppt
专知会员服务
158+阅读 · 2020年6月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
153+阅读 · 2020年5月26日
专知会员服务
59+阅读 · 2020年3月19日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年11月5日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
21+阅读 · 2021年2月13日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
4+阅读 · 2018年7月4日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
相关论文
Arxiv
21+阅读 · 2021年2月13日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
4+阅读 · 2018年7月4日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员