Recently, collaborative learning proposed by Song and Chai has achieved remarkable improvements in image classification tasks by simultaneously training multiple classifier heads. However, huge memory footprints required by such multi-head structures may hinder the training of large-capacity baseline models. The natural question is how to achieve collaborative learning within a single network without duplicating any modules. In this paper, we propose four ways of collaborative learning among different parts of a single network with negligible engineering efforts. To improve the robustness of the network, we leverage the consistency of the output layer and intermediate layers for training under the collaborative learning framework. Besides, the similarity of intermediate representation and convolution kernel is also introduced to reduce the reduce redundant in a neural network. Compared to the method of Song and Chai, our framework further considers the collaboration inside a single model and takes smaller overhead. Extensive experiments on Cifar-10, Cifar-100, ImageNet32 and STL-10 corroborate the effectiveness of these four ways separately while combining them leads to further improvements. In particular, test errors on the STL-10 dataset are decreased by $9.28\%$ and $5.45\%$ for ResNet-18 and VGG-16 respectively. Moreover, our method is proven to be robust to label noise with experiments on Cifar-10 dataset. For example, our method has $3.53\%$ higher performance under $50\%$ noise ratio setting.


翻译:最近,Song和Chai提出的合作学习建议通过同时培训多个分类负责人,在图像分类任务方面取得了显著的改善;然而,这种多头结构所需的大量记忆足迹可能会妨碍大型基线模型的培训;自然的问题是如何在一个单一网络内实现合作学习,而不重复任何模块;在本文件中,我们提出了单一网络不同部分之间合作学习的四种方式,而工程努力微不足道;为了提高网络的稳健性,我们利用产出层和中间层的一致性,在合作学习框架下进行培训;此外,为了减少神经网络中的冗余,还引入了中间代表制和组合内核的相似性,以减少神经网络中的冗余。与宋和Chai的方法相比,我们的框架进一步考虑在一个单一模式内进行协作,并采用较小的间接费用。在Cifar-10、Cifar-100、图像网32和STL-10上进行的广泛实验证实了这四种方法的有效性,同时将它们结合起来,可以导致进一步的改进。特别是,STL-10数据集的测试误差减少了9.28美元和5.45美元,用于ResNet-18和VGG-16的超额费用。此外,我们以50-10号标准数据标签的测试方法是可靠的。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
13+阅读 · 2021年5月3日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
7+阅读 · 2020年8月7日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
5+阅读 · 2018年9月11日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
相关论文
Arxiv
13+阅读 · 2021年6月14日
Arxiv
13+阅读 · 2021年5月3日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
7+阅读 · 2020年8月7日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
5+阅读 · 2018年9月11日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
Top
微信扫码咨询专知VIP会员