【CVPR2021】基于噪声鲁棒深度学习的快速元更新策略

2021 年 5 月 4 日 专知

Faster Meta Update Strategy for Noise-Robust Deep Learning [Oral]

Youjiang Xu, Linchao Zhu, Lu Jiang, Yi Yang

基于meta-learning的方法在有噪声标注的图像分类中取得了显著的效果。这类方法往往需要大量的计算资源,而计算瓶颈在于meta-gradient的计算上。本文提出了一种高效的meta-learning更新方式:Faster Meta Update Strategy (FaMUS),加快了meta-learning的训练速度 (减少2/3的训练时间),并提升了模型的性能。首先,我们发现meta-gradient的计算可以转换成一个逐层计算并累计的形式; 并且,meta-learning的更新只需少量层数在meta-gradient就可以完成。基于此,我们设计了一个layer-wise gradient sampler 加在网络的每一层上。根据sampler的输出,模型可以在训练过程中自适应地判断是否计算并收集该层网络的梯度。越少层的meta-gradient需要计算,网络更新时所需的计算资源越少,从而提升模型的计算效率。

并且,我们发现FaMUS使得meta-learning更加稳定,从而提升了模型的性能。最后,我们在有噪声的分类问题以及长尾分类问题都验证了我们方法的有效性。

https://www.zhuanzhi.ai/paper/fda93b750216436e45e6f660ed76776e

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“FMUS” 就可以获取【CVPR2021】基于噪声鲁棒深度学习的快速元更新策略》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
2

相关内容

专知会员服务
36+阅读 · 2021年4月25日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
专知会员服务
29+阅读 · 2021年4月5日
专知会员服务
32+阅读 · 2021年3月7日
专知会员服务
17+阅读 · 2021年2月8日
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
专知会员服务
94+阅读 · 2020年12月8日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
【CVPR2021】细粒度多标签分类
专知
44+阅读 · 2021年3月8日
基于深度学习的多标签生成研究进展
专知
4+阅读 · 2020年4月25日
【干货】ACL 2018 鲁棒、无偏的NLP训练方法
专知
4+阅读 · 2018年7月25日
Arxiv
0+阅读 · 2021年6月18日
Fast AutoAugment
Arxiv
5+阅读 · 2019年5月1日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
Arxiv
8+阅读 · 2018年1月25日
VIP会员
相关VIP内容
专知会员服务
36+阅读 · 2021年4月25日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
专知会员服务
29+阅读 · 2021年4月5日
专知会员服务
32+阅读 · 2021年3月7日
专知会员服务
17+阅读 · 2021年2月8日
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
专知会员服务
94+阅读 · 2020年12月8日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
相关论文
Arxiv
0+阅读 · 2021年6月18日
Fast AutoAugment
Arxiv
5+阅读 · 2019年5月1日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
Arxiv
8+阅读 · 2018年1月25日
Top
微信扫码咨询专知VIP会员