NeurIPS 2021 | 寻MixTraining: 一种全新的物体检测训练范式

2021 年 12 月 9 日 专知
MixTraining: 一种全新的物体检测训练范式


论文链接:
https://www.zhuanzhi.ai/paper/b52468c0ddce3d49f7740cfd1528a7a0
代码链接(即将开源):
https://github.com/MendelXu/MixTraining

物体检测是计算机视觉中的基础课题。经典的物体检测器通常采用单一的数据增强策略,并简单地使用人工标注的物体包围盒来进行训练,这种训练策略也被称为 SiTraining 范式。在本篇论文中,微软亚洲研究院的研究员们提出了一种全新的物体检测训练范式:MixTraining。该范式通过引入 Mixed Training Targets(混合训练目标)与 Mixed Data Augmentation(混合数据增广)可以有效提升现有物体检测器性能,并且不会在测试阶段增加任何额外的开销。如表4所示,MixTraining 能够将基于 ResNet-50 的 Faster R-CNN 的检测精度从41.7mAP 提升至44.3 mAP,并将基于 Swin-S 的 Cascade R-CNN 的检测精度从 50.9mAP 提升至 52.8mAP

4MixTraining 可以有效提升多种现有检测器的检测性能

除了良好的系统级性能提升以外,研究员们还对该范式为何有效进行了深入详尽的分析与研究。研究员们首先对 Mixed Training Targets (混合训练目标)的工作机理进行了分析。Mixed Training Targets (混合训练目标)采用了老师-学生 (Teacher-Student)架构来生成高质量的检测结果,并将这些检测结果作为伪标注(Pseudo ground-truth)再与真实的人类标注 (Human-annotated ground-truth)结合起来共同作为网络的训练标注。研究员们发现这种使用混合标注有两种好处:1)可以避免漏标的物体(missing label) 2)可以降低标注中的定位噪声(box loc noise) 分析结果如表5所示。

5:对混合训练目标的消融实验

其次,研究员们还对 Mixed Data Augmentation(混合数据增广)进行了进一步的研究。研究员们猜测不同的训练实例可能需要不同强度的数据增广,而不能一概而论地对所有训练示例使用统一的简单或者过强的数据增广,否则反而有可能会损害训练性能,结果如表6所示。

6:对混合数据增广的消融实验

与此同时,研究员们还发现 MixTraining 可以在更长的训练轮数中获得更大的收益,结果如表7所示。

表7:MixTraining 可以在更长的训练轮数中获得更大的收益

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“BOMT” 就可以获取NeurIPS 2021 | 寻MixTraining: 一种全新的物体检测训练范式》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

CVPR 2022 | 用于目标检测的双加权标签分配
专知会员服务
7+阅读 · 2022年3月26日
【CVPR2022】弱监督语义分割的类重新激活图
专知会员服务
16+阅读 · 2022年3月7日
专知会员服务
19+阅读 · 2021年9月16日
【IJCAI】大规模可扩展深度学习,82页ppt
专知会员服务
27+阅读 · 2021年1月10日
深度学习目标检测方法综述
专知会员服务
273+阅读 · 2020年8月1日
NeurIPS 2021丨K-Net: 迈向统一的图像分割
专知
0+阅读 · 2021年11月25日
【CVPR2021】端到端的全卷积目标检测器
专知
1+阅读 · 2021年4月5日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2010年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月20日
Detecting Deepfakes with Self-Blended Images
Arxiv
2+阅读 · 2022年4月18日
Synthesizing Informative Training Samples with GAN
Arxiv
0+阅读 · 2022年4月15日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
11+阅读 · 2018年4月8日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2010年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Detecting Deepfakes with Self-Blended Images
Arxiv
2+阅读 · 2022年4月18日
Synthesizing Informative Training Samples with GAN
Arxiv
0+阅读 · 2022年4月15日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
11+阅读 · 2018年4月8日
Top
微信扫码咨询专知VIP会员