论文链接: https://arxiv.org/abs/2111.03056 代码链接(即将开源): https://github.com/MendelXu/MixTraining

物体检测是计算机视觉中的基础课题。经典的物体检测器通常采用单一的数据增强策略,并简单地使用人工标注的物体包围盒来进行训练,这种训练策略也被称为 SiTraining 范式。在本篇论文中,微软亚洲研究院的研究员们提出了一种全新的物体检测训练范式:MixTraining。该范式通过引入 Mixed Training Targets(混合训练目标)与 Mixed Data Augmentation(混合数据增广),可以有效提升现有物体检测器性能,并且不会在测试阶段增加任何额外的开销。如表4所示,MixTraining 能够将基于 ResNet-50 的 Faster R-CNN 的检测精度从41.7mAP 提升至44.3 mAP,并将基于 Swin-S 的 Cascade R-CNN 的检测精度从 50.9mAP 提升至 52.8mAP。

成为VIP会员查看完整内容
11

相关内容

【AAAI2022】锚点DETR:基于transformer检测器的查询设计
专知会员服务
12+阅读 · 2021年12月31日
NeurIPS 2021丨K-Net: 迈向统一的图像分割
专知会员服务
16+阅读 · 2021年11月25日
【NeurIPS2021】用于物体检测的实例条件知识蒸馏
专知会员服务
19+阅读 · 2021年11月10日
专知会员服务
20+阅读 · 2021年7月28日
专知会员服务
31+阅读 · 2021年7月2日
专知会员服务
14+阅读 · 2021年5月12日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
已删除
AI掘金志
7+阅读 · 2019年7月8日
Mask R-CNN官方实现“又”来了!基于PyTorch,训练速度是原来2倍
机器学习算法与Python学习
5+阅读 · 2018年10月26日
Mask R-CNN 论文笔记
统计学习与视觉计算组
11+阅读 · 2018年3月22日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
11+阅读 · 2018年3月15日
从R-CNN到Mask R-CNN
机器学习研究会
25+阅读 · 2017年11月13日
Bootstrap Your Object Detector via Mixed Training
Arxiv
3+阅读 · 2021年11月4日
Arxiv
17+阅读 · 2021年3月29日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
7+阅读 · 2018年1月24日
Arxiv
7+阅读 · 2017年12月28日
VIP会员
相关VIP内容
【AAAI2022】锚点DETR:基于transformer检测器的查询设计
专知会员服务
12+阅读 · 2021年12月31日
NeurIPS 2021丨K-Net: 迈向统一的图像分割
专知会员服务
16+阅读 · 2021年11月25日
【NeurIPS2021】用于物体检测的实例条件知识蒸馏
专知会员服务
19+阅读 · 2021年11月10日
专知会员服务
20+阅读 · 2021年7月28日
专知会员服务
31+阅读 · 2021年7月2日
专知会员服务
14+阅读 · 2021年5月12日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
相关资讯
已删除
AI掘金志
7+阅读 · 2019年7月8日
Mask R-CNN官方实现“又”来了!基于PyTorch,训练速度是原来2倍
机器学习算法与Python学习
5+阅读 · 2018年10月26日
Mask R-CNN 论文笔记
统计学习与视觉计算组
11+阅读 · 2018年3月22日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
11+阅读 · 2018年3月15日
从R-CNN到Mask R-CNN
机器学习研究会
25+阅读 · 2017年11月13日
相关论文
Bootstrap Your Object Detector via Mixed Training
Arxiv
3+阅读 · 2021年11月4日
Arxiv
17+阅读 · 2021年3月29日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
7+阅读 · 2018年1月24日
Arxiv
7+阅读 · 2017年12月28日
微信扫码咨询专知VIP会员