We propose Joint-DetNAS, a unified NAS framework for object detection, which integrates 3 key components: Neural Architecture Search, pruning, and Knowledge Distillation. Instead of naively pipelining these techniques, our Joint-DetNAS optimizes them jointly. The algorithm consists of two core processes: student morphism optimizes the student's architecture and removes the redundant parameters, while dynamic distillation aims to find the optimal matching teacher. For student morphism, weight inheritance strategy is adopted, allowing the student to flexibly update its architecture while fully utilize the predecessor's weights, which considerably accelerates the search; To facilitate dynamic distillation, an elastic teacher pool is trained via integrated progressive shrinking strategy, from which teacher detectors can be sampled without additional cost in subsequent searches. Given a base detector as the input, our algorithm directly outputs the derived student detector with high performance without additional training. Experiments demonstrate that our Joint-DetNAS outperforms the naive pipelining approach by a great margin. Given a classic R101-FPN as the base detector, Joint-DetNAS is able to boost its mAP from 41.4 to 43.9 on MS COCO and reduce the latency by 47%, which is on par with the SOTA EfficientDet while requiring less search cost. We hope our proposed method can provide the community with a new way of jointly optimizing NAS, KD and pruning.


翻译:我们提议联合- DetNAS, 是一个统一的物体探测NAS框架, 它包含3个关键组成部分: 神经结构搜索、 修剪和知识蒸馏。 我们的联合- DetNAS 并不是天性地管这些技术,而是联合- DetNAS 联合优化这些技术。 算法由两个核心过程组成: 学生形态学优化了学生结构, 并删除了多余的参数, 而动态蒸馏则旨在寻找最佳匹配教师。 对于学生形态学, 通过了体重继承战略, 允许学生灵活更新其结构, 同时充分利用前身的重量, 从而大大加快了搜索速度; 为了便利动态蒸馏, 一个弹性教师人才库通过综合渐进式缩小战略进行培训, 教师探测器可以在以后的搜索中不增加费用。 鉴于一个基础探测器, 我们的算法直接输出出学生探测器, 并且没有额外的培训, 动态蒸馏结果显示, 我们的联合- DNAS 提议比天管线方法更优于一个大幅度。 典型的R101- FPN是基础探测器, 大大加快了搜索速度; 联合- DedeNAS 能够通过47- MS- knal 的搜索方法降低其47- k- sal- syal- k- k- syal- syal- hyal- k- sal- sal- sal- silveal- silveal- supal- supleg- sal- supal- supal- sal- supal- supal- supal- sal- silveal- sal- k- sild- sal- sal- sal- sal- sil.

1
下载
关闭预览

相关内容

ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
BERT 瘦身之路:Distillation,Quantization,Pruning
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机视觉的不同任务
专知
5+阅读 · 2018年8月27日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年7月14日
Arxiv
8+阅读 · 2020年10月9日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
5+阅读 · 2019年2月28日
Arxiv
5+阅读 · 2018年5月16日
VIP会员
相关资讯
BERT 瘦身之路:Distillation,Quantization,Pruning
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机视觉的不同任务
专知
5+阅读 · 2018年8月27日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员