This paper revisits feature pyramids networks (FPN) for one-stage detectors and points out that the success of FPN is due to its divide-and-conquer solution to the optimization problem in object detection rather than multi-scale feature fusion. From the perspective of optimization, we introduce an alternative way to address the problem instead of adopting the complex feature pyramids - {\em utilizing only one-level feature for detection}. Based on the simple and efficient solution, we present You Only Look One-level Feature (YOLOF). In our method, two key components, Dilated Encoder and Uniform Matching, are proposed and bring considerable improvements. Extensive experiments on the COCO benchmark prove the effectiveness of the proposed model. Our YOLOF achieves comparable results with its feature pyramids counterpart RetinaNet while being $2.5\times$ faster. Without transformer layers, YOLOF can match the performance of DETR in a single-level feature manner with $7\times$ less training epochs. With an image size of $608\times608$, YOLOF achieves 44.3 mAP running at 60 fps on 2080Ti, which is $13\%$ faster than YOLOv4. Code is available at \url{https://github.com/megvii-model/YOLOF}.


翻译:本文对一级探测器的金字塔网络(FPN)进行了回顾,指出FPN的成功是因为它在物体探测而不是多尺度特性融合方面对优化问题采取了分而解的解决办法。从优化的角度来看,我们引入了一种解决问题的替代方法,而不是采用复杂特征金字塔-只使用一等级特性进行检测}。根据简单而有效的解决办法,我们只介绍一级特性(YOLOOF),我们的方法是提出两个关键组成部分,即分解编码和统一匹配,并带来相当大的改进。关于COCOCO基准的广泛实验证明了拟议模型的有效性。我们的YOLOF取得了与其特征金字塔对应的RetinaNet的可比的结果,同时速度更快。没有变压层,YOLOF可以匹配DETR的单级特性性功能性能,比培训少7美元。我们的方法是提出680美元,608美元,YOLOFs 44.3 mAP的图像规模比FF.AFQ_OFQ_VFQ_VFF_FFF_FFF_FQ_FF_FQ_FQ_FQ_Q_Q_FF_Q_Q_Q_Q_Q_Q_FF_FF_FF_FF_Q_FF_Q_Q_Q_FF_FF_FF_Q_Q_Q_Q_Q_Q_Q_Q_Q_Q_Q_BAR_Q_Q_Q_Q_Q_Q_Q_BAR_BAR_BAR_BAR_BAR_FF_FF_FF_FF_FF_FF_FF_FF_FF_Q_FF_FF_FF_FF_FF_FF_Q_Q_Q_Q_BAR_FF_FF_FF_Q_Q_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_FF_

0
下载
关闭预览

相关内容

Pyramid is a small, fast, down-to-earth Python web application development framework.
专知会员服务
17+阅读 · 2021年4月24日
【WWW2021】场矩阵分解机推荐系统
专知会员服务
31+阅读 · 2021年2月27日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
机器学习速查手册,135页pdf
专知会员服务
338+阅读 · 2020年3月15日
专知会员服务
109+阅读 · 2020年3月12日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
LibRec 精选:你见过最有趣的论文标题是什么?
LibRec智能推荐
4+阅读 · 2019年11月6日
大盘点 | 性能最强的目标检测算法
新智元
13+阅读 · 2019年7月9日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文 | YOLO(You Only Look Once)目标检测
七月在线实验室
14+阅读 · 2017年12月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
论文共读 | Attention is All You Need
黑龙江大学自然语言处理实验室
14+阅读 · 2017年9月7日
Arxiv
0+阅读 · 2021年5月11日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Arxiv
5+阅读 · 2018年5月16日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
27+阅读 · 2017年12月6日
VIP会员
相关VIP内容
专知会员服务
17+阅读 · 2021年4月24日
【WWW2021】场矩阵分解机推荐系统
专知会员服务
31+阅读 · 2021年2月27日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
机器学习速查手册,135页pdf
专知会员服务
338+阅读 · 2020年3月15日
专知会员服务
109+阅读 · 2020年3月12日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
LibRec 精选:你见过最有趣的论文标题是什么?
LibRec智能推荐
4+阅读 · 2019年11月6日
大盘点 | 性能最强的目标检测算法
新智元
13+阅读 · 2019年7月9日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文 | YOLO(You Only Look Once)目标检测
七月在线实验室
14+阅读 · 2017年12月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
论文共读 | Attention is All You Need
黑龙江大学自然语言处理实验室
14+阅读 · 2017年9月7日
Top
微信扫码咨询专知VIP会员