大神接棒,YOLOv4来了!

2020 年 4 月 24 日 CVer

点击上方“CVer”,选择加"星标"或“置顶”

重磅干货,第一时间送达

前言


今天刷屏的动态一定是 YOLOv4!




本文 Amusi 会跟大家说一下在别处看不到内容(大神接棒),欢迎继续阅读!


之前,YOLO系列(v1-v3)作者 Joe Redmon 宣布不再继续CV方向的研究,引起学术圈一篇哗然。YOLO之父宣布退出CV界,坦言无法忽视自己工作带来的负面影响


推文链接:https://twitter.com/jeremyphoward/status/1230610470991589376

Amusi 特意去谷歌学术上搜索了一下YOLOv1-v3的引用量,累计破 16000 +!


大神接棒,YOLOv4来了!


当大家以为再也见不到YOLOv4的时候,然鹅今天 YOLOv4 来了!


YOLOv4的作者阵容里并没有Joe Redmon,也验证了大神曾说不再继续CV研究的这条消息。但都木有YOLO之父Joe Redmon的论文,其名字为什么还敢叫YOLOv4呢,不怕被喷么?


这里Amusi 花点时间跟大家介绍一下这个有趣的事情。


先说说:大神接棒的事情


停更两年之久的的YOLO github官网正式更新 README,那么更新了什么呢?接着往下看


YOLO官网:https://github.com/pjreddie/darknet




YOLO官方github正式加入YOLOv4的论文和代码链接,也意味着YOLOv4得到了Joe Redmon的认可,也代表着YOLO的停更与交棒



关于YOLOv4,Amusi 曾写过这样一篇文章来预宣传(现在想想,应该是全网第一个这样介绍的):等待YOLOv4的期间,它还在更新


YOLOv4的一作是 Alexey Bochkovskiy,用过YOLO的同学,特别是用过Windows版YOLO的同学对这个名字一定很熟悉!


因为他就是darknet另一个github版本的维护者,也就是YOLOv4的代码库:

https://github.com/AlexeyAB/darknet


据Amusi 猜测推断,Alexey Bochkovskiy 是一名独立研究员,这里更愿意称为之YOLO接棒者,YOLO社区推动者。这里对Alexey不过多赘述,想了解的同学可以看一下:等待YOLOv4的期间,它还在更新


值得一提的是,这个版本的darknet的提交数已经来到 1777 次。试想一下,你一天提交一次更新,那么就需要你连续近5年不停更!


我们一般只会用两个字来形容这种人:码怪



YOLOv4 正文


YOLOv4: Optimal Speed and Accuracy of Object Detection

论文:https://arxiv.org/abs/2004.10934

代码:https://github.com/AlexeyAB/darknet


大家一定被文章开头的图片吸引了,位于图中靠右上角的YOLOv4 多么"亮眼",越靠右上角意味着AP越高、速度FPS越快!而且YOLO被大家追捧的原因之一就是:快而准。



YOLOv4 在COCO上,可达43.5% AP,速度高达 65 FPS!

YOLOv4的特点是集大成者,俗称堆料。但最终达到这么高的性能,一定是不断尝试、不断堆料、不断调参的结果,给作者点赞。下面看看堆了哪些料:


  • Weighted-Residual-Connections (WRC)

  • Cross-Stage-Partial-connections (CSP)

  • Cross mini-Batch Normalization (CmBN)

  • Self-adversarial-training (SAT) 

  • Mish-activation

  • Mosaic data augmentation

  • CmBN

  • DropBlock regularization

  • CIoU loss


本文的主要贡献如下:

1. 提出了一种高效而强大的目标检测模型。它使每个人都可以使用1080 Ti或2080 Ti GPU 训练超快速和准确的目标检测器(牛逼!)。

2. 在检测器训练期间,验证了SOTA的Bag-of Freebies 和Bag-of-Specials方法的影响。

3. 改进了SOTA的方法,使它们更有效,更适合单GPU训练,包括CBN [89],PAN [49],SAM [85]等。文章将目前主流的目标检测器框架进行拆分:input、backbone、neck 和 head 具体如下图所示:



  • 对于GPU,作者在卷积层中使用:CSPResNeXt50 / CSPDarknet53

  • 对于VPU,作者使用分组卷积,但避免使用(SE)块-具体来说,它包括以下模型:EfficientNet-lite / MixNet / GhostNet / MobileNetV3


作者的目标是在输入网络分辨率,卷积层数,参数数量和层输出(filters)的数量之间找到最佳平衡。文中称:CSPDarknet53在检测上的表现要优于CSPResNext50,关于CSP,不了解的同学可以看一下这篇文章:

增强CNN学习能力的Backbone:CSPNet


总结一下YOLOv4框架:

  • Backbone:CSPDarknet53

  • Neck:SPP,PAN

  • Head:YOLOv3


YOLOv4 = CSPDarknet53+SPP+PAN+YOLOv3


其中YOLOv4用到相当多的技巧:


  • 用于backbone的BoF:CutMix和Mosaic数据增强,DropBlock正则化,Class label smoothing

  • 用于backbone的BoS:Mish激活函数,CSP,MiWRC

  • 用于检测器的BoF:CIoU-loss,CmBN,DropBlock正则化,Mosaic数据增强,Self-Adversarial 训练,消除网格敏感性,对单个ground-truth使用多个anchor,Cosine annealing scheduler,最佳超参数,Random training shapes

  • 用于检测器的Bos:Mish激活函数,SPP,SAM,PAN,DIoU-NMS


看看YOLOv4部分组件:



感受一下YOLOv4实验的充分性(调参的艺术)



感受一下性能炸裂的YOLOv4实验结果



论文篇幅很长,高达17页,干货满满!推荐大家阅读原文和源码进行深入理解。


跟我一起喊:大神接棒,YOLOv4 来了!

论文下载

在CVer公众号后台回复:YOLO,即可下载本论文

重磅!CVer-目标检测 微信交流群已成立


扫码添加CVer助手,可申请加入CVer-目标检测 微信交流群,目前已汇集3800人!涵盖2D/3D目标检测、小目标检测、遥感目标检测等。互相交流,一起进步!


同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲长按加群


▲长按关注我们

麻烦给我一个在看!

登录查看更多
1

相关内容

专知会员服务
32+阅读 · 2020年4月24日
专知会员服务
61+阅读 · 2020年3月19日
专知会员服务
110+阅读 · 2020年3月12日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
50+阅读 · 2020年2月26日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
Transformer文本分类代码
专知会员服务
117+阅读 · 2020年2月3日
47.4mAP!最强Anchor-free目标检测网络:SAPD
极市平台
13+阅读 · 2019年12月16日
CenterNet:目标即点(代码已开源)
极市平台
25+阅读 · 2019年5月24日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
254页PPT!这是一份写给NLP研究者的编程指南
黑龙江大学自然语言处理实验室
6+阅读 · 2018年11月11日
学员分享 | 小哥哥和用YOLOv3做目标检测的故事「文末送课」
期待已久的—YOLO V3
计算机视觉战队
20+阅读 · 2018年4月13日
YOLOv3:你一定不能错过
机器学习研究会
13+阅读 · 2018年3月26日
【姿态估计比Mask-RCNN提高8%】上交卢策吾团队开源AlphaPose
上海交大机器视觉与智能实验室
9+阅读 · 2018年2月4日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
Auto-Context R-CNN
Arxiv
4+阅读 · 2018年7月8日
Arxiv
8+阅读 · 2018年4月8日
Arxiv
6+阅读 · 2018年2月6日
Arxiv
7+阅读 · 2018年1月24日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2020年4月24日
专知会员服务
61+阅读 · 2020年3月19日
专知会员服务
110+阅读 · 2020年3月12日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
50+阅读 · 2020年2月26日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
Transformer文本分类代码
专知会员服务
117+阅读 · 2020年2月3日
相关资讯
47.4mAP!最强Anchor-free目标检测网络:SAPD
极市平台
13+阅读 · 2019年12月16日
CenterNet:目标即点(代码已开源)
极市平台
25+阅读 · 2019年5月24日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
254页PPT!这是一份写给NLP研究者的编程指南
黑龙江大学自然语言处理实验室
6+阅读 · 2018年11月11日
学员分享 | 小哥哥和用YOLOv3做目标检测的故事「文末送课」
期待已久的—YOLO V3
计算机视觉战队
20+阅读 · 2018年4月13日
YOLOv3:你一定不能错过
机器学习研究会
13+阅读 · 2018年3月26日
【姿态估计比Mask-RCNN提高8%】上交卢策吾团队开源AlphaPose
上海交大机器视觉与智能实验室
9+阅读 · 2018年2月4日
相关论文
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
Auto-Context R-CNN
Arxiv
4+阅读 · 2018年7月8日
Arxiv
8+阅读 · 2018年4月8日
Arxiv
6+阅读 · 2018年2月6日
Arxiv
7+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员