牛!何恺明包揽2项ICCV 2017最佳论文奖!这位高考状元告诉你什么是开挂的人生

2017 年 10 月 24 日 AI100 周翔


大神终究是大神!


刚刚,AI 科技大本营获悉,继两次荣获 CVPR 最佳论文奖之后,何恺明参与的两篇最新论文又分别摘下 ICCV 2017 的最佳论文奖(Best Paper Award)和最佳学生论文(Best Student Paper Award)两项大奖。


这两篇获奖论文分别是今年 4 月发布的《Mask R-CNN》以及今年 8 月发布的《Focal Loss for Dense Object Detection》,两者都是今年发布,而且相隔仅仅 4 个月。要知道 ICCV 是计算机视觉领域顶级会议之一,且两年举办一次,而何恺明作为两篇论文的第一作者和第四作者,足以证明他的实力。


以下是AI科技大本营对这两篇获奖论文的简介:


suorce:知乎


论文简介:我们提出了一个简单、灵活和通用的对象实例分割框架。我们的方法能有效检测图像中的对象,同时为每个实例生成高质量的 segmentation mask。这种被称为 Mask R-CNN 的方法通过添加用于预测 object mask 的分支来扩展 Faster R-CNN,该分支与用于边界框识别的现有分支并行。Mask R-CNN 训练简单,只需在以 5fps 运行的 Faster R-CNN 之上增加一个较小的 overhead。此外,Mask R-CNN 很容易推广到其他任务,例如它可以允许同一个框架中进行姿态估计。我们在 COCO 系列挑战的三个轨道任务中均取得了最佳成果,包括实例分割、边界对象检测和人关键点检测。没有任何 tricks,Mask R-CNN 的表现优于所有现有的单一模型取得的成绩,包括 COCO 2016 挑战赛的冠军。


论文地址:

https://arxiv.org/abs/1703.06870


suorce:知乎


论文简介:目前准确度最高的目标检测器采用的是一种常在 R-CNN 中使用的 two-stage 方法,这种方法将分类器应用于一个由候选目标位置组成的稀疏样本集。相反,one-stage 检测器则应用于一个由可能目标位置组成的规则密集样本集,而且更快更简单,但是准确度却落后于 two-stage 检测器。在本文中,我们探讨了造成这种现象的原因。


我们发现,在训练密集目标检测器的过程中出现的严重的 foreground-background 类别失衡,是造成这种现象的主要成因。我们解决这种类别失衡(class imbalance )的方案是,重塑标准交叉熵损失,使其减少分类清晰的样本的损失的权重。Focal Loss 将训练集中在一个稀疏的困难样本集上,并防止大量简单负样本在训练的过程中淹没检测器。为了评估该损失的有效性,我们设计并训练了一个简单的密集目标检测器—RetinaNet。试验结果证明,当使用 Focal Loss训练时,RetinaNet 不仅能赶上 one-stage 检测器的检测速度,而且还在准确度上超越了当前所有最先进的  two-stage 检测器。

 

 

我们提出了一种新的损失函数 Focal Loss(焦点损失),这个损失函数在标准的交叉熵标准上添加了一个因子 (1- pt) γ 。设定 γ > 0 可以减小分类清晰的样本的相对损失(pt > .5),使模型更加集中于困难的错误分类的样本。试验证明,在存在大量简单背景样本(background example)的情况下,我们提出的 Focal Loss 函数可以训练出准确度很高的密集对象检测器。


详见AI科技大本营文章:《何恺明团队提出 Focal Loss,目标检测精度高达39.1AP,打破现有记录》。



开挂的高考状元


实际上,这并不是何恺明大神第一次展现他开挂的能力。


2003 年,何恺明以广东省理科高考状元的身份进入清华大学。


2009 年,在 IEEE 举办的 CVPR 大会上,还在微软亚研院(MSRA)实习的何恺明的第一篇论文“Single Image Haze Removal Using Dark Channel Prior”艳惊四座,获最佳论文,这是第一次完全由中国人组成的团队获得该奖项。


2016年,何恺明所在团队的另一篇论文“Deep Residual Learning for Image Recognition”再获 CVPR 最佳论文奖。


同年 8 月,何恺明离开 MSRA,加入 FAIR(Facebook AI Research),担任科学家。


在加入 Facebook 之后,何恺明马上又成为 Faster R-CNN 和 Mask R-CNN 的主要贡献者,根本没有适应期一说。


如今,何恺明又成为 ICCV 的最佳论文得主,再一次拉开与我等普通人的差距,让人望尘莫及。


然而,这还不是最令人绝望的,看看何恺明的微博,旅游、玩游戏......统统没有落下。所以说,大神终究是大神!



各位读者有什么感想?欢迎在评论区留言。



SDCC 2017


10 月 28 日(本周六),SDCC 2017“人工智能技术实战线上峰会”将在CSDN学院以直播互动的方式举行。


作为SDCC系列技术峰会的一部分,来自阿里巴巴、微软、商汤科技、第四范式、微博、出门问问、菱歌科技的AI专家,将针对机器学习平台、系统架构、对话机器人、芯片、推荐系统、Keras、分布式系统、NLP等热点话题进行分享。


先行者们正在关注哪些关键技术?如何从理论跨越到企业创新实践?你将从本次峰会找到答案。每个演讲时段均设有答疑交流环节,与会者和讲师可零距离互动。


扫描下方二维码,入群交流



 ☞ 点击阅读原文,查看峰会详情

登录查看更多
1

相关内容

ICCV 的全称是 IEEE International Conference on Computer Vision,即国际计算机视觉大会,由IEEE主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议,被澳大利亚ICT学术会议排名和中国计算机学会等机构评为最高级别学术会议,在业内具有极高的评价。不同于在美国每年召开一次的CVPR和只在欧洲召开的ECCV,ICCV在世界范围内每两年召开一次。ICCV论文录用率非常低,是三大会议中公认级别最高的。ICCV会议时间通常在四到五天,相关领域的专家将会展示最新的研究成果。
专知会员服务
160+阅读 · 2020年4月21日
密歇根大学《20年目标检测综述》
专知会员服务
97+阅读 · 2019年10月13日
Mask R-CNN 论文笔记
统计学习与视觉计算组
11+阅读 · 2018年3月22日
论文 | YOLO(You Only Look Once)目标检测
七月在线实验室
14+阅读 · 2017年12月12日
ICCV 2017获奖论文公布 何恺明成为最大赢家! | 聚焦
网易智能菌
13+阅读 · 2017年10月25日
TensorMask: A Foundation for Dense Object Segmentation
Arxiv
10+阅读 · 2019年3月28日
DPOD: Dense 6D Pose Object Detector in RGB images
Arxiv
5+阅读 · 2019年2月28日
Panoptic Feature Pyramid Networks
Arxiv
3+阅读 · 2019年1月8日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
6+阅读 · 2018年7月9日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
7+阅读 · 2018年1月24日
VIP会员
相关论文
TensorMask: A Foundation for Dense Object Segmentation
Arxiv
10+阅读 · 2019年3月28日
DPOD: Dense 6D Pose Object Detector in RGB images
Arxiv
5+阅读 · 2019年2月28日
Panoptic Feature Pyramid Networks
Arxiv
3+阅读 · 2019年1月8日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
6+阅读 · 2018年7月9日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
7+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员