Event cameras are novel bio-inspired sensors, which asynchronously capture pixel-level intensity changes in the form of "events". Due to their sensing mechanism, event cameras have little to no motion blur, a very high temporal resolution and require significantly less power and memory than traditional frame-based cameras. These characteristics make them a perfect fit to several real-world applications such as egocentric action recognition on wearable devices, where fast camera motion and limited power challenge traditional vision sensors. However, the ever-growing field of event-based vision has, to date, overlooked the potential of event cameras in such applications. In this paper, we show that event data is a very valuable modality for egocentric action recognition. To do so, we introduce N-EPIC-Kitchens, the first event-based camera extension of the large-scale EPIC-Kitchens dataset. In this context, we propose two strategies: (i) directly processing event-camera data with traditional video-processing architectures (E$^2$(GO)) and (ii) using event-data to distill optical flow information (E$^2$(GO)MO). On our proposed benchmark, we show that event data provides a comparable performance to RGB and optical flow, yet without any additional flow computation at deploy time, and an improved performance of up to 4% with respect to RGB only information.


翻译:事件相机是新颖的生物激励传感器,它以“活动”的形式无休无止地捕捉像素级强度变化。 由于其感知机制,事件相机几乎没有什么活动,没有运动的模糊,时间分辨率非常高,需要的动力和记忆比传统的框架相机要少得多。 这些特点使它们完全适合一些现实应用,如在可磨损装置上以自我为中心的行动识别,即快速相机运动和有限的电力对传统视觉传感器的挑战。然而,不断增长的事件视觉领域迄今忽视了事件相机在此类应用中的潜力。 在本文中,我们表明事件数据是自我中心行动识别的一种非常有价值的模式。 为此,我们引入了N-EPIC-Kitchens,这是大规模 EPIC-Kitchens 数据集的第一个以事件为基础的相机扩展。 在这方面,我们提出了两个战略:(一) 直接处理事件相机数据与传统视频处理结构(仅以美元计2美元(GOG)直接处理,以及(二)利用事件数据来保持光学流信息(E_2美元),但我们利用事件数据来保持光学流动信息(E_GB2美元),在4号(GO)运行中显示一个可比较的运行的运行。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
已删除
将门创投
6+阅读 · 2019年7月11日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
【TED】什么让我们生病
英语演讲视频每日一推
7+阅读 · 2019年1月23日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
【推荐】(TensorFlow)SSD实时手部检测与追踪(附代码)
机器学习研究会
11+阅读 · 2017年12月5日
Arxiv
0+阅读 · 2022年2月8日
Arxiv
3+阅读 · 2021年10月14日
SlowFast Networks for Video Recognition
Arxiv
19+阅读 · 2018年12月10日
VIP会员
相关VIP内容
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
已删除
将门创投
6+阅读 · 2019年7月11日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
【TED】什么让我们生病
英语演讲视频每日一推
7+阅读 · 2019年1月23日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
【推荐】(TensorFlow)SSD实时手部检测与追踪(附代码)
机器学习研究会
11+阅读 · 2017年12月5日
Top
微信扫码咨询专知VIP会员