Unsupervised segmentation of action segments in egocentric videos is a desirable feature in tasks such as activity recognition and content-based video retrieval. Reducing the search space into a finite set of action segments facilitates a faster and less noisy matching. However, there exist a substantial gap in machine understanding of natural temporal cuts during a continuous human activity. This work reports on a novel gaze-based approach for segmenting action segments in videos captured using an egocentric camera. Gaze is used to locate the region-of-interest inside a frame. By tracking two simple motion-based parameters inside successive regions-of-interest, we discover a finite set of temporal cuts. We present several results using combinations (of the two parameters) on a dataset, i.e., BRISGAZE-ACTIONS. The dataset contains egocentric videos depicting several daily-living activities. The quality of the temporal cuts is further improved by implementing two entropy measures.


翻译:以自我为中心的视频中不受监督的行动部分分割是活动识别和基于内容的视频检索等任务中可取的特征。 将搜索空间缩小到有限的一组行动部分有助于更快和不那么吵闹的匹配。 但是,机器对连续人类活动期间自然时间缩短的理解存在巨大差距。 这份工作报告了在使用以自我为中心的相机拍摄的视频中对以自我为中心的视频中分离行动部分采取的新颖的凝视方法。 Gaze 被用来将区域定位在一个框架中。 通过在连续几个利益区域中跟踪两个简单的基于运动的参数,我们发现了一套有限的时间缩短。 我们在数据集(即BRISIGAZE-Actions)上使用(两个参数的)组合展示了几项结果。 该数据集包含描述一些日常生活活动的以自我为中心的视频。 通过执行两种安特罗比措施,时间削减的质量得到进一步提高。

0
下载
关闭预览

相关内容

【Manning2020新书】Elm 实战,344页pdf,Elm in Action
专知会员服务
50+阅读 · 2020年4月14日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
50+阅读 · 2020年2月26日
【新书】Python编程基础,669页pdf
专知会员服务
195+阅读 · 2019年10月10日
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
ICCV 2019 行为识别/视频理解论文汇总
极市平台
15+阅读 · 2019年9月26日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年8月24日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员