This paper addresses the problem of supervised video summarization by formulating it as a sequence-to-sequence learning problem, where the input is a sequence of original video frames, the output is a keyshot sequence. Our key idea is to learn a deep summarization network with attention mechanism to mimic the way of selecting the keyshots of human. To this end, we propose a novel video summarization framework named Attentive encoder-decoder networks for Video Summarization (AVS), in which the encoder uses a Bidirectional Long Short-Term Memory (BiLSTM) to encode the contextual information among the input video frames. As for the decoder, two attention-based LSTM networks are explored by using additive and multiplicative objective functions, respectively. Extensive experiments are conducted on three video summarization benchmark datasets, i.e., SumMe, and TVSum. The results demonstrate the superiority of the proposed AVS-based approaches against the state-of-the-art approaches,with remarkable improvements from 0.8% to 3% on two datasets,respectively..


翻译:本文探讨监督视频总结问题,将它编成一个序列到序列学习问题,输入是原始视频框架的序列,输出是键盘序列。我们的关键思想是学习一个深度汇总网络,以关注机制模仿人类抓取关键截图的方式。为此,我们提议了一个名为Attention encoder-decoder的视频总结网络(AVS)的新视频总结框架,其中编码器使用双向长期短期内存(BILSTM)将背景信息纳入输入视频框架。对于解码器,则分别使用添加和倍增目标功能探索两个基于关注的LSTM网络。在三个视频汇总基准数据集上进行了广泛的实验,即Summe和TVSum。结果显示,拟议基于AVS的方法优于最新方法,在两个数据集上从0.8%到3%有了显著改进。

1
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
TensorFlow seq2seq中的Attention机制(续)
深度学习每日摘要
15+阅读 · 2017年11月16日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
4+阅读 · 2019年8月7日
Arxiv
6+阅读 · 2019年7月29日
Arxiv
6+阅读 · 2019年4月4日
VIP会员
Top
微信扫码咨询专知VIP会员