This research identifies a gap in weakly-labelled multivariate time-series classification (TSC), where state-of-the-art TSC models do not per-form well. Weakly labelled time-series are time-series containing noise and significant redundancies. In response to this gap, this paper proposes an approach of exploiting context relevance of subsequences from previous subsequences to improve classification accuracy. To achieve this, state-of-the-art Attention algorithms are experimented in combination with the top CNN models for TSC (FCN and ResNet), in an CNN-LSTM architecture. Attention is a popular strategy for context extraction with exceptional performance in modern sequence-to-sequence tasks. This paper shows how attention algorithms can be used for improved weakly labelledTSC by evaluating models on a multivariate EEG time-series dataset obtained using a commercial Emotiv headsets from participants performing various activities while driving. These time-series are segmented into sub-sequences and labelled to allow supervised TSC.


翻译:这项研究确定了标签不全的多变时间序列分类(TSC)中存在的差距,即最先进的TSC模型并非一成不变。标记不全的时间序列是含有噪音和重大冗余的时间序列。针对这一差距,本文件建议采用一种办法,利用前一个子序列的子序列的子序列的上下文关联性来提高分类的准确性。为了实现这一目的,在CNN-LSTM的架构中,将最先进的CNN TSC模型(FCN和ResNet)结合试验了最先进的关注算法。注意是一种在现代顺序到顺序任务中具有特殊性能的背景提取的流行战略。本文说明了如何通过评价多变式 EEG时间序列数据集模型,利用在驾驶期间从事各种活动的参与者的商业耳目来评估该模型,将注意力算法用于改进微弱的标记TSC。这些时间序列分为子序列,并贴上标签,允许受监督的TSC。

0
下载
关闭预览

相关内容

服务范围涵盖服务创新研发的所有计算和软件科学技术方面。IEEE服务计算事务强调算法、数学、统计和计算方法,这些方法是服务计算的核心,是面向服务的体系结构、Web服务、业务流程集成、解决方案性能管理、服务操作和管理的新兴领域。官网地址:http://dblp.uni-trier.de/db/journals/tsc/
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年4月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
12+阅读 · 2019年3月14日
Area Attention
Arxiv
5+阅读 · 2019年2月5日
Arxiv
25+阅读 · 2017年12月6日
VIP会员
相关VIP内容
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年4月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Top
微信扫码咨询专知VIP会员