This paper shows that masked autoencoder with interpolator (InterpoMAE) is a scalable self-supervised generative model for time series. InterpoMAE masks random patches of the input time series and recover the missing patches in latent space. The core design is that no mask token is used. InterpoMAE disentangles missing patch recovery from the decoder. An interpolator directly recovers the missing patches without mask tokens. This design helps InterpoMAE to consistently and significantly outperforms state-of-the-art (SoTA) benchmarks in time series generation. Our approach also shows promising scaling behaviour in various downstream tasks such as time series classification, prediction and imputation. As the only self-supervised generative model for time series, InterpoMAE is the first in literature that allows explicit management on the synthetic data. Time series generation may follow the trajectory of self-supervised learning now.


翻译:本文显示, 带有内插器( InterpoMAE) 的蒙面自动编码器是一个可缩放的自我监督基因模型, 用于时间序列 。 InterpoMAE 掩码器随机覆盖输入时间序列的补丁, 并恢复隐蔽空间中缺失的补丁。 核心设计是没有使用掩码符号 。 InterpoMAE 解析解析解密器缺失的补丁。 一个内插器直接恢复了没有掩码符号的缺失补丁。 这个设计有助于 InterpoMAE 持续且显著地超过时间序列生成中的最新( SoTA) 基准 。 我们的方法还显示在时间序列分类、 预测和 估算等各种下游任务中有希望的缩放行为。 作为时间序列中唯一自上显示的自我监督基因化模型, InterpoMAE 是文献中第一个允许对合成数据进行明确管理的文献中的第一个。 时间序列的生成可能遵循当前自我超强学习的轨迹 。

3
下载
关闭预览

相关内容

专知会员服务
90+阅读 · 2021年6月29日
商业数据分析,39页ppt
专知会员服务
162+阅读 · 2020年6月2日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
40+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
从R-CNN到Mask R-CNN!
全球人工智能
17+阅读 · 2017年11月13日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Salient Objects in Clutter
Arxiv
0+阅读 · 2022年4月18日
Arxiv
1+阅读 · 2022年4月17日
Arxiv
0+阅读 · 2022年4月14日
Arxiv
34+阅读 · 2022年2月15日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
11+阅读 · 2018年3月23日
VIP会员
相关VIP内容
专知会员服务
90+阅读 · 2021年6月29日
商业数据分析,39页ppt
专知会员服务
162+阅读 · 2020年6月2日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
40+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
相关资讯
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
从R-CNN到Mask R-CNN!
全球人工智能
17+阅读 · 2017年11月13日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
相关论文
Salient Objects in Clutter
Arxiv
0+阅读 · 2022年4月18日
Arxiv
1+阅读 · 2022年4月17日
Arxiv
0+阅读 · 2022年4月14日
Arxiv
34+阅读 · 2022年2月15日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
11+阅读 · 2018年3月23日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员