序列学习(Sequence Learning)是一类很重要的机器学习任务,在序列学习中,很多任务是时间相关联的(Temporally Correlated),例如,在同声传译中,给定输入的句子,不同延迟下的翻译是时序相关的;在股票预测中,未来几天的股票价格也是相关的。一组时序相关联任务的区别在于能够利用多少输入信息(如同传),以及需要预测未来哪一步的信息(如股票预测)。给定一个主任务,直观上来说,它的时序相关联任务对提升主任务效果是有帮助的,然而如何利用辅助任务并没有得到充分探索。为此,微软亚洲研究院的研究员们提出了一种基于 Bi-level Optimization 的方案,对于一个给定的序列学习任务,能够自适应地利用它的时间相关联任务,提升任务效果。

成为VIP会员查看完整内容
16

相关内容

专知会员服务
28+阅读 · 2021年8月20日
专知会员服务
18+阅读 · 2021年7月28日
专知会员服务
52+阅读 · 2021年6月14日
专知会员服务
81+阅读 · 2021年5月10日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【KDD2020】TAdaNet: 用于图增强元学习的任务自适应网络
专知会员服务
17+阅读 · 2020年9月21日
神经语言生成的非似然训练
AINLP
7+阅读 · 2019年11月29日
论文浅尝 | 利用问题生成提升知识图谱问答
开放知识图谱
20+阅读 · 2019年11月5日
SFFAI 37 报名通知 | 机器翻译专场之同步双向与多语言机器翻译
人工智能前沿讲习班
3+阅读 · 2019年6月25日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
SampleRNN语音合成模型
深度学习每日摘要
4+阅读 · 2017年7月3日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
4+阅读 · 2018年9月12日
VIP会员
相关VIP内容
专知会员服务
28+阅读 · 2021年8月20日
专知会员服务
18+阅读 · 2021年7月28日
专知会员服务
52+阅读 · 2021年6月14日
专知会员服务
81+阅读 · 2021年5月10日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【KDD2020】TAdaNet: 用于图增强元学习的任务自适应网络
专知会员服务
17+阅读 · 2020年9月21日
相关资讯
神经语言生成的非似然训练
AINLP
7+阅读 · 2019年11月29日
论文浅尝 | 利用问题生成提升知识图谱问答
开放知识图谱
20+阅读 · 2019年11月5日
SFFAI 37 报名通知 | 机器翻译专场之同步双向与多语言机器翻译
人工智能前沿讲习班
3+阅读 · 2019年6月25日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
SampleRNN语音合成模型
深度学习每日摘要
4+阅读 · 2017年7月3日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
微信扫码咨询专知VIP会员