持续学习变得越来越重要,因为它使NLP模型能够随着时间的推移不断地学习和获取知识。以往的持续学习方法主要是为了保存之前任务的知识,并没有很好地将模型推广到新的任务中。在这项工作中,我们提出了一种基于信息分解的正则化方法用于文本分类的持续学习。我们提出的方法首先将文本隐藏空间分解为对所有任务都适用的表示形式和对每个单独任务都适用的表示形式,并进一步对这些表示形式进行不同的规格化,以更好地约束一般化所需的知识。我们还介绍了两个简单的辅助任务:下一个句子预测和任务id预测,以学习更好的通用和特定表示空间。在大规模基准上进行的实验证明了我们的方法在不同序列和长度的连续文本分类任务中的有效性。

成为VIP会员查看完整内容
21

相关内容

文本分类(Text Classification)任务是根据给定文档的内容或主题,自动分配预先定义的类别标签。
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
专知会员服务
23+阅读 · 2020年12月16日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
专知会员服务
29+阅读 · 2020年9月18日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
NLP领域中的迁移学习现状
AI科技评论
7+阅读 · 2019年9月1日
一文看懂自然语言处理中迁移学习的现状
AI前线
10+阅读 · 2019年8月27日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
机器学习自动文本分类
AI前线
23+阅读 · 2018年2月4日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
Arxiv
0+阅读 · 2021年6月3日
Arxiv
0+阅读 · 2021年6月3日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
4+阅读 · 2019年1月14日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
3+阅读 · 2018年8月27日
VIP会员
相关VIP内容
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
专知会员服务
23+阅读 · 2020年12月16日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
专知会员服务
29+阅读 · 2020年9月18日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
相关资讯
NLP领域中的迁移学习现状
AI科技评论
7+阅读 · 2019年9月1日
一文看懂自然语言处理中迁移学习的现状
AI前线
10+阅读 · 2019年8月27日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
机器学习自动文本分类
AI前线
23+阅读 · 2018年2月4日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
相关论文
Arxiv
0+阅读 · 2021年6月3日
Arxiv
0+阅读 · 2021年6月3日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
4+阅读 · 2019年1月14日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
3+阅读 · 2018年8月27日
微信扫码咨询专知VIP会员