【NAACL2021】信息解缠正则化持续学习的文本分类

2021 年 4 月 11 日 专知

持续学习变得越来越重要,因为它使NLP模型能够随着时间的推移不断地学习和获取知识。以往的持续学习方法主要是为了保存之前任务的知识,并没有很好地将模型推广到新的任务中。在这项工作中,我们提出了一种基于信息分解的正则化方法用于文本分类的持续学习。我们提出的方法首先将文本隐藏空间分解为对所有任务都适用的表示形式和对每个单独任务都适用的表示形式,并进一步对这些表示形式进行不同的规格化,以更好地约束一般化所需的知识。我们还介绍了两个简单的辅助任务:下一个句子预测和任务id预测,以学习更好的通用和特定表示空间。在大规模基准上进行的实验证明了我们的方法在不同序列和长度的连续文本分类任务中的有效性。




专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“CLTC” 就可以获取【NAACL2021】信息解缠正则化持续学习的文本分类》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询

点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
专知会员服务
32+阅读 · 2021年3月7日
专知会员服务
16+阅读 · 2021年2月17日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
自然语言处理ACL2020论文列表
专知
12+阅读 · 2020年6月23日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
自然语言处理(NLP)前沿进展报告(PPT下载)
Arxiv
0+阅读 · 2021年6月24日
Arxiv
29+阅读 · 2020年3月16日
UNITER: Learning UNiversal Image-TExt Representations
Arxiv
23+阅读 · 2019年9月25日
Arxiv
3+阅读 · 2019年8月19日
Arxiv
5+阅读 · 2017年12月29日
Arxiv
5+阅读 · 2015年9月14日
VIP会员
相关论文
Arxiv
0+阅读 · 2021年6月24日
Arxiv
29+阅读 · 2020年3月16日
UNITER: Learning UNiversal Image-TExt Representations
Arxiv
23+阅读 · 2019年9月25日
Arxiv
3+阅读 · 2019年8月19日
Arxiv
5+阅读 · 2017年12月29日
Arxiv
5+阅读 · 2015年9月14日
Top
微信扫码咨询专知VIP会员