在大规模语料库上进行预训练已经成为构建通用语言模型(LMs)的标准方法。适应新的数据分布以针对不同的下游任务是一项重大挑战。简单的微调可能会导致灾难性的遗忘,当超参数化的LMs过度拟合新数据但无法保留预训练特征时。终身学习(LLL)的目标是使信息系统能够在时间跨度上从连续数据流中学习。然而,大部分先前的工作都是修改训练策略,假定网络架构是静态固定的。我们发现额外的模型容量和适当的正则化是实现强大LLL性能的关键元素。因此,我们提出了Lifelong-MoE,这是一个可扩展的MoE(专家混合)架构,通过添加带有正则化预训练的专家动态增加模型容量。我们的结果表明,只引入有限数量的额外专家同时保持计算成本恒定,我们的模型可以稳定地适应数据分布的变化同时保留先前的知识。与现有的终身学习方法相比,LifelongMoE在19个下游NLP任务上实现了更好的少样本性能。

https://arxiv.org/abs/2305.12281

成为VIP会员查看完整内容
26

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议。 2023年7月23日至29日周六在夏威夷会议中心举行。
【CVPR2023】带有噪声标签的孪生对比学习
专知会员服务
32+阅读 · 2023年3月16日
【CMU博士论文】多语言视觉-语言模型研究,190页pdf
专知会员服务
34+阅读 · 2023年2月15日
【AAAI2023】终身嵌入学习和迁移的知识图谱增长
专知会员服务
19+阅读 · 2022年12月1日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
38+阅读 · 2021年6月11日
专知会员服务
15+阅读 · 2021年6月4日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
EMNLP 2022 | 预训练语言模型的时空效率优化
PaperWeekly
1+阅读 · 2022年11月20日
NAACL 2022 | 基于Prompt的文本生成迁移学习
PaperWeekly
1+阅读 · 2022年8月31日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
多项NLP任务新SOTA,Facebook提出预训练模型BART
机器之心
22+阅读 · 2019年11月4日
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
20+阅读 · 2021年9月21日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
VIP会员
相关VIP内容
【CVPR2023】带有噪声标签的孪生对比学习
专知会员服务
32+阅读 · 2023年3月16日
【CMU博士论文】多语言视觉-语言模型研究,190页pdf
专知会员服务
34+阅读 · 2023年2月15日
【AAAI2023】终身嵌入学习和迁移的知识图谱增长
专知会员服务
19+阅读 · 2022年12月1日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
38+阅读 · 2021年6月11日
专知会员服务
15+阅读 · 2021年6月4日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
相关基金
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员