传统的机器学习范式在单个任务上训练特定任务模型,已经在许多领域(如计算机视觉和自然语言处理)取得了最先进的性能。为了使机器学习模型具有更广泛的适用性,迁移学习旨在适应从源任务中学习到的知识,以提高在其他目标任务中的表现。然而,现有的迁移学习范式还有待进一步研究,因此我们对其潜在的局限性、潜在的机制以及实现更智能迁移的解决方案的认识有限。特别是,当知识从一个不太相关的来源转移时,可能会对目标性能造成负面影响,这种现象称为负转移。然而,负迁移的原因尚不明确,负迁移如何影响模型的泛化和样本效率也不清楚。在这篇论文中,我们的目标是彻底描述和解决机器学习模型中的负迁移,我们仔细研究了流行的视觉和自然语言处理设置中的负迁移,收集了其原因的见解,并提出了提高泛化和样本效率的解决方案。本文由三个部分组成。第一部分对当前迁移学习模型中的负迁移现象进行了系统的分析。我们在领域适应和多语言自然语言处理模型中正式描述了其条件,并证明任务冲突是负迁移的一个关键因素。在第二部分,我们提出了各种对齐方法,通过更好的对齐表示和梯度解决上述任务冲突,增强可转移模型的泛化。最后,在第三部分,我们探索了有效样本迁移学习算法,使用较少的训练和/或校准数据来缓解负迁移。本文的主要贡献包括对迁移学习中的负迁移问题提出了新的见解,提出了一系列实用的方法和算法,提高了模型的泛化和效率。

https://www.lti.cs.cmu.edu/sites/default/files/wang%2C%20zirui%20-%20final%20thesis.pdf

成为VIP会员查看完整内容
55

相关内容

卡耐基梅隆大学(Carnegie Mellon University)坐落在宾夕法尼亚州的匹兹堡,是一所享誉世界的私立顶级研究型大学,学校面积不大,学科门类不多,但在其所设立的几乎所有专业都居于世界领先水平。卡内基梅隆大学享誉全国的认知心理学、管理和公共关系学、写作和修辞学、应用历史学、哲学和生物科学专业。它的计算机、机器人科学、理学、美术及工业管理都是举世公认的一流专业。
贝叶斯迁移学习: 迁移学习的概率图模型概述
专知会员服务
67+阅读 · 2021年10月17日
【牛津大学博士论文】解释深度神经网络,134页pdf
专知会员服务
216+阅读 · 2020年10月8日
【CMU博士论文Wen Sun】强化学习的泛化性与效率,206页pdf
专知会员服务
91+阅读 · 2020年9月28日
赛尔笔记 | 自然语言处理中的迁移学习(上)
哈工大SCIR
16+阅读 · 2019年10月17日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
迁移学习在深度学习中的应用
专知
23+阅读 · 2017年12月24日
深度 | 迁移学习全面概述:从基本概念到相关研究
七月在线实验室
15+阅读 · 2017年8月15日
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
29+阅读 · 2020年3月16日
Arxiv
23+阅读 · 2018年8月3日
VIP会员
相关基金
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员