Transfer learning aims at improving the performance of target learners on target domains by transferring the knowledge contained in different but related source domains. In this way, the dependence on a large number of target domain data can be reduced for constructing target learners. Due to the wide application prospects, transfer learning has become a popular and promising area in machine learning. Although there are already some valuable and impressive surveys on transfer learning, these surveys introduce approaches in a relatively isolated way and lack the recent advances in transfer learning. As the rapid expansion of the transfer learning area, it is both necessary and challenging to comprehensively review the relevant studies. This survey attempts to connect and systematize the existing transfer learning researches, as well as to summarize and interpret the mechanisms and the strategies in a comprehensive way, which may help readers have a better understanding of the current research status and ideas. Different from previous surveys, this survey paper reviews over forty representative transfer learning approaches from the perspectives of data and model. The applications of transfer learning are also briefly introduced. In order to show the performance of different transfer learning models, twenty representative transfer learning models are used for experiments. The models are performed on three different datasets, i.e., Amazon Reviews, Reuters-21578, and Office-31. And the experimental results demonstrate the importance of selecting appropriate transfer learning models for different applications in practice.


翻译:转让学习的目的是通过转让不同但相关的来源领域所包含的知识,提高目标学习者在目标领域的业绩,通过转让不同但相关的来源领域的知识,提高目标学习者在目标领域的业绩。这样,对大量目标领域数据的依赖可以减少,以构建目标学习者。由于应用前景广阔,转让学习已成为机器学习中一个广受欢迎的、充满希望的领域。虽然已经对转让学习进行了一些宝贵和令人印象深刻的调查,但这些调查采用的方法相对孤立,在转让学习方面缺乏最新进展。随着转让学习领域的迅速扩展,全面审查相关研究既有必要,也具有挑战性。本调查试图将现有的转让学习研究联系起来和系统化,并全面总结和解释各种机制和战略,这有助于读者更好地了解目前的研究状况和想法。不同于以前的调查,本调查文件从数据和模型的角度审查了40多个有代表性的转让学习方法。转让学习方法的应用也得到简要介绍。随着转让学习模式的迅速扩展,将使用20个有代表性的转让学习模式进行实验。这些模型在三种不同的数据集上进行,即亚马孙河流域审查、路透社和31年不同学习成果中的适当选择。

110
下载
关闭预览

相关内容

迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。迁移学习(TL)是机器学习(ML)中的一个研究问题,着重于存储在解决一个问题时获得的知识并将其应用于另一个但相关的问题。例如,在学习识别汽车时获得的知识可以在尝试识别卡车时应用。尽管这两个领域之间的正式联系是有限的,但这一领域的研究与心理学文献关于学习转移的悠久历史有关。从实践的角度来看,为学习新任务而重用或转移先前学习的任务中的信息可能会显着提高强化学习代理的样本效率。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
65+阅读 · 2020年4月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
121+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
116+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
16+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
12+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
11+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
23+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
35+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
9+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
16+阅读 · 2018年5月25日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【推荐】自然语言处理(NLP)指南
机器学习研究会
34+阅读 · 2017年11月17日
【论文】图上的表示学习综述
机器学习研究会
10+阅读 · 2017年9月24日
Anomalous Instance Detection in Deep Learning: A Survey
Arxiv
12+阅读 · 2020年2月6日
Few-shot Learning: A Survey
Arxiv
349+阅读 · 2019年4月10日
Transfer Adaptation Learning: A Decade Survey
Arxiv
34+阅读 · 2019年3月12日
A Comprehensive Survey on Graph Neural Networks
Arxiv
10+阅读 · 2019年3月10日
Arxiv
11+阅读 · 2019年1月16日
Arxiv
46+阅读 · 2018年12月11日
Arxiv
124+阅读 · 2018年10月8日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
16+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
12+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
11+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
23+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
35+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
9+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
16+阅读 · 2018年5月25日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【推荐】自然语言处理(NLP)指南
机器学习研究会
34+阅读 · 2017年11月17日
【论文】图上的表示学习综述
机器学习研究会
10+阅读 · 2017年9月24日
相关论文
Anomalous Instance Detection in Deep Learning: A Survey
Arxiv
12+阅读 · 2020年2月6日
Few-shot Learning: A Survey
Arxiv
349+阅读 · 2019年4月10日
Transfer Adaptation Learning: A Decade Survey
Arxiv
34+阅读 · 2019年3月12日
A Comprehensive Survey on Graph Neural Networks
Arxiv
10+阅读 · 2019年3月10日
Arxiv
11+阅读 · 2019年1月16日
Arxiv
46+阅读 · 2018年12月11日
Arxiv
124+阅读 · 2018年10月8日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Top
微信扫码咨询专知VIP会员