14 篇论文为你呈现「迁移学习」研究全貌 | 论文集精选 #04

2017 年 11 月 2 日 PaperWeekly 王晋东

PaperWeekly 是一个 AI 学术分享社区。这里聚集了大批一线 AI 学者,他们用精炼妙语推荐各自发现的优质论文。点击本文底部的阅读原文」即刻加入社区,创建属于你的论文集。

这里是第 4 期论文集精选。

迁移学习对于人类来说,就是掌握举一反三的学习能力。对于计算机而言,所谓迁移学习,就是从一个或多个源任务(source task)中抽取知识和经验,然后将其应用于一个有相关性的目标领域(target domain)

本期我们带来的是由 PaperWeekly 社区用户 @jindongwang 创建的迁移学习专题论文集,通过 14 篇最新和经典论文,带大家了解迁移学习的发展和现状。如果有合你心意的论文,复制链接到浏览器即可查看原文。


Domain adaptation via transfer component analysis

@jindongwang 推荐

#Transfer Learning

迁移学习领域公认的经典工作,作者团队来自香港科技大学 Qiang Yang 教授团队,推荐所有做迁移学习研究的同学都看一看。

论文链接

http://www.paperweekly.site/papers/793

Geodesic flow kernel for unsupervised domain adaptation

@jindongwang 推荐

#Unsupervised Learning

迁移学习领域代表性文章——GFK(Geodesic flow kernel)。GFK 方法首先解决 SGF 的问题:如何确定 source 和 target 路径上中间点的个数。它通过提出一种 kernel 方法,利用路径上的所有点的积分,把这个问题解决了。这是第一个贡献。然后,它又解决了第二个问题:当有多个 source 的时候,我们如何决定使用哪个 source 跟 target 进行迁移?GFK 通过提出 Rank of Domain 度量,度量出跟 target 最近的 source,来解决这个问题。

论文链接

http://www.paperweekly.site/papers/794


Transfer feature learning with joint distribution adaptation

@jindongwang 推荐

#Domain Adaptation

迁移学习领域又一经典文章,是 TCA 的增强版本,推荐读。JDA 方法比较巧妙,同时适配两个分布,然后非常精巧地规到了一个优化目标里。用弱分类器迭代,最后达到了很好的效果,值得我们去学习。

论文链接

http://www.paperweekly.site/papers/795


Unsupervised Domain Adaptation by Backpropagation

@jindongwang 推荐

#Transfer Learning

深度迁移学习经典文章。

论文链接

http://www.paperweekly.site/papers/1035


代码链接

https://github.com/shucunt/domain_adaptation


How transferable are features in deep neural networks?

@jindongwang 推荐

#CNN

探究深度网络的可迁移性质,非常值得读。虽然该论文并没有提出一个创新方法,但是通过实验得到了以下几个结论,对以后的深度学习和深度迁移学习都有着非常高的指导意义。

神经网络的前 3 层基本都是 general feature,进行迁移的效果会比较好;深度迁移网络中加入 fine-tune,效果会提升比较大,可能会比原网络效果还好;Fine-tune 可以比较好地克服数据之间的差异性;深度迁移网络要比随机初始化权重效果好;网络层数的迁移可以加速网络的学习和优化。

论文链接

http://www.paperweekly.site/papers/796

代码链接

https://github.com/yosinski/convnet_transfer


Deep Domain Confusion: Maximizing for Domain Invariance

@jindongwang 推荐

#Deep Learning

深度迁移学习最早期的代表性文章,虽然至今为止不知道发在哪里(一直只是在 arXiv 上),但是引用量很大,算是比较基础性的工作。值得一读。

论文链接

http://www.paperweekly.site/papers/1038


Learning Transferable Features with Deep Adaptation Networks

@jindongwang 推荐

#Transfer Learning

深度适配网络(Deep Adaptation Netowrk,DAN)是清华大学龙明盛提出来的深度迁移学习方法,最初发表于 2015 年的机器学习领域顶级会议 ICML 上。DAN 解决的也是迁移学习和机器学习中经典的 domain adaptation 问题,只不过是以深度网络为载体来进行适配迁移。

论文链接

http://www.paperweekly.site/papers/797


Simultaneous Deep Transfer Across Domains and Tasks

@jindongwang 推荐

#Transfer Learning

传统的深度迁移学习方法只进行 domain confusion,这个文章加入了 task transfer,也就是说,充分考虑到类别之间的相似性。

论文链接

http://www.paperweekly.site/papers/1040


A Unified Framework for Metric Transfer Learning

@jindongwang 推荐

#Transfer Learning

这篇文章的作者团队来自新加坡南洋理工大学,主要老板是 Sinno Jialin Pan,他是迁移学习大牛杨强的学生,《A survey on transfer learning》的第一作者。文章比较新,值得一读。

论文链接

http://www.paperweekly.site/papers/1039


Adversarial Discriminative Domain Adaptation

@corenel 推荐

#Domain Adaptation

ADDA 总结了 DA 领域的总体架构,提纲挈领。

论文链接

http://www.paperweekly.site/papers/690

代码链接

https://github.com/erictzeng/adda

https://github.com/corenel/pytorch-adda


Correlation Alignment by Riemannian Metric for Domain Adaptation

@jindongwang 推荐

#Domain Adaptation

一个比较新的工作,但是创新性比较小:只是将现有的 CoRAL 工作中的距离度量换成了在黎曼空间下的度量。

论文链接

http://www.paperweekly.site/papers/1042


Understanding How Feature Structure Transfers in Transfer Learning

@jindongwang 推荐

#Representation Learning

IJCAI-17 最新文章,理解迁移学习中 feature 是如何进行 transfer 的。有两个大牛 Qiang Yang 和 Dacheng Tao 坐镇,文章肯定不差。

论文链接

http://www.paperweekly.site/papers/1044


Associative Domain Adaptation

@corenel 推荐

#Deep Learning Processor

相比较 ADDA 而言,从很大程度上提升了 DA 的性能,值得一读。

论文链接

http://www.paperweekly.site/papers/686

代码链接

https://github.com/haeusser/learning_by_association


Learning to Transfer

@jindongwang 推荐

#Transfer Learning

迁移学习领域比较新的研究方向,将迁移学习与增量学习结合起来,是开创性的工作。建议一读。

论文链接

http://www.paperweekly.site/papers/1041


本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


▽ 点击 | 阅读原文 | 收藏论文集

登录查看更多
13

相关内容

迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。迁移学习(TL)是机器学习(ML)中的一个研究问题,着重于存储在解决一个问题时获得的知识并将其应用于另一个但相关的问题。例如,在学习识别汽车时获得的知识可以在尝试识别卡车时应用。尽管这两个领域之间的正式联系是有限的,但这一领域的研究与心理学文献关于学习转移的悠久历史有关。从实践的角度来看,为学习新任务而重用或转移先前学习的任务中的信息可能会显着提高强化学习代理的样本效率。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【伯克利-滴滴出行】深度学习多源领域自适应综述论文
专知会员服务
53+阅读 · 2020年2月28日
专知会员服务
85+阅读 · 2020年1月20日
《迁移学习简明手册》,93页pdf
专知会员服务
131+阅读 · 2019年12月9日
新加坡南洋理工最新37页《零样本学习综述》论文
专知会员服务
109+阅读 · 2019年10月20日
博客 | 代码+论文+解析 | 7种常见的迁移学习
AI研习社
8+阅读 · 2019年4月25日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
CVPR 2018 最佳论文解读:探秘任务迁移学习
PaperWeekly
6+阅读 · 2018年6月25日
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
论文 | 2017CIKM - 迁移学习专题论文分享
蚂蚁程序猿
5+阅读 · 2017年12月21日
【回顾】迁移学习的发展和现状
AI研习社
8+阅读 · 2017年11月17日
ACL 2017自然语言处理精选论文解读
人工智能头条
5+阅读 · 2017年9月13日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
Phrase-Based & Neural Unsupervised Machine Translation
Arxiv
9+阅读 · 2016年10月27日
VIP会员
相关VIP内容
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【伯克利-滴滴出行】深度学习多源领域自适应综述论文
专知会员服务
53+阅读 · 2020年2月28日
专知会员服务
85+阅读 · 2020年1月20日
《迁移学习简明手册》,93页pdf
专知会员服务
131+阅读 · 2019年12月9日
新加坡南洋理工最新37页《零样本学习综述》论文
专知会员服务
109+阅读 · 2019年10月20日
相关资讯
博客 | 代码+论文+解析 | 7种常见的迁移学习
AI研习社
8+阅读 · 2019年4月25日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
CVPR 2018 最佳论文解读:探秘任务迁移学习
PaperWeekly
6+阅读 · 2018年6月25日
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
论文 | 2017CIKM - 迁移学习专题论文分享
蚂蚁程序猿
5+阅读 · 2017年12月21日
【回顾】迁移学习的发展和现状
AI研习社
8+阅读 · 2017年11月17日
ACL 2017自然语言处理精选论文解读
人工智能头条
5+阅读 · 2017年9月13日
Top
微信扫码咨询专知VIP会员