通过对异构任务的预训练深度神经网络(PR-DNNs)中编码的知识之间的内在联系,揭示了它们之间的互换性,从而使知识从一个任务转移到另一个任务,从而减少后者的训练工作量。本文提出了深度归因图(depa)来研究从PR-DNNs中学习到的知识的可转移性。在DEPARA中,节点对应于输入,并由与PR-DNN输出相关的向量化属性映射表示。边缘表示输入之间的相关性,并通过从PR-DNN中提取的特征的相似性来度量。两种PR-DNNs的知识转移能力是通过其对应基因间的相似性来衡量的。我们将DEPARA应用于转移学习中两个重要但尚未研究的问题:预先训练的模型选择和层选择。大量的实验证明了所提出的方法在解决这两个问题上的有效性和优越性。复制本文结果的代码、数据和模型可以在

成为VIP会员查看完整内容
26

相关内容

CVPR is the premier annual computer vision event comprising the main conference and several co-located workshops and short courses. With its high quality and low cost, it provides an exceptional value for students, academics and industry researchers. CVPR 2020 will take place at The Washington State Convention Center in Seattle, WA, from June 16 to June 20, 2020. http://cvpr2020.thecvf.com/
专知会员服务
111+阅读 · 2020年6月26日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
技术动态 | 跨句多元关系抽取
开放知识图谱
50+阅读 · 2019年10月24日
赛尔原创 | EMNLP 2019 常识信息增强的事件表示学习
哈工大SCIR
28+阅读 · 2019年9月12日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
论文浅尝 | 基于属性嵌入的知识图谱间实体对齐方法
开放知识图谱
30+阅读 · 2019年3月26日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
5+阅读 · 2017年10月27日
VIP会员
相关VIP内容
专知会员服务
111+阅读 · 2020年6月26日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
相关资讯
【NeurIPS2019】图变换网络:Graph Transformer Network
技术动态 | 跨句多元关系抽取
开放知识图谱
50+阅读 · 2019年10月24日
赛尔原创 | EMNLP 2019 常识信息增强的事件表示学习
哈工大SCIR
28+阅读 · 2019年9月12日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
论文浅尝 | 基于属性嵌入的知识图谱间实体对齐方法
开放知识图谱
30+阅读 · 2019年3月26日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
微信扫码咨询专知VIP会员