自深度学习革命以来,机器学习文献中的一个总体趋势是大型深度模型将持续优于小型浅模型。然而,这种趋势也带来了计算需求不断增加的缺点,最近许多最先进的成果所需的资源远远超出了顶级行业实验室的范围。这些问题引发了关于机器学习研究民主化的非常现实的担忧,如果不加以解决,最终可能会导致更多的权力和财富集中在今天能够向其人工智能研究项目投资巨额资金的机构中。

迁移学习技术是这些问题的潜在解决方案,它允许大型的、通用的模型经过一次训练,然后在各种情况下重用,只需要最少的计算来适应它们。本文探索了迁移学习的新算法和应用,包括分层强化学习、生成式建模和计算社会科学等领域。在分层强化学习领域内,本文提出一种算法,允许在选项之间迁移(即在不同的选项之间迁移)。例如,时间上抽象的动作),用于独立但相似的任务。在生成建模领域,我们提出了一种算法,可以在新的数据上重用现有的可逆生成模型,而不产生任何额外的训练成本。最后,在计算社会科学领域,本文表明,可以从人类设计的模型中迁移知识,以检测针对排名算法的恶意活动。

在这篇论文中提出的所有算法之间的共同线索是它们本质上是贝叶斯的。我们认为,贝叶斯范式自然适合于迁移学习应用,因为贝叶斯先验可以作为适应性强的通用模型,通过推理过程可以转换为特定任务的后验。

成为VIP会员查看完整内容
75

相关内容

牛津大学是一所英国研究型大学,也是罗素大学集团、英国“G5超级精英大学”,欧洲顶尖大学科英布拉集团、欧洲研究型大学联盟的核心成员。牛津大学培养了众多社会名人,包括了27位英国首相、60位诺贝尔奖得主以及数十位世界各国的皇室成员和政治领袖。2016年9月,泰晤士高等教育发布了2016-2017年度世界大学排名,其中牛津大学排名第一。

【牛津大学博士论文】深度学习临床前药物发现
专知会员服务
50+阅读 · 2022年9月30日
【牛津大学博士论文】元强化学习的快速自适应,217页pdf
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
《多任务学习》最新综述论文,20页pdf
专知会员服务
123+阅读 · 2021年4月6日
【牛津大学博士论文】解释深度神经网络,134页pdf
专知会员服务
216+阅读 · 2020年10月8日
南大最新综述论文:基于模型的强化学习
新智元
8+阅读 · 2022年8月1日
【牛津大学】多级蒙特卡洛方法,70页pdf
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
9+阅读 · 2022年1月16日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年11月2日
Arxiv
45+阅读 · 2022年9月19日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
17+阅读 · 2019年3月28日
VIP会员
相关VIP内容
【牛津大学博士论文】深度学习临床前药物发现
专知会员服务
50+阅读 · 2022年9月30日
【牛津大学博士论文】元强化学习的快速自适应,217页pdf
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
《多任务学习》最新综述论文,20页pdf
专知会员服务
123+阅读 · 2021年4月6日
【牛津大学博士论文】解释深度神经网络,134页pdf
专知会员服务
216+阅读 · 2020年10月8日
相关基金
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员