人工智能(AI)研究人员经常对训练机器学习系统的最佳策略存在分歧,但有一个信念是普遍认可的:人类仍然比机器更擅长学习。与人工智能系统不同,人类不会通过观察独立的和同分布的例子从头开始学习具有挑战性的新任务(例如,解微分方程)。相反,人类通常遵循一系列步骤,使他们能够逐步建立执行这些新任务的必要技能。课程学习(CL)是一项尝试将这种人类学习方法融入机器学习的工作,希望通过这种方式训练的机器可以学习得更快,表现得更好。然而,生物大脑不同于硅大脑,并没有使用已成为机器学习规范的梯度下降法进行训练。那么,我们能指望人类的学习策略对电脑也有效吗?过去20年的各种研究证据表明,在某些情况下,CL确实有利于机器学习,而在另一些情况下,它实际上可能会阻碍性能(Elman, 1993; Rohde and Plaut, 2003; Bengio et al., 2009; Bojar et al., 2017b)。在这篇论文中,我们的目的是发现不同形式的语言学习在哪些问题设置中是有益的,以及它们提供的好处的类型。我们提出以下声明:像人类一样学习的AI系统,从简单的问题开始,逐渐解决越来越难的问题,有潜力达到更好的局部最优和/或更快地收敛。此外,使用课程获得的学习收益取决于课程的选择、数据的大小和类型以及模型架构。

在这项工作中,我们为这种说法提供了证据,并调查了什么类型的数据和模型可以受益于CL。我们首先介绍了CL的定义,并确定了CL方法的三大类。我们进一步提供了文献综述的主要CL方法在过去三十年。此外,我们提出了新的CL方法,并将其应用于各种模型和问题设置,从教学一个LSTM来解决基本的算术问题,到使用变形金刚的神经机器翻译,使用卷积神经网络的图像分类,以及组合多任务学习问题。通过这些实验,我们观察到,如果设计良好,语言学习在某些环境下(如句子等连续数据)是非常有益的,但如果表现不好,它也会损害学习效率(如,如果课程在简单问题上花费太多时间)。最后,我们进行分析,以理解为什么CL会导致观察到的效果。

成为VIP会员查看完整内容
51

相关内容

卡耐基梅隆大学(Carnegie Mellon University)坐落在宾夕法尼亚州的匹兹堡,是一所享誉世界的私立顶级研究型大学,学校面积不大,学科门类不多,但在其所设立的几乎所有专业都居于世界领先水平。卡内基梅隆大学享誉全国的认知心理学、管理和公共关系学、写作和修辞学、应用历史学、哲学和生物科学专业。它的计算机、机器人科学、理学、美术及工业管理都是举世公认的一流专业。
【MIT博士论文】自监督学习语音处理,148页pdf
专知会员服务
51+阅读 · 2022年8月31日
【CMU博士论文】通过记忆的元强化学习,118页pdf
专知会员服务
46+阅读 · 2022年6月23日
专知会员服务
47+阅读 · 2021年9月5日
专知会员服务
62+阅读 · 2021年4月11日
首篇「课程学习(Curriculum Learning)」2021综述论文
专知会员服务
49+阅读 · 2021年1月31日
最新《低资源自然语言处理》综述论文,21页pdf
专知会员服务
59+阅读 · 2020年10月27日
【CMU博士论文】机器人深度强化学习,128页pdf
专知会员服务
128+阅读 · 2020年8月27日
【MIT博士论文】数据高效强化学习,176页pdf
神经网络的基础数学,95页pdf
专知
25+阅读 · 2022年1月23日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
9+阅读 · 2022年1月16日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
学完吴恩达全部深度学习课程,这有一份课程解读
THU数据派
14+阅读 · 2017年10月27日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年10月6日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
126+阅读 · 2020年9月6日
Arxiv
53+阅读 · 2018年12月11日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Arxiv
11+阅读 · 2018年7月31日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关VIP内容
【MIT博士论文】自监督学习语音处理,148页pdf
专知会员服务
51+阅读 · 2022年8月31日
【CMU博士论文】通过记忆的元强化学习,118页pdf
专知会员服务
46+阅读 · 2022年6月23日
专知会员服务
47+阅读 · 2021年9月5日
专知会员服务
62+阅读 · 2021年4月11日
首篇「课程学习(Curriculum Learning)」2021综述论文
专知会员服务
49+阅读 · 2021年1月31日
最新《低资源自然语言处理》综述论文,21页pdf
专知会员服务
59+阅读 · 2020年10月27日
【CMU博士论文】机器人深度强化学习,128页pdf
专知会员服务
128+阅读 · 2020年8月27日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年10月6日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
126+阅读 · 2020年9月6日
Arxiv
53+阅读 · 2018年12月11日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Arxiv
11+阅读 · 2018年7月31日
Arxiv
25+阅读 · 2018年1月24日
微信扫码咨询专知VIP会员