Humans can systematically generalize to novel compositions of existing concepts. There have been extensive conjectures into the extent to which neural networks can do the same. Recent arguments supported by evidence on the SCAN dataset claim that neural networks are inherently ineffective in such cognitive capacity. In this paper, we revisit systematic generalization from the perspective of meaningful learning, an exceptional capability of humans to learn new concepts by connecting them with other previously known knowledge. We propose to augment a training dataset in either an inductive or deductive manner to build semantic links between new and old concepts. Our observations on SCAN suggest that, following the meaningful learning principle, modern sequence-to-sequence models, including RNNs, CNNs, and Transformers, can successfully generalize to compositions of new concepts. We further validate our findings on two real-world datasets on semantic parsing and consistent compositional generalization is also observed. Moreover, our experiments demonstrate that both prior knowledge and semantic linking play a key role to achieve systematic generalization. Meanwhile, inductive learning generally works better than deductive learning in our experiments. Finally, we provide an explanation for data augmentation techniques by concluding them into either inductive-based or deductive-based meaningful learning. We hope our findings will encourage excavating existing neural networks' potential in systematic generalization through more advanced learning schemes.


翻译:人类可以系统化地概括现有概念的新构思。 已经对神经网络能够达到的相同程度进行了广泛的推测。 最近得到SCAN数据集声称神经网络在这种认知能力方面本质上是无效的的证据支持的论点。 在本文中,我们从有意义的学习的角度重新审视系统化的概括性概念,这是人类通过与其他已知知识连接来学习新概念的特殊能力。我们提议以感知或推断的方式增加一个培训数据集,以建立新概念和旧概念之间的语义联系。 我们对SCAN的观察表明,根据有意义的学习原则,现代序列到序列模型,包括RNN、CNN和变异器,可以成功地将新概念的构成加以概括化。我们进一步验证我们关于两个真实世界数据集的研究结果,这些数据集与先前已知的语义和一致的构成概略相连接。 此外,我们的实验表明,先前的知识和语义联系对于实现系统化的概括化联系都起着关键作用。 同时,我们对SCANCAN的观察表明,根据有意义的学习通常比在我们的实验中进行推论式式式式学习,而不是在我们的实验中进行神经化的学习。 最后的学习,我们将通过我们现有的学习方法提供一种有意义的深层次的深层次的理论解释。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年6月6日
【CMU】最新深度学习课程, Introduction to Deep Learning
专知会员服务
36+阅读 · 2020年9月12日
元学习(meta learning) 最新进展综述论文
专知会员服务
278+阅读 · 2020年5月8日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年11月25日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
11+阅读 · 2021年3月25日
Arxiv
17+阅读 · 2021年2月15日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关论文
Arxiv
0+阅读 · 2021年11月25日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
11+阅读 · 2021年3月25日
Arxiv
17+阅读 · 2021年2月15日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Top
微信扫码咨询专知VIP会员