Deep neural networks are powerful machines for visual pattern recognition, but reasoning tasks that are easy for humans may still be difficult for neural models. Humans possess the ability to extrapolate reasoning strategies learned on simple problems to solve harder examples, often by thinking for longer. For example, a person who has learned to solve small mazes can easily extend the very same search techniques to solve much larger mazes by spending more time. In computers, this behavior is often achieved through the use of algorithms, which scale to arbitrarily hard problem instances at the cost of more computation. In contrast, the sequential computing budget of feed-forward neural networks is limited by their depth, and networks trained on simple problems have no way of extending their reasoning to accommodate harder problems. In this work, we show that recurrent networks trained to solve simple problems with few recurrent steps can indeed solve much more complex problems simply by performing additional recurrences during inference. We demonstrate this algorithmic behavior of recurrent networks on prefix sum computation, mazes, and chess. In all three domains, networks trained on simple problem instances are able to extend their reasoning abilities at test time simply by "thinking for longer."


翻译:深心神经网络是视觉模式识别的强大机器,但对于神经模型来说,对人来说容易的推理任务可能仍然是困难的。人类有能力对简单问题所学的推理策略进行外推,解决更难的例子,通常要用更长的时间来思考。例如,学会解决小迷宫的人可以很容易地推广同样的搜索技术,通过花更多的时间来解决大得多的迷宫。在计算机中,这种行为往往是通过使用算法来实现的,这种算法可以以更多的计算为代价任意地将问题推到更棘手的情况。相比之下,进向神经网络的顺序计算预算受到深度的限制,而经过简单问题培训的网络无法通过扩展其推理能力来适应更困难的问题。在这项工作中,我们证明经过训练的解决简单问题的经常性网络可以通过在推理过程中进行更多的重复来解决更复杂的问题。我们展示了在前缀和计算、迷宫和下棋方面经常网络的算法行为。在所有三个领域,经过训练的简单问题案例的网络能够仅仅通过“思考更长的时间”来扩大其推理能力。

0
下载
关闭预览

相关内容

强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
5+阅读 · 2019年4月15日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Arxiv
0+阅读 · 2021年7月29日
Arxiv
11+阅读 · 2021年3月25日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
3+阅读 · 2018年10月25日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2019年4月15日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
相关论文
Arxiv
0+阅读 · 2021年7月29日
Arxiv
11+阅读 · 2021年3月25日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
3+阅读 · 2018年10月25日
Top
微信扫码咨询专知VIP会员