几十年来,研究人员一直在追求一个雄心勃勃的目标:设计出能够像人类一样有效地解决问题的计算机模型。人工神经网络——一种通用的、可优化的模型,最初是受到大脑中的生物神经元的启发——似乎提供了一个有希望的答案。然而,当前模型的一个重大限制是,它们往往只可靠地精通它们明确训练过的任务和数据集。如果正在训练多个任务或数据集,则需要适当地混合和平衡样本,以便在连续批次的训练中不会导致前批次学习到的知识的遗忘,这是持续学习的障碍。此外,需要通过成对的输入目标样本使训练网络的关联明确,以实现其在期望任务上的最佳性能;当网络在没有明确目标的情况下以无监督方式进行训练时,为了减少数据收集的成本,网络学到的知识迁移到期望任务的效果明显差于具有明确关联的有监督训练。

所有这些问题都与基本的泛化问题有关,泛化是指尽管面向新类但仍能表现良好的能力。在第二章中,我们讨论了在有监督、无监督和持续学习环境下,可以预期产生良好泛化的条件,包括小模型大小和训练和测试数据之间的相似性。第三章提出了一种预测模型何时不能泛化到测试样本的方法,推导出泛化边界,利用模型大小和与训练数据的相似度来量化预测的可靠性。第四章介绍了一种聚类方法,该方法学习了如何在语义概念之间近似地分离数据,使用的是非监督目标不使用手动标签。第五章包含了一种不需要专门训练数据就可以执行目标定位任务的方法,即通过重新利用显著性映射。第6章包含了一个持续学习的方法,在这个方法中,模型被迫重新考虑之前的知识与新知识并行,第7章使用了一个动态架构来抑制新学习片段对旧知识的干扰。如果没有这些泛化问题的解决方案,神经网络就无法从自然顺序的、没有注释的现实世界数据中实时有效地学习,这限制了它们的部署选项。因此,泛化是一个具有巨大实际意义的问题,从理论上和从生物学启发学习的角度来看都很有趣。

https://ora.ox.ac.uk/objects/uuid:2d7f8f92-d730-40a5-a47c-0acd0998f0d0

成为VIP会员查看完整内容
94

相关内容

牛津大学是一所英国研究型大学,也是罗素大学集团、英国“G5超级精英大学”,欧洲顶尖大学科英布拉集团、欧洲研究型大学联盟的核心成员。牛津大学培养了众多社会名人,包括了27位英国首相、60位诺贝尔奖得主以及数十位世界各国的皇室成员和政治领袖。2016年9月,泰晤士高等教育发布了2016-2017年度世界大学排名,其中牛津大学排名第一。

【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
81+阅读 · 2022年10月19日
【伯克利博士论文】学习在动态环境中泛化,103页pdf
专知会员服务
71+阅读 · 2022年10月12日
【牛津大学博士论文】自监督学习视频理解,143页pdf
专知会员服务
39+阅读 · 2022年10月11日
【牛津大学博士论文】深度迁移学习贝叶斯推断,157页pdf
【牛津大学博士论文】元强化学习的快速自适应,217页pdf
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
10+阅读 · 2021年2月18日
Multi-Domain Multi-Task Rehearsal for Lifelong Learning
Arxiv
12+阅读 · 2020年12月14日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Arxiv
136+阅读 · 2018年10月8日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
10+阅读 · 2021年2月18日
Multi-Domain Multi-Task Rehearsal for Lifelong Learning
Arxiv
12+阅读 · 2020年12月14日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Arxiv
136+阅读 · 2018年10月8日
微信扫码咨询专知VIP会员