受宽神经网络(NNs)理论的启发,核学习和特征学习近期作为两个范式浮现出来,通过它们我们可以实际理解大规模深度学习系统的复杂行为。在文献中,它们通常被描述为二分法的两个对立面,各自具有优点和缺点:核学习与经过深入研究的机器学习技术(如核方法和高斯过程)建立联系,而特征学习则承诺捕捉更多丰富而尚未解释的,独特于神经网络的属性。在这篇论文中,我们介绍了三项研究,研究结合了来自两个角度的见解来研究神经网络的性质,不仅强调它们的差异,而且强调共同点。我们首先回顾了有关深度学习理论的相关文献,重点是宽神经网络的研究。这为核学习和特征学习的讨论提供了背景,基于此,我们继续描述我们的贡献。首先,我们研究了宽神经网络集合与贝叶斯推断之间的关系,利用核学习与高斯过程之间的联系,并提出了一种修改,以解释神经网络函数在初始化时缺失的方差,从而使我们训练过的深度集合具有贝叶斯解释。接下来,我们结合核学习和特征学习来展示特征核的适用性,即通过最终层神经网络特征的内积引导的核,作为知识蒸馏的目标,其中人们寻求使用强大的教师模型来提高弱学生模型的性能。最后,我们探讨自监督学习中折叠特征和白化特征之间的差距,强调特征核中特征值的衰减率作为一项关键量,它弥合了这一差距,并影响下游泛化性能,特别是在标记数据稀缺的情况下。我们以讨论我们的贡献,包括局限性和未来展望,作为结论。

成为VIP会员查看完整内容
56

相关内容

牛津大学是一所英国研究型大学,也是罗素大学集团、英国“G5超级精英大学”,欧洲顶尖大学科英布拉集团、欧洲研究型大学联盟的核心成员。牛津大学培养了众多社会名人,包括了27位英国首相、60位诺贝尔奖得主以及数十位世界各国的皇室成员和政治领袖。2016年9月,泰晤士高等教育发布了2016-2017年度世界大学排名,其中牛津大学排名第一。

【牛津大学博士论文】关系数据的学习和推理,243页pdf
专知会员服务
52+阅读 · 2022年11月16日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员