The successes of modern deep neural networks (DNNs) are founded on their ability to transform inputs across multiple layers to build good high-level representations. It is therefore critical to understand this process of representation learning. However, we cannot use standard theoretical approaches involving infinite width limits, as they eliminate representation learning. We therefore develop a new infinite width limit, the representation learning limit, that exhibits representation learning mirroring that in finite-width networks, yet at the same time, remains extremely tractable. For instance, the representation learning limit gives exactly multivariate Gaussian posteriors in deep Gaussian processes with a wide range of kernels, including all isotropic (distance-dependent) kernels. We derive an elegant objective that describes how each network layer learns representations that interpolate between input and output. Finally, we use this limit and objective to develop a flexible, deep generalisation of kernel methods, that we call deep kernel machines (DKMs). We show that DKMs can be scaled to large datasets using methods inspired by inducing point methods from the Gaussian process literature, and we show that DKMs exhibit superior performance to other kernel-based approaches.


翻译:现代深心神经网络(DNNs)的成功基础在于它们能够将投入转换到多个层次,以建立良好的高层代表制,因此理解这一代表性学习过程至关重要。然而,我们不能使用涉及无限宽度的标准理论方法,因为它们消除了代表性学习。因此,我们开发了一个新的无限宽度限制,即代表学习限制,展示了体现在有限宽度网络中,但与此同时仍然极易移动的学习方法。例如,代表性学习限制使深高地高斯进程中的高斯山后座完全具有多变性,具有广泛的内核,包括所有异性(依赖远程的)核心。我们提出了一个优雅的目标,描述了每个网络层如何学习在投入和产出之间相互推导的表达。最后,我们使用这一限制和目标来发展一种灵活、深入的内核方法,我们称之为深内核机器(DKMs)。我们表明,DKMs可以借助从戈西亚进程文献引导出点方法到其他高级的演示,我们展示DKMs。

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
76+阅读 · 2022年6月28日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
11+阅读 · 2022年9月1日
Arxiv
66+阅读 · 2021年6月18日
Arxiv
23+阅读 · 2018年10月1日
VIP会员
相关资讯
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
相关论文
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员