Most stochastic gradient descent algorithms can optimize neural networks that are sub-differentiable in their parameters, which requires their activation function to exhibit a degree of continuity. However, this continuity constraint on the activation function prevents these neural models from uniformly approximating discontinuous functions. In this paper, we focus on the case where the discontinuities arise from distinct sub-patterns, each defined on different parts of the input space. Learning such a function involves identifying the partition of the input space, where each part describes a single continuous sub-pattern of the target function, and then uniformly approximating each of these sub-patterns individually. We propose a new discontinuous deep neural network model trainable via a decoupled two-step procedure that avoids passing gradient updates through the network's non-differentiable unit. We provide universal approximation guarantees for our architecture. These include a guarantee that its partition component can approximate any partition of the input space in the upper-Kuratowski sense and a guarantee that our architecture is dense in a large non-separable space of discontinuous functions. Quantitative approximation rates and guarantees for the learnability of a performance-optimizing partition are provided. The performance of our architecture is evaluated using the California Housing Market Dataset.


翻译:多数随机梯度梯度下降算法可以优化在参数上可分化的神经网络,这就要求其激活功能表现出一定程度的连续性。然而,激活功能的这种连续性限制使得这些神经模型无法统一接近不连续功能。在本文中,我们侧重于以下情况:不连续现象是由不同的子模式产生的,每个子模式都针对输入空间的不同部分。学习这样一个功能涉及确定输入空间的分区,其中每个部分描述目标功能的单一连续子模式,然后统一地对每个子模式进行单独接近。我们提议一个新的不连续的深神经网络模型,可以通过分解两步程序进行训练,避免通过网络的无差异单位通过梯度更新。我们为我们的结构提供了普遍近距离保证。其中包括保证其分隔部分能够接近上库拉托夫斯基感上方空间的任何分隔,并保证我们的建筑在不连续功能的大型非隔离空间中密度不固定。QOVALI 精确率和保证通过网络无差异单元进行业绩评估。

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
专知会员服务
42+阅读 · 2020年12月18日
专知会员服务
50+阅读 · 2020年12月14日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
已删除
创业邦杂志
5+阅读 · 2019年3月27日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
14+阅读 · 2020年12月17日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
已删除
创业邦杂志
5+阅读 · 2019年3月27日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Arxiv
18+阅读 · 2021年3月16日
Arxiv
14+阅读 · 2020年12月17日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
5+阅读 · 2017年12月14日
Top
微信扫码咨询专知VIP会员