The universal approximation property (UAP) of neural networks is fundamental for deep learning, and it is well known that wide neural networks are universal approximators of continuous functions within both the $L^p$ norm and the continuous/uniform norm. However, the exact minimum width, $w_{\min}$, for the UAP has not been studied thoroughly. Recently, using a decoder-memorizer-encoder scheme, \citet{Park2021Minimum} found that $w_{\min} = \max(d_x+1,d_y)$ for both the $L^p$-UAP of ReLU networks and the $C$-UAP of ReLU+STEP networks, where $d_x,d_y$ are the input and output dimensions, respectively. In this paper, we consider neural networks with an arbitrary set of activation functions. We prove that both $C$-UAP and $L^p$-UAP for functions on compact domains share a universal lower bound of the minimal width; that is, $w^*_{\min} = \max(d_x,d_y)$. In particular, the critical width, $w^*_{\min}$, for $L^p$-UAP can be achieved by leaky-ReLU networks, provided that the input or output dimension is larger than one. Our construction is based on the approximation power of neural ordinary differential equations and the ability to approximate flow maps by neural networks. The nonmonotone or discontinuous activation functions case and the one-dimensional case are also discussed.
翻译:神经网络的通用近似属性( UAP) 是深层学习的基础, 众所周知, 宽度神经网络是 $L $p$ 标准以及连续/ 统一规范中连续功能的通用近似值。 然而, UAP 的精确最小宽度( $w ⁇ min} 美元) 还没有彻底研究。 最近, 使用解码- 模化- 编码仪( Park2021 Minimum} 方案,\ citet{ Park2021 Umimum} 发现, $w ⁇ =\max (d_x+1, d_y) 普通神经网络的宽度功能, $L+STEP 标准中连续运行的连续功能。 然而, $_p p pol- 常规网络的正常值( UAP) 标准值( 美元) 和 美元流值( $_x 美元) 常规网络的直径( 美元) 和 UAP 常规域域域的运行能力( 美元) 以 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 流流/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 流/ 美元/ 美元/ 流/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 流====/ 流/ 美元/ 美元/ 美元/ 数据/ 流/ 流/ 流/ 流/ 或以 或以 或以 或以 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/ 美元/