We establish in this work approximation results of deep neural networks for smooth functions measured in Sobolev norms, motivated by recent development of numerical solvers for partial differential equations using deep neural networks. {Our approximation results are nonasymptotic in the sense that the error bounds are explicitly characterized in terms of both the width and depth of the networks simultaneously with all involved constants explicitly determined.} Namely, for $f\in C^s([0,1]^d)$, we show that deep ReLU networks of width $\mathcal{O}(N\log{N})$ and of depth $\mathcal{O}(L\log{L})$ can achieve a nonasymptotic approximation rate of $\mathcal{O}(N^{-2(s-1)/d}L^{-2(s-1)/d})$ with respect to the $\mathcal{W}^{1,p}([0,1]^d)$ norm for $p\in[1,\infty)$. If either the ReLU function or its square is applied as activation functions to construct deep neural networks of width $\mathcal{O}(N\log{N})$ and of depth $\mathcal{O}(L\log{L})$ to approximate $f\in C^s([0,1]^d)$, the approximation rate is $\mathcal{O}(N^{-2(s-n)/d}L^{-2(s-n)/d})$ with respect to the $\mathcal{W}^{n,p}([0,1]^d)$ norm for $p\in[1,\infty)$.
翻译:我们在此建立深神经网络的近似值结果, 用于在 Sobolev 规范中测量的平滑功能, 其动机是最近为使用深神经网络的部分差异方程式开发的数字解析器 。 { 我们的近似值是非亚光度, 其含义是: 以所有所涉的常量同时确定 。}, 也就是说, $\ in C} ([ 0, 1} { { d) 美元, 我们显示, $\ mathal{ O} (N\log{ N} 美元和深度 $\ macal_ cal} 和 $\ mal_ 美元[L\\\\ c} 的不亚光度, $( 1, 1) f_d} 美元( 1, f} 美元( n) 美元( n) (n) 美元( n) 和 美元( n_ 美元) 美元( n=} 美元( L} (L_\\\\\ 美元) 美元( 美元) 内内部运行RUL_ 的功能, 美元( 美元( 美元) 美元( 美元) 美元/ 美元( 至内 内 内 内 内 内( 内( 内) 内( 内( 内) 底) 内( 内) 内) 内( 内) 内( 内( 内( 内( 内) 内) 内( 内) 内) 内) 内( 内( 内) 内) 内( 内( 内( 内( 内) 内) 内( 内) 内( 内( 内( ) 内( 内) 内) 内) 内) 内) 内( 内( 内) 内) 内) 内) 内) 内) 内) 内) 内( 内( 内( 内( 内( 内( 内) 内(内(内) 内) 内) 内) 内) 内) 内) 内(内) 内) 内( 内( 内(内(