We establish in this work approximation results of deep neural networks for smooth functions measured in Sobolev norms, motivated by recent development of numerical solvers for partial differential equations using deep neural networks. The error bounds are explicitly characterized in terms of both the width and depth of the networks simultaneously. Namely, for $f\in C^s([0,1]^d)$, we show that deep ReLU networks of width $\mathcal{O}(N\log{N})$ and of depth $\mathcal{O}(L\log{L})$ can achieve a non-asymptotic approximation rate of $\mathcal{O}(N^{-2(s-1)/d}L^{-2(s-1)/d})$ with respect to the $\mathcal{W}^{1,p}([0,1]^d)$ norm for $p\in[1,\infty)$. If either the ReLU function or its square is applied as activation functions to construct deep neural networks of width $\mathcal{O}(N\log{N})$ and of depth $\mathcal{O}(L\log{L})$ to approximate $f\in C^s([0,1]^d)$, the non-asymptotic approximation rate is $\mathcal{O}(N^{-2(s-n)/d}L^{-2(s-n)/d})$ with respect to the $\mathcal{W}^{n,p}([0,1]^d)$ norm for $p\in[1,\infty)$.
翻译:我们在此工作中为在Sobolev 规范中测量的光功能建立深神经网络的深度神经网络近近结果, 其动因是最近利用深神经网络为部分差异方程开发了数字求解器, 使用深神经网络的深度和深度同时, 错误的界限以网络的宽度和深度来明确标出。 也就是说, 我们在这个工作中为在C__( 0. 1美元) 美元( 01, 1美元 美元) 美元( (N\log{ (N\log{ ) 美元) 和深度 $( 罗马) $( 罗马) 美元( N) 美元( N) 美元( N) 美元( N) 美元( N) 美元( N) 美元( N) 美元( 美元( N) 美元( ) 美元( 美元( ) 美元( ) 美元( 美元( ) 美元( ) 美元( ) 美元( f) 美元( 美元( ) 美元( ) 美元( 美元( 美元) 美元( 美元) 美元( 美元) 美元( 美元) 美元( 美元) 美元( 美元( 美元) 美元) 美元( ) 美元( ) ) 美元( ) 美元( ) 美元( 美元) ) 美元( 美元( 美元) 美元( 美元( 美元) ) 美元( 美元) 美元( 美元( 美元) ) ) ( 美元( ) 美元( ) ( ) ( ) ( ) ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ) ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) (