This paper is concerned with the asymptotic distribution of the largest eigenvalues for some nonlinear random matrix ensemble stemming from the study of neural networks. More precisely we consider $M= \frac{1}{m} YY^\top$ with $Y=f(WX)$ where $W$ and $X$ are random rectangular matrices with i.i.d. centered entries. This models the data covariance matrix or the Conjugate Kernel of a single layered random Feed-Forward Neural Network. The function $f$ is applied entrywise and can be seen as the activation function of the neural network. We show that the largest eigenvalue has the same limit (in probability) as that of some well-known linear random matrix ensembles. In particular, we relate the asymptotic limit of the largest eigenvalue for the nonlinear model to that of an information-plus-noise random matrix, establishing a possible phase transition depending on the function $f$ and the distribution of $W$ and $X$. This may be of interest for applications to machine learning.
翻译:本文关注神经网络研究产生的非线性随机矩阵总和中一些非线性随机矩阵总和的最大二次值的无线分布。 更准确地说, 我们考虑的是美元= \ frac{ 1 ⁇ m} YY ⁇ top$ 和 $Y=f( WX)$( WX)$( WX)$和$X$是随机矩形矩阵, 与 i. i. d. 中心条目有关。 这个模型是数据共变矩阵或单层随机进料前神经网络的共振核心。 函数$f是应用的条目, 并且可以被视为神经网络的启动功能。 我们显示, 最大的一次双向值与一些众所周知的线性随机矩阵的上限( 概率) 相同。 特别是, 我们把非线性模型的最大双倍值的无线性限与信息加线性随机矩阵的上限联系起来, 建立可能的阶段过渡取决于 $f$, 和 $W 和 $X 美元 美元 的分布 。 这也许是用于学习应用 机器的兴趣 。