Despite their great success, neural networks still remain as black-boxes due to the lack of interpretability. Here we propose a new analyzing method, namely the weight pathway analysis (WPA), to make them transparent. We consider weights in pathways that link neurons longitudinally from input neurons to output neurons, or simply weight pathways, as the basic units for understanding a neural network, and decompose a neural network into a series of subnetworks of such weight pathways. A visualization scheme of the subnetworks is presented that gives longitudinal perspectives of the network like radiographs, making the internal structures of the network visible. Impacts of parameter adjustments or structural changes to the network can be visualized via such radiographs. Characteristic maps are established for subnetworks to characterize the enhancement or suppression of the influence of input samples on each output neuron. Using WPA, we discover that neural network store and utilize information in a holographic way, that is, subnetworks encode all training samples in a coherent structure and thus only by investigating the weight pathways can one explore samples stored in the network. Furthermore, with WPA, we reveal fundamental learning modes of a neural network: the linear learning mode and the nonlinear learning mode. The former extracts linearly separable features while the latter extracts linearly inseparable features. The hidden-layer neurons self-organize into different classes for establishing learning modes and for reaching the training goal. The finding of learning modes provides us the theoretical ground for understanding some of the fundamental problems of machine learning, such as the dynamics of learning process, the role of linear and nonlinear neurons, as well as the role of network width and depth.
翻译:神经网络尽管取得了巨大成功, 但由于缺乏解释性, 神经网络仍然是黑盒子。 我们在这里提出一个新的分析方法, 即重量路径分析, 以透明化。 我们考虑将神经从输入神经元到输出神经元的纵向连接到输出神经元或简单的重量路径的路径中的重量, 作为理解神经网络的基本单位, 并且将神经网络分解成一系列具有这种重量路径的子网络。 一个子网络的直观化方案, 使网络的纵向视角, 如射线图, 使网络的内部结构可见。 参数动态调整或网络结构变化的影响可以通过这样的射线图解来视觉化。 我们为子网络设置特征, 描述输入样本对每个输出神经神经的影响的增强或抑制。 我们利用神经网络存储和使用一种全局式的信息, 也就是说, 子网络将所有培训样本的深度编码成一个连贯结构, 从而只能通过对网络内部结构中的内部结构进行透视。 参数调整或网络结构变化的影响可以通过这样的射线结构进行视觉分析。 参数调整的参数调整或结构的模型可以通过这样的透视像学来探索网络中的非网络中存储 。, 我们通过直径网络的深度学习一个基本模式来学习 学习 的深度的深度的深度的深度 学习一个基本模式, 学习, 学习 学习 的深度的深度的深度的深度的深度的深度的深度 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 学习 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 学习 学习 。 学习 。 。 。 。 。 。 。 。 。 。 。 学习 学习 学习 学习 学习 学习 学习 学习 。 。 。 学习 学习 。 。 。 。 。