We propose a new iterative optimization method for the {\bf Data-Fitting} (DF) problem in Machine Learning, e.g. Neural Network (NN) training. The approach relies on {\bf Graphical Model} (GM) representation of the DF problem, where variables are fitting parameters and factors are associated with the Input-Output (IO) data. The GM results in the {\bf Belief Propagation} Equations considered in the {\bf Large Deviation Limit} corresponding to the practically important case when the number of the IO samples is much larger than the number of the fitting parameters. We suggest the {\bf Message Passage Descent} algorithm which relies on the piece-wise-polynomial representation of the model DF function. In contrast with the popular gradient descent and related algorithms our MPD algorithm rely on analytic (not automatic) differentiation, while also (and most importantly) it descents through the rugged DF landscape by \emph{making non local updates of the parameters} at each iteration. The non-locality guarantees that the MPD is not trapped in the local-minima, therefore resulting in better performance than locally-updated algorithms of the gradient-descent type. We illustrate superior performance of the algorithm on a Feed-Forward NN with a single hidden layer and a piece-wise-linear activation function.
翻译:我们为机器学习中的 {bf Data-Fitting} (DF) 问题提出了一个新的迭代优化方法,例如神经网络(NN) 培训。 这种方法依赖于 {bf 图形化模型} (GM) 来代表 DF 问题, 变量是合适的参数和因素, 与输入输出数据相关。 IPD 算法基于解析( 不是自动自动), 而( 最重要的是) \ \emph{ 作出非本地更新参数, 与实际重要案例相对应。 我们建议使用 ~bf 信息传递源的算法, 以 space- 图形化模式 DF 函数的 pace- polomia 代表 (GM ) (GM) 为基础。 与流行的梯度梯度下降和相关算法相比, 我们的 MPD 算法依赖分析( 不是自动) 差异, 而( 最重要的是) 它可以通过 模糊的 DF 地貌 地貌( ) ) 来追溯到 的 DF 地( ) 。 因此, 本地 递增 的 的 递增 的 的 性 将 的 的 的 递增 性 ( WePDPDVA ) 的 的 的 性 的 的 性 的 的 的 演算法 演算法