现代机器学习(ML)的核心是高维函数的近似。传统的方法,如用分段多项式、小波或其他固定基函数的线性组合进行逼近,都面临着维数(CoD)的问题。我们将提供ML的数学观点,集中在CoD的问题。我们将讨论三个主要问题: 现代ML模型的近似理论和误差分析,梯度下降算法的动力学和定性行为,以及从连续观点的ML。我们将看到,在连续的水平上,ML可以被表示为一系列合理的漂亮的变分和类似于方程的问题。现代的ML模型/算法,如随机特征模型和两层残差神经网络模型,都可以看作是这类连续问题的特殊离散化。我们还将提供一个适合分析高维ML模型和算法的框架,并提供无CoD的结果。最后,我们将讨论现代ML成功的基本原因,以及仍有待理解的微妙和神秘之处。