梯度下降法的三种形式BGD、SGD以及MBGD

2018 年 1 月 16 日 全球人工智能 Poll的笔记


-欢迎加入AI技术专家社群>>

- 日薪5K-10K招兼职AI讲师>>

在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。

  下面我们以线性回归算法来对三种梯度下降法进行比较。

  一般线性回归函数的假设函数为:

h θ = j = 0 n θ j x j

  对应的能量函数(损失函数)形式为:

J t r a i n ( θ ) = 1 / ( 2 m ) i = 1 m ( h θ ( x ( i ) ) y ( i ) ) 2

  下图为一个二维参数( θ 0