梯度下降优化多指在机器学习中,在梯度下降的基础上进一步优化梯度,使得以梯度下降为优化方法的模型尽可能加速收敛到全局最小值,是对单纯的梯度下降算法的改进扩展。这些算法有adagrad,adadelta,RMSProp,adam等。点击查看百度解释。
微信扫码咨询专知VIP会员