在机器学习中,我们通常使用梯度下降(gradient descent)来更新模型参数从而求解。损失函数关于模型参数的梯度指向一个可以降低损失函数值的方向,我们不断地沿着梯度的方向更新模型从而最小化损失函数。虽然梯度计算比较直观,但对于复杂的模型,例如多达数十层的神经网络,手动计算梯度非常困难。
为此MXNet提供autograd包来自动化求导过程。虽然大部分的深度学习框架要求编译计算图来自动求导,mxnet.autograd
可以对正常的命令式程序进行求导,它每次在后端实时创建计算图,从而可以立即得到梯度的计算方法。
下面让我们一步步介绍这个包。我们先导入autograd
。
In [1]:
import mxnet.ndarray as ndimport mxnet.autograd as ag
假设我们想对函数
f=2×x2 求关于
x 的导数。我们先创建变量x
,并赋初值。
In [2]:
x = nd.array([[1, 2], [3, 4]])
当进行求导的时候,我们需要一个地方来存x
的导数,这个可以通过NDArray的方法attach_grad()
来要求系统申请对应的空间。
In [3]:
x.attach_grad()
下面定义f
。默认条件下,MXNet不会自动记录和构建用于求导的计算图,我们需要使用autograd里的record()
函数来显式的要求MXNet记录我们需要求导的程序。
In [4]:
with ag.record(): y = x * 2 z = y * x
接下来我们可以通过z.backward()
来进行求导。如果z
不是一个标量,那么z.backward()
等价于nd.sum(z).backward()
.
In [5]:
z.backward()
现在我们来看求出来的导数是不是正确的。注意到y = x * 2
和z = x * y
,所以z
等价于2 * x * x
。它的导数那么就是:
In [6]:
print('x.grad: ', x.grad)x.grad == 4*x
x.grad: [[ 4. 8.] [ 12. 16.]] <NDArray 2x2 @cpu(0)>
Out[6]:
[[ 1. 1.] [ 1. 1.]] <NDArray 2x2 @cpu(0)>
命令式的编程的一个便利之处是几乎可以对任意的可导程序进行求导,即使里面包含了Python的控制流。考虑下面程序,里面包含控制流for
和if
,但循环迭代的次数和判断语句的执行都是取决于输入的值。不同的输入会导致这个程序的执行不一样。(对于计算图框架来说,这个对应于动态图,就是图的结构会根据输入数据不同而改变)。
In [7]:
def f(a): b = a * 2 while nd.norm(b).asscalar() < 1000: b = b * 2 if nd.sum(b).asscalar() > 0: c = b else: c = 100 * b return c
我们可以跟之前一样使用record
记录和backward
求导。
In [8]:
a = nd.random_normal(shape=3)a.attach_grad()with ag.record(): c = f(a)c.backward()
注意到给定输入a
,其输出 的值取决于输入a
。所以有,我们可以很简单地评估自动求导的导数:
In [9]:
a.grad == c/a
Out[9]:
[ 1. 1. 1.] <NDArray 3 @cpu(0)>
注意:读者可以跳过这一小节,不会影响阅读之后的章节
In [10]:
with ag.record(): y = x * 2 z = y *
xhead_gradient = nd.array([[10, 1.], [.1, .01]])
z.backward(head_gradient)print(x.grad)
[[ 40. 8. ] [ 1.20000005 0.16 ]] <NDArray 2x2 @cpu(0)>
原文:http://zh.gluon.ai/chapter_crashcourse/autograd.html
招聘|AI学院长期招聘AI课程讲师(兼职):日薪5k-10k