对梯度概念的直观理解

2017-10-15 19:36:51 +08:00
 metaquant

这几天看机器相关的书籍,对一些概念有了新的理解,分享给大家,欢迎大家批评指正。

V2EX 似乎不能显示 Latex,可以在以下两个网址查看原文:

以下为正文:


在机器学习中,我们通常需要对问题进行建模,然后可以得到一个成本函数(cost function),通过对这个成本函数进行最小化,我们可以得到我们所需要的参数,从而得到具体的模型。这些优化问题中,只有少部分可以得到解析解(如最小二乘法),而大部分这类优化问题只能迭代求解,而迭代求解中两种最常用的方法即梯度下降法与牛顿法。为了使用这两种方法,我们需要计算成本函数的梯度与海森矩阵,这篇文章简要说明了如何使用 python 的符号计算库 sympy 来计算特定函数的梯度与海森矩阵,求解机器学习中的最优化问题。

对梯度的直观理解

梯度概念是建立在偏导数与方向导数概念基础上的。所谓偏导数,简单来说是对于一个多元函数,选定一个自变量并让其他自变量保持不变,只考察因变量与选定自变量的变化关系。数学上说,是指对于多元函数$$y=f(x_1,x_2,...x_n)$$,假设其偏导数都存在,则该函数共有$$n$$个偏导数,可以表示为:

$$ {f_{{x_1}}} = {{\partial y} \over {\partial {x_1}}},{f_{{x_2}}} = {{\partial y} \over {\partial {x_2}}}...{f_{{x_n}}} = {{\partial y} \over {\partial {x_n}}} $$

偏导数只能表示多元函数沿某个坐标轴方向的导数,如对于二元函数$$z=x^2+y^2$$ ,$${{\partial z} \over {\partial x}} = 2x$$表示函数沿$$X$$轴方向的导数,而$${{\partial z} \over {\partial y}} = 2y$$表示函数沿$$Y$$轴方向的导数。

除开沿坐标轴方向上的导数,多元函数在非坐标轴方向上也可以求导数,这种导数称为方向导数。很容易发现,多元函数在特定点的方向导数有无穷多个,表示函数值在各个方向上的增长速度。一个很自然的问题是:在这些方向导数中,是否存在一个最大的方向导数,如果有,其值是否唯一?为了回答这个问题,便需要引入梯度的概念。

一般来说,梯度可以定义为一个函数的全部偏导数构成的向量(这一点与偏导数与方向导数不同,两者都为标量)。一般将函数$$f$$的梯度记为$$\nabla f$$,即:

事实上,梯度向量的方向即为函数值增长最快的方向,为什么会如此,可以从几个角度去理解。

在上图中,我们可以看到,为了找到方向导数中的最大值,我们可以将其投影到$$xy$$平面来理解,这种投影方式对应的便是等高线图。如对于一个二元函数$$z=f(x,y)$$,我们可以画出它的等高线图如下:

该函数的等高线图为圆心在原点的一系列圆,等高线的值由里向外逐渐增加。点$$B(x,y)$$为点$$(x,y,z)$$在$$xy$$平面上的投影,可以看到向量$$\vec{AB} $$即为函数在点$$(x,y,z)$$处的梯度向量。根据方向导数的定义,方向导数$${D_u}f = {f_x}\cos \theta + {f_y}\sin \theta $$,其中$$\theta $$为此向量与$$X$$正方向的夹角。由于梯度向量为$$u = ({f_x},{f_y})$$,单位向量$$w = (cos\theta ,\sin \theta )$$,则方向导数的大小可以表述为梯度向量与此单位向量的数量积,即:

$$ {D_u}f = {f_x}\cos \theta + {f_y}\sin \theta = \vec u \cdot \vec w = |u| \cdot |w| \cdot \cos \alpha = |u| \cdot \cos \alpha $$

其中$$\alpha $$为梯度向量与单位向量之间的夹角,即$$\angle BAD$$。可以看出,方向导数的大小可以看作梯度向量在指示方向导数方向的单位向量上的投影,即线段$$AE$$的长度。显而易见,线段$$AE$$的长度小于线段$$AB$$的长度,也即梯度向量的模总是大于等于方向导数向量的模。这就解释了为什么沿着梯度向量方向是函数值增长最快的方向,而它正是函数所有偏导数构成的向量。

在上图中也可以看出,梯度向量垂直于等高线,这为我们提供了另一个观察梯度向量的角度。如对于函数$$f(x,y) = xy$$,其等高线图与梯度向量如下:

我们可以两个角度考虑:第一,在特定函数点,固定每次移动的步长,向那个方向移动函数值增长最快?第二,固定需要增加的函数值,向哪个方向需要移动的步长最短?

在左图中,固定移动的步长,我们可以看到垂直于等高线图的方向即为函数值增长最快的方向,也就是梯度向量指示的方向。在右图中,假设函数值有一个固定的微小的增长,则明显梯度向量指示的方向所需要的步长最短,而这个向量也是垂直于等高线的。

梯度下降或上升法正是基于梯度指示函数值增长最快的方向而产生的,利用这个方法,我们可以使用迭代的方法计算函数的最大或最小值,从而解决机器学习中遇到的最优化问题。

使用 sympy 计算函数的梯度与海森矩阵

sympy 是 python 的开源符号计算库,它的主要功能与 Mathematica 类似,但相比于 Mathematica 它也有一些优势:它是免费的,而 Mathematica 相当昂贵;轻量,对于日常符号计算,它提供的功能已经够用,而安装起来也很容易;它是一个 python 库,这意味着你可以与你其它的 python 程序一起使用,任意扩展它的功能。对于 sympy 的使用,完整的介绍可以阅读它的文档,这里只简要介绍它的基本用法。

与 mathematica 不同,sympy 在使用符号前需要先创建,如下:

from sympy import *
x, y, z = symbols('x y z')

然后你可以利用这些符号创建其它的表达式,如函数$$f(x,y) = {x^2} + {y^2}$$:

f = x^2 + y^2

你可以利用这个表达式生成新的表达式:

g = f + 1
h = f**2

则$$g(x,y) = {x^2} + {y^2} + 1$$,而$$h(x,y)=x^{4} + 2 x^{2} y^{2} + y^{4}$$。我们可以求函数的微分:

diff(f,x)
diff(f,y)
diff(f,x,x)
diff(f,x,2)

分别表示$${{\partial f} \over {\partial x}}$$,$${{\partial f} \over {\partial y}}$$,$${{{\partial ^2}f} \over {\partial {x^2}}}$$,$${{{\partial ^2}f} \over {\partial {x^2}}}$$,可以看出二阶导数可以有两种写法。

当我们求出表达式后,我们可能想要代入数值计算,这可以使用lambdify函数来实现:

u = lambdify((x,y),f)
u(1,1)

这表示$$f(1,1) = 2$$。

为了求函数的梯度与海森矩阵,我们需要引入向量微分的概念,即我们可以将梯度看作一个数量函数对自变量向量的上阶导数,而海森矩阵为数量函数对自变量量向量的二阶导数,设函数为$$f({x_1},{x_2},{x_3}, \cdots {x_n})$$,则自变量向量为$$\vec x = ({x_1},{x_2},{x_3}, \cdots {x_n})$$,则梯度与海森矩阵可以分别表述为$$\nabla f = {{df} \over {d\vec x }}$$与$$H = {{{d^2}f} \over {d{{\vec x }^2}}}$$。

在 sympy 中,可以通过函数derive_by_array实现上述计算:

from sympy.tensor.array import derive_by_array
grad = Matrix(derive_by_array(f,(x,y)))
hessian = Matrix(derive_by_array(grad,(x,y))).reshpae(2,2)

其中Matrix类可以将结果表达为 sympy 中的矩阵形式。上面的计算结果分别为:$$\nabla f=\left[\begin{matrix}2 x\2 y\end{matrix}\right]$$, $$H=\left[\begin{matrix}2 & 0\0 & 2\end{matrix}\right]$$,分别为函数的梯度向量与海森矩阵。

为了简化计算梯度与海森矩阵的代码,可以编写一个自定义函数对相应功能进行封装,如下:

def grad(f,*args):
    from sympy.tensor.array import derive_by_array
    gradient = Matrix(derive_by_array(f,args))
    return gradient

def hessian(f,*args):
    from sympy.tensor.array import derive_by_array
    n = len(args)
    gradient = Matrix(derive_by_array(f,args))
    hessian = Matrix(derive_by_array(gradient, args)).reshape(n,n)
    return hessian 

如对于函数$$f(x,y) = {e^{xy}} + \sin (x + 2z) - {z^3}$$,则有:

grad(f,x,y,z)
hessian(f,x,y,z)

则梯度为:

$$ \nabla f=\left[\begin{matrix}y e^{x y} + \cos{\left (x + 2 z \right )}\x e^{x y}\- 3 z^{2} + 2 \cos{\left (x + 2 z \right )}\end{matrix}\right] $$

则海森矩阵为:

$$ H=\left[\begin{matrix}y^{2} e^{x y} - \sin{\left (x + 2 z \right )} & x y e^{x y} + e^{x y} & - 2 \sin{\left (x + 2 z \right )}\x y e^{x y} + e^{x y} & x^{2} e^{x y} & 0\- 2 \sin{\left (x + 2 z \right )} & 0 & - 6 z - 4 \sin{\left (x + 2 z \right )}\end{matrix}\right] $$

可以看出,使用 sympy 计算函数的梯度与海森矩阵相当便捷,省去了繁琐易错的手工微分过程。对于以上计算结果,我们只需要使用lambdify函数代入数值就可以得到梯度向量与海森矩阵的数值结果,从而为实现梯度下降法与牛顿法提供基础。

23000 次点击
所在节点    分享发现
5 条回复
facetest
2017-10-15 20:10:20 +08:00
lz 上 /下过坡吗,那才叫直观
Morriaty
2017-10-16 11:34:43 +08:00
梯度需要理解吗,知道导数、斜率,梯度不是自然而然的事情吗.......
piedpipper
2017-10-16 12:42:45 +08:00
@Morriaty 会算梯度很自然,但是梯度表示函数增长最快的方向这一点并不是那么自然,楼主其实是想说明后面这个问题
wizardforcel
2017-10-16 13:05:29 +08:00
@piedpipper 这我用两句话就能给你说明白。

增长最快方向是使方向导数最大的方向。方向导数等于梯度的模乘上梯度和方向的夹角余弦。对于一个点,梯度已经固定了,所以只能让余弦值等于 1,也就是夹角等于 0。
Morriaty
2017-10-16 14:03:02 +08:00
@piedpipper 我说的不是会算,而是物理意义直观,导数是变化率。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/397822

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX