优化算法在机器学习中扮演着至关重要的角色,了解常用的优化算法对于机器学习爱好者和从业者有着重要的意义。
这系列文章先讲述优化算法和机器学习的关系,然后罗列优化算法分类,尤其是机器学习中常用的几类.接下来明确下数学符号,开始按照历史和逻辑顺序,依次介绍各种机器学习中常用的优化算法.
这篇先讲其中基于一阶导数的标准梯度下降法和Momentum,其中穿插学习率退火方法和基于二阶导数的优化算法来辅助说明各算法的意义和背后的想法.
机器学习的过程往往是
优化算法有很多种,常见的包括
机器学习中常用的是基于导数,尤其是基于一阶导数的优化算法,包括
每次迭代的更新为 $\Delta x_t = - \eta* g_t $
标准GD的想法来源于一阶泰勒展开 $f(x_1) = f(x_0) + f'(x)|_{x=x_0} * (x_1 - x_0) + o(x_1-x_0) $.
其中 $o(x_1-x_0)$ 叫做皮亚诺(Peano)余项,当 $x_1 - x_0$ 很小时,这个余项可以忽略不计.
当 $x_1 - x_0$ 和一阶导数也就是梯度相反方向时, 损失函数下降最快.
一个经典的解释是:想象我们从山上下来,每步都沿着坡度最陡的方向.这时,水平面是我们的定义域,海拔是值域.
但GD有两个主要的缺点:
出于考虑1,人们参考了单体优化方法中的模拟退火(Simulated Annealing),学习率随着迭代次数的增加或者损失函数在验证集上的表现变好而衰减(decay). 学习率退化可以直接加在GD上.
AdaGrad等算法(我的一篇知乎文章有介绍)就借鉴了退火的学习率衰减的思想.不过这个不是这篇的重点.
出于考虑2(为每个维度选择合适的$\eta$),基于二阶导数的牛顿法被提出.它来源于泰勒二阶展开.
$f(x_1) = f(x_0) + f'(x)|_{x=x_0} * (x_1 - x_0) + \frac{(x_1-x_0)^2}{2!} f''(x)|_{x={x_0}} + o((x_1-x_0)^2) $.
对于多元函数 x ,
$f(x_1) = f(x_0) + g(x_0) * (x_1 - x_0) + \frac{1}{2!} (x_1-x_0) H(x_0) (x_1-x_0)^t+ o((x_1-x_0)^2) $
其中 $H(x)$ 为Hessian矩阵 有 $H[i, j] = \frac{\partial^2{L}}{\partial{x^i}\partial{x^j}}$ .
这样每次迭代都会考虑损失函数的曲率(二阶导数)来选择步长.对比上图中的标准GD,牛顿法可以一步就到达最优点.
但是牛顿法的计算复杂度很高,因为Hessian矩阵的维度是参数个数的平方,而参数的个数往往很多.
不同的方法随即被提出,比如
Becker和LeCun提出的用对角线元素来代替Hessian全矩阵
依靠历史的梯度信息来模拟二阶方法,包括Momentum,RMSProp(用二阶距来模拟二阶导数),AdaM(用一阶矩和二阶矩的比例来模拟二阶导数)等.
我们先介绍Momentum
借鉴了物理中动量(momentum)的概念,让 $\Delta x_t $保留一部分之前的方向,而不是完全用梯度的负方向.
每次迭代的更新为
$\Delta x_t = - \eta* g_t + \rho * \Delta x_{t-1} $
或
$\Delta x_t = \eta * (\mu * \Delta x_{t-1} - g_t) $
其中$\mu$也可以写成momentum
这样预期可以达到两个效果:
如下图所示,加入了Momentum,前期的训练加快了,靠近低点时也减小了震荡.