.梯度下降是优化神经网络和许多其他机器学习算法的首选方法。本文将介绍各种基于梯度下降的优化器,如 Momentum,Adagrad 以及 Adam 的具体细节
本文将讲解以下概念:
? 在微积分中,函数 在点 上的导数定义为: ,这在几何上指的是函数 在点 处的切线方向。为了计算某个函数 的最值,通常都会计算它的导函数 ,当 时得到函数的极值点( , 且 ) 。但是临界点并不一定是全局最大值或者全局最小值,甚至不是局部的最大值或者局部最小值(如鞍点)。
从 Taylor 级数的角度来看, 在 附近的 Taylor 级数(皮亚诺余项)是:
若 为临界点,则其满足条件: 。当 时,可以得到 是 的局部最小值;当 时,可以得到 是 的局部最大值。而对于上面的例子 而言,临界点 0 的二阶导数则是 ,因此使用上面的方法则无法判断临界点 0 是否是局部极值。
? 对于多元函数 而言,同样可以计算它们的“导数”,也就是偏导数和梯度。梯度可以定义为:
而多元函数 在点 上的 Taylor 级数(皮亚诺余项)为:
其中 表示黑塞矩阵(Hessian Matrix)。如果 为临界点,并且黑塞矩阵为正定矩阵时, 在 处达到局部极小值。
? 梯度下降法基于以下定义:如果实值函数 在点 处可微且有定义,那么函数 在 点沿着梯度相反的方向 下降最多。
? 因而,如果 对于 且 时成立,那么 。故我们可以从函数 的局部极小值的初始估计 出发,并依次可得到如下序列 使得 因此可得到 ,如果顺利的话序列()收敛到期望的局部极小值,值得注意的是迭代步长 并不是定值。
? 上图示例展示这一过程,这里假设 定义在平面上,并且函数图像是一个碗形。蓝色的曲线是等高线,即函数 为常数的集合构成的曲线。红色的箭头指向该点梯度的反方向。(一点处的梯度方向与通过该点的等高线垂直)。沿着梯度下降方向,将最终到达碗底,即函数 局部极小值的点。
? 在神经网络中,梯度下降给调整网络参数提供了一种可行的方法。初始权重和偏置可解释为单个向量 ,理论上迭代步骤可以用来确定模型的最佳参数 。实际上我们试图最小化的函数是根据整个数据集 来定义的:,其中 表示使用参数向量 时,数据集元素 的损失。
? 总的来说,梯度下降是一种通过更新模型中参数 来最小化 的方法(通过计算目标函数梯度 ,并反向更新参数)。学习率 决定了我们为了达到(局部)最小数而采取的跨度大小。
? 梯度下降有 3 种变体,它们在计算目标函数的梯度所用的数据量方面有所差异。根据数据量的大小,我们在参数更新的准确性和执行时间之间进行权衡。
? Batch Gradient Descent 通过计算参数 关于整个训练集的损失函数的梯度
? 但由于我们需要计算整个数据集来执行一次梯度更新,因此 Batch Gradient Descent 可能非常缓慢,并且对于大型数据集(大于内存大小)的训练将会变得十分棘手。此外 Batch Gradient Descent 也不允许我们在线更新模型。
for i in range(nb_epochs):
params_grad=evaluate_gradient(loss_function, data, params)
params=params - learning_rate * params_grad
以上为 Batch Gradient Descent 的简单代码示例。其中我们预定义 epoch 数量,首先计算参数 params
关于损失函数对整个数据集的梯度向量 params_grad
(大多数深度学习库都提供了自动微分可有效计算一些参数的梯度)。然后我们以梯度相反的反向更新参数,学习率learning_rate
决定了我们每次更新速度。对于 Convex Error Surface 而言 Batch Gradient Descent 可以保证收敛到全局最小值,对于 Non-convex Surface 则可以保证收敛到局部最小值。
? 与 Batch Gradient Descent 相对应的是 Sotchastic Gradient Descent ,其为每个训练样本 和标签 执行参数更新: ( 文中其余部分为了简单起见,省略了参数 )
? Batch Gradient Descent 对大型数据集有大量的冗余计算,因为它会在每个参数更新前重新计算相似的梯度。而 SGD 针对每个样本进行一次参数更新。由于 SGD 频繁执行更新,且变化很大,这导致目标函数震荡十分剧烈。(下图来源:维基百科)
当 Batch Gradient Descent 下降收敛到参数某个局部最小值时不再继续收敛。而 SGD 的不稳定性使得有收敛到更好的局部最小值的可能性( 收敛的过程也因此变得过分复杂)。已经表明,当缓慢降低学习率时,SGD 会显示与 Batch Gradient Descent 相同的收敛行为,对于非凸优化和凸优化,它们分别收敛到局部最小值和全局最小值。
for i in range(nb_epochs):
np.random.shuffle(data)
for example in data:
params_grad=evaluate_gradient(loss_function, example, params)
params=params - learning_rate * params_grad
? 上段代码只是增加了一端循环计算损失函数在每个样本上的梯度。
? Mini-batch Gradient Descent 同时兼顾了上述两种方法的优势,针对 个训练样本的 mini-batch? 计算损失进行参数梯度更新:
? 其优点在于:
? 常见 mini-batch 大小在 50 至 256 之间,但会因不同的应用场景而有所不同。训练神经网络时,通常选择 min-batch(而当使用 mini-batch 时,通常也使用术语 SGD )。
注意:在下文的改进的SGD中,为了简单,我们省略了参数 。
以下是大小为 50 的 mini-batch? 示例代码:
for i in range(nb_epochs):
np.random.shuffle(data)
for batch in get_batches(data, batch_size=50):
params_grad=evaluate_gradient(loss_function, batch, params)
params=params - learning_rate * params_grad
? Mini-batch Gradient Descent 虽然具有综合优势,但其并不能保证良好的收敛性,其还有一些需要解决的挑战:
? 接下来,我们将讨论一些广泛使用的算法来应对上述挑战。但我们并不会讨论在实际中无法应用于高维数据集的算法,例如二阶算法(如牛顿法)。
? 我们将最小化目标函数的任务比作从坡顶到坡底的过程。SGD 难以在沟壑中有效移动,在局部上有些维度上的弯曲程度要比正确下降维度要陡峭得多,这在局部最优的情况下很常见。这些情况下,SGD 会在山坡上震荡,沿着底部最优的方向缓慢下降,如下图所示。
Momentum 通过将上一个步骤的权重更新向量乘以 momentum 参数 加在当前权重更新向量上达到了在相关方向上加速 SGD 并抑制振荡。
通常 momentum 参数 设置为 0.9 。与 SGD 相比较,Momentum 轨迹如下图所示:
? 本质上,当使用 Momentum 时,我们可以将该过程比作将球推下山坡的过程。球在下坡滚动时会积累动量,并且在途中越来越快(如果存在空气阻力,即 ,直到达到最终速度)。我们的参数更新也发生了同样的事情:动量参数对于梯度相同方向进行促进,而在梯度改变方向进行抑制。最终,我们获得了更快的收敛并减少了振荡。
? 然而,从山上滚下来的球盲目地跟随斜坡是不尽如人意的。我们希望有一个更聪明达到球,能够知道在坡度变大之前放慢速度。
? NAG 是一种能够给动量上述能力的方法。我们知道我们使用动量项 跟新参数 。因此,计算 可得出参数下一个位置的近似值(还缺少梯度)。通过计算关于参数未来的近似位置的梯度,而不是关于当前的参数 的梯度,我们可以高效的求解:
? 同样,我们设置动量项 大约为 0.9。Momentum (下图蓝色向量)首先计算当前的梯度值,然后再更新累积梯度方向上前进,NAG 首先在先前累积梯度(棕色向量)方向上前进一大步,计算梯度值,然后做一个修正(红色向量),从而完成 NAG 更新(绿色向量)。这个具有预见性的更新防止我们前进得太快,同时增强了算法的响应能力,这一点在很多的任务中对于RNN的性能提升有着重要的意义。
? 有关 NAG 更多直观的解释,可以参考 https://cs231n.github.io/neural-networks-3/
? 现在我们能够根据损失函数的斜率调整我们的更新得以加速 SGD ,接下来我们希望根据每个参数的重要性调整我们的更新以执行更大或更小的更新。
? Adagrad 是一种基于梯度的优化算法,它具体是通过学习率适应参数:低学习率执行较小的更新(与频繁出现的特征相关联的参数),高学习率执行较大更新(与不常见特征相关联的参数)。因此,它非常适合处理稀疏数据。Dean 等人发现 Adagrad 可以极大提高 SGD 的鲁棒性,并将其用于训练 Google 的大规模神经网络,包括识别 Youtube 视频中的猫咪。此外,Pennington 等人使用 Adagrad 来训练 GloVe 词嵌入,因为不常见的词需要的更新跨度比频繁出现的词大得多。
? 之前的算法我们每次都对 的所有参数进行了更新,对每一个 都使用了相同的学习率 。由于 Adagrad 再每个时刻 对每个参数 使用了不同的学习率,我们首先展示 Adagrad 的每个参数更新,然后我们将其量化。为了方便表示,我们使用 表示时刻 处的梯度。 表示目标函数在时刻 关于 的偏导:
参数 在时刻 的 SGD 更新过程变为:
基于上述的更新规则,在 时刻,对于 计算过的历史梯度,Adagrad 修正对每一个 的学习率:
其中, 是一个对角矩阵,对角线上的元素 是直到 时刻为止,所有关于 的梯度平方和,而 是一个平滑项,可以避免分母为零(通常 在 的数量级上)。Duchi 等人将该矩阵作为包含所有先前梯度的外积的全矩阵 的替代,因为计算全矩阵的平方根是不切实际的,尤其是在非常高的维度上(即使对于中等参数量,矩阵的均方根的计算都是不切实际的)。从另一方面看,计算平方根和对角线 的倒数却能轻易实现。
? 为了更直观展示上式,我们将其展开:
进一步地,我们简化学习率部分,
所以,我们可以用
最后得到,
则我们最后可以这样表示:
有趣的是,如果没有平方根运算,算法的性能会差很多。
? Adagrad算法的一个主要优点是无需手动调整学习率。在大多数的应用场景中,通常采用常数 0.01。
? Adagrad的一个主要缺点是它在分母中累加梯度的平方:由于没增加一个正项,在整个训练过程中,累加的和会持续增长。这会导致学习率变小以至于最终变得无限小,在学习率无限小时,Adagrad算法将无法取得额外的信息。接下来的算法旨在解决这个不足。
? Adadelta 是 Adagrad 的一种扩展算法,以处理 Adagrad 学习率单调递减的问题。不是计算所有梯度平方,Adadelta 将积累过去梯度的窗口大小限制为一个固定值 。
? 在 Adadelta 中,无需存储先前的 个平方梯度,而是将梯度的平方递归地表示所有历史梯度平方的均值。在 时刻的均值 只取决于先前的均值和当前的梯度(分量 类似于动量项):
我们将 设置成与动量项相识的值,即为 0.9 左右。为了简单起见,我们利用参数更新向量 重新表示 SGD 的更新过程:
Adagrad 参数更新向量为:
现在我们简单将对角矩阵 替换为历史梯度均值 :
由于分母只是梯度的均方根 (RMS)误差,我们可以简写为:
但作者指出,此更新(以及 SGD、Momentum 或者 Adagrad)中的单位不匹配,即更新具与参数具有相同的假设单位。为了实现这个要求,作者首次定义了另一个指数衰减均值,这次不是梯度平方,而是参数的平方更新:
因此,参数更新的均方根误差为:
由于 是未知的,我们利用参数的均方根误差来近似跟新。利用 替换先前的更新规则中的学习率 ,最终得到 Adadelta 的更新规则:
使用 Adadelta,我们甚至不需要设置默认学习率,因为它已经从更新规则中删除。
联系我们
电话:400-123-4567
手机:138 0000 0000
公司地址
地址:广东省广州市天河区88号
公司名称
顺盈平台官方指定注册站