# 随机梯度下降🏷 sec_sgd
在前面的章节中,我们一直在训练过程中使用随机梯度下降,但没有解释它为什么起作用。为了澄清这一点,我们刚在 :numref: sec_gd
中描述了梯度下降的基本原则。本节继续更详细地说明随机梯度下降 (stochastic gradient descent)。
% matplotlib inlineimport mathimport torchfrom d2l import torch as d2l
# 随机梯度更新在深度学习中,目标函数通常是训练数据集中每个样本的损失函数的平均值。给定n n n 个样本的训练数据集,我们假设f i ( x ) f_i(\mathbf{x}) f i ( x ) 是关于索引i i i 的训练样本的损失函数,其中x \mathbf{x} x 是参数向量。然后我们得到目标函数
f ( x ) = 1 n ∑ i = 1 n f i ( x ) . f(\mathbf{x}) = \frac{1}{n} \sum_{i = 1}^n f_i(\mathbf{x}). f ( x ) = n 1 i = 1 ∑ n f i ( x ) .
x \mathbf{x} x 的目标函数的梯度计算为
∇ f ( x ) = 1 n ∑ i = 1 n ∇ f i ( x ) . \nabla f(\mathbf{x}) = \frac{1}{n} \sum_{i = 1}^n \nabla f_i(\mathbf{x}). ∇ f ( x ) = n 1 i = 1 ∑ n ∇ f i ( x ) .
如果使用梯度下降法,则每个自变量迭代的计算代价为O ( n ) \mathcal{O}(n) O ( n ) ,它随n n n 线性增长。因此,当训练数据集较大时,每次迭代的梯度下降计算代价将较高。
随机梯度下降(SGD)可降低每次迭代时的计算代价。在随机梯度下降的每次迭代中,我们对数据样本随机均匀采样一个索引i i i ,其中i ∈ { 1 , … , n } i\in\{1,\ldots, n\} i ∈ { 1 , … , n } ,并计算梯度∇ f i ( x ) \nabla f_i(\mathbf{x}) ∇ f i ( x ) 以更新x \mathbf{x} x :
x ← x − η ∇ f i ( x ) , \mathbf{x} \leftarrow \mathbf{x} - \eta \nabla f_i(\mathbf{x}), x ← x − η ∇ f i ( x ) ,
其中η \eta η 是学习率。我们可以看到,每次迭代的计算代价从梯度下降的O ( n ) \mathcal{O}(n) O ( n ) 降至常数O ( 1 ) \mathcal{O}(1) O ( 1 ) 。此外,我们要强调,随机梯度∇ f i ( x ) \nabla f_i(\mathbf{x}) ∇ f i ( x ) 是对完整梯度∇ f ( x ) \nabla f(\mathbf{x}) ∇ f ( x ) 的无偏估计,因为
E i ∇ f i ( x ) = 1 n ∑ i = 1 n ∇ f i ( x ) = ∇ f ( x ) . \mathbb{E}_i \nabla f_i(\mathbf{x}) = \frac{1}{n} \sum_{i = 1}^n \nabla f_i(\mathbf{x}) = \nabla f(\mathbf{x}). E i ∇ f i ( x ) = n 1 i = 1 ∑ n ∇ f i ( x ) = ∇ f ( x ) .
这意味着,平均而言,随机梯度是对梯度的良好估计。
现在,我们将把它与梯度下降进行比较,方法是向梯度添加均值为 0、方差为 1 的随机噪声,以模拟随机梯度下降。
def f ( x1, x2) : return x1 ** 2 + 2 * x2 ** 2 def f_grad ( x1, x2) : return 2 * x1, 4 * x2
def sgd ( x1, x2, s1, s2, f_grad) : g1, g2 = f_grad( x1, x2) g1 += torch. normal( 0.0 , 1 , ( 1 , ) ) g2 += torch. normal( 0.0 , 1 , ( 1 , ) ) eta_t = eta * lr( ) return ( x1 - eta_t * g1, x2 - eta_t * g2, 0 , 0 )
def constant_lr ( ) : return 1 eta = 0.1 lr = constant_lr d2l. show_trace_2d( f, d2l. train_2d( sgd, steps= 50 , f_grad= f_grad) )
epoch 50, x1: 0.225454, x2: -0.057039
/home/d2l-worker/miniconda3/envs/d2l-zh-release-1/lib/python3.9/site-packages/numpy/core/shape_base.py:65: VisibleDeprecationWarning: Creating an ndarray from ragged nested sequences (which is a list-or-tuple of lists-or-tuples-or ndarrays with different lengths or shapes) is deprecated. If you meant to do this, you must specify 'dtype=object' when creating the ndarray.
ary = asanyarray(ary)
/home/d2l-worker/miniconda3/envs/d2l-zh-release-1/lib/python3.9/site-packages/torch/functional.py:478: UserWarning: torch.meshgrid: in an upcoming release, it will be required to pass the indexing argument. (Triggered internally at ../aten/src/ATen/native/TensorShape.cpp:2895.)
return _VF.meshgrid(tensors, **kwargs) # type: ignore[attr-defined]
正如我们所看到的,随机梯度下降中变量的轨迹比我们在 :numref: sec_gd
中观察到的梯度下降中观察到的轨迹嘈杂得多。这是由于梯度的随机性质。也就是说,即使我们接近最小值,我们仍然受到通过η ∇ f i ( x ) \eta \nabla f_i(\mathbf{x}) η ∇ f i ( x ) 的瞬间梯度所注入的不确定性的影响。即使经过 50 次迭代,质量仍然不那么好。更糟糕的是,经过额外的步骤,它不会得到改善。这给我们留下了唯一的选择:改变学习率η \eta η 。但是,如果我们选择的学习率太小,我们一开始就不会取得任何有意义的进展。另一方面,如果我们选择的学习率太大,我们将无法获得一个好的解决方案,如上所示。解决这些相互冲突的目标的唯一方法是在优化过程中动态 降低学习率。
这也是在 sgd
步长函数中添加学习率函数 lr
的原因。在上面的示例中,学习率调度的任何功能都处于休眠状态,因为我们将相关的 lr
函数设置为常量。
# 动态学习率用与时间相关的学习率η ( t ) \eta(t) η ( t ) 取代η \eta η 增加了控制优化算法收敛的复杂性。特别是,我们需要弄清η \eta η 的衰减速度。如果太快,我们将过早停止优化。如果减少的太慢,我们会在优化上浪费太多时间。以下是随着时间推移调整η \eta η 时使用的一些基本策略(稍后我们将讨论更高级的策略):
η ( t ) = η i if t i ≤ t ≤ t i + 1 分段常数 η ( t ) = η 0 ⋅ e − λ t 指数衰减 η ( t ) = η 0 ⋅ ( β t + 1 ) − α 多项式衰减 \begin{aligned} \eta(t) & = \eta_i \text{ if } t_i \leq t \leq t_{i+1} && \text{分段常数} \\ \eta(t) & = \eta_0 \cdot e^{-\lambda t} && \text{指数衰减} \\ \eta(t) & = \eta_0 \cdot (\beta t + 1)^{-\alpha} && \text{多项式衰减} \end{aligned} η ( t ) η ( t ) η ( t ) = η i if t i ≤ t ≤ t i + 1 = η 0 ⋅ e − λ t = η 0 ⋅ ( β t + 1 ) − α 分段常数 指数衰减 多项式衰减
在第一个分段常数 (piecewise constant)场景中,我们会降低学习率,例如,每当优化进度停顿时。这是训练深度网络的常见策略。或者,我们可以通过指数衰减 (exponential decay)来更积极地减低它。不幸的是,这往往会导致算法收敛之前过早停止。一个受欢迎的选择是α = 0.5 \alpha = 0.5 α = 0 . 5 的多项式衰减 (polynomial decay)。在凸优化的情况下,有许多证据表明这种速率表现良好。
让我们看看指数衰减在实践中是什么样子。
def exponential_lr ( ) : global t t += 1 return math. exp( - 0.1 * t) t = 1 lr = exponential_lr d2l. show_trace_2d( f, d2l. train_2d( sgd, steps= 1000 , f_grad= f_grad) )
epoch 1000, x1: -0.852570, x2: -0.035459
正如预期的那样,参数的方差大大减少。但是,这是以未能收敛到最优解x = ( 0 , 0 ) \mathbf{x} = (0, 0) x = ( 0 , 0 ) 为代价的。即使经过 1000 个迭代步骤,我们仍然离最优解很远。事实上,该算法根本无法收敛。另一方面,如果我们使用多项式衰减,其中学习率随迭代次数的平方根倒数衰减,那么仅在 50 次迭代之后,收敛就会更好。
def polynomial_lr ( ) : global t t += 1 return ( 1 + 0.1 * t) ** ( - 0.5 ) t = 1 lr = polynomial_lr d2l. show_trace_2d( f, d2l. train_2d( sgd, steps= 50 , f_grad= f_grad) )
epoch 50, x1: 0.052108, x2: 0.104767
关于如何设置学习率,还有更多的选择。例如,我们可以从较小的学习率开始,然后使其迅速上涨,再让它降低,尽管这会更慢。我们甚至可以在较小和较大的学习率之间切换。现在,让我们专注于可以进行全面理论分析的学习率计划,即凸环境下的学习率。对一般的非凸问题,很难获得有意义的收敛保证,因为总的来说,最大限度地减少非线性非凸问题是 NP 困难的。有关的研究调查,请参阅例如 2015 年 Tibshirani 的优秀讲义笔记 。
# 凸目标的收敛性分析以下对凸目标函数的随机梯度下降的收敛性分析是可选读的,主要用于传达对问题的更多直觉。我们只限于最简单的证明之一 :cite: Nesterov.Vial.2000
。存在着明显更先进的证明技术,例如,当目标函数表现特别好时。
假设所有ξ \boldsymbol{\xi} ξ 的目标函数f ( ξ , x ) f(\boldsymbol{\xi}, \mathbf{x}) f ( ξ , x ) 在x \mathbf{x} x 中都是凸的。更具体地说,我们考虑随机梯度下降更新:
x t + 1 = x t − η t ∂ x f ( ξ t , x ) , \mathbf{x}_{t+1} = \mathbf{x}_{t} - \eta_t \partial_\mathbf{x} f(\boldsymbol{\xi}_t, \mathbf{x}), x t + 1 = x t − η t ∂ x f ( ξ t , x ) ,
其中f ( ξ t , x ) f(\boldsymbol{\xi}_t, \mathbf{x}) f ( ξ t , x ) 是训练样本f ( ξ t , x ) f(\boldsymbol{\xi}_t, \mathbf{x}) f ( ξ t , x ) 的目标函数:ξ t \boldsymbol{\xi}_t ξ t 从第t t t 步的某个分布中提取,x \mathbf{x} x 是模型参数。用
R ( x ) = E ξ [ f ( ξ , x ) ] R(\mathbf{x}) = E_{\boldsymbol{\xi}}[f(\boldsymbol{\xi}, \mathbf{x})] R ( x ) = E ξ [ f ( ξ , x ) ]
表示期望风险,R ∗ R^* R ∗ 表示对于x \mathbf{x} x 的最低风险。最后让x ∗ \mathbf{x}^* x ∗ 表示最小值(我们假设它存在于定义x \mathbf{x} x 的域中)。在这种情况下,我们可以跟踪时间t t t 处的当前参数x t \mathbf{x}_t x t 和风险最小化器x ∗ \mathbf{x}^* x ∗ 之间的距离,看看它是否随着时间的推移而改善:
∥ x t + 1 − x ∗ ∥ 2 = ∥ x t − η t ∂ x f ( ξ t , x ) − x ∗ ∥ 2 = ∥ x t − x ∗ ∥ 2 + η t 2 ∥ ∂ x f ( ξ t , x ) ∥ 2 − 2 η t ⟨ x t − x ∗ , ∂ x f ( ξ t , x ) ⟩ . \begin{aligned} &\|\mathbf{x}_{t+1} - \mathbf{x}^*\|^2 \\ =& \|\mathbf{x}_{t} - \eta_t \partial_\mathbf{x} f(\boldsymbol{\xi}_t, \mathbf{x}) - \mathbf{x}^*\|^2 \\ =& \|\mathbf{x}_{t} - \mathbf{x}^*\|^2 + \eta_t^2 \|\partial_\mathbf{x} f(\boldsymbol{\xi}_t, \mathbf{x})\|^2 - 2 \eta_t \left\langle \mathbf{x}_t - \mathbf{x}^*, \partial_\mathbf{x} f(\boldsymbol{\xi}_t, \mathbf{x})\right\rangle. \end{aligned} = = ∥ x t + 1 − x ∗ ∥ 2 ∥ x t − η t ∂ x f ( ξ t , x ) − x ∗ ∥ 2 ∥ x t − x ∗ ∥ 2 + η t 2 ∥ ∂ x f ( ξ t , x ) ∥ 2 − 2 η t ⟨ x t − x ∗ , ∂ x f ( ξ t , x ) ⟩ .
:eqlabel: eq_sgd-xt+1-xstar
我们假设随机梯度∂ x f ( ξ t , x ) \partial_\mathbf{x} f(\boldsymbol{\xi}_t, \mathbf{x}) ∂ x f ( ξ t , x ) 的L 2 L_2 L 2 范数受到某个常数L L L 的限制,因此我们有
η t 2 ∥ ∂ x f ( ξ t , x ) ∥ 2 ≤ η t 2 L 2 . \eta_t^2 \|\partial_\mathbf{x} f(\boldsymbol{\xi}_t, \mathbf{x})\|^2 \leq \eta_t^2 L^2. η t 2 ∥ ∂ x f ( ξ t , x ) ∥ 2 ≤ η t 2 L 2 .
:eqlabel: eq_sgd-L
我们最感兴趣的是x t \mathbf{x}_t x t 和x ∗ \mathbf{x}^* x ∗ 之间的距离如何变化的期望 。事实上,对于任何具体的步骤序列,距离可能会增加,这取决于我们遇到的ξ t \boldsymbol{\xi}_t ξ t 。因此我们需要点积的边界。因为对于任何凸函数f f f ,所有x \mathbf{x} x 和y \mathbf{y} y 都满足f ( y ) ≥ f ( x ) + ⟨ f ′ ( x ) , y − x ⟩ f(\mathbf{y}) \geq f(\mathbf{x}) + \langle f'(\mathbf{x}), \mathbf{y} - \mathbf{x} \rangle f ( y ) ≥ f ( x ) + ⟨ f ′ ( x ) , y − x ⟩ ,按凸性我们有
f ( ξ t , x ∗ ) ≥ f ( ξ t , x t ) + ⟨ x ∗ − x t , ∂ x f ( ξ t , x t ) ⟩ . f(\boldsymbol{\xi}_t, \mathbf{x}^*) \geq f(\boldsymbol{\xi}_t, \mathbf{x}_t) + \left\langle \mathbf{x}^* - \mathbf{x}_t, \partial_{\mathbf{x}} f(\boldsymbol{\xi}_t, \mathbf{x}_t) \right\rangle. f ( ξ t , x ∗ ) ≥ f ( ξ t , x t ) + ⟨ x ∗ − x t , ∂ x f ( ξ t , x t ) ⟩ .
:eqlabel: eq_sgd-f-xi-xstar
将不等式 :eqref: eq_sgd-L
和 :eqref: eq_sgd-f-xi-xstar
代入 :eqref: eq_sgd-xt+1-xstar
我们在时间t + 1 t+1 t + 1 时获得参数之间距离的边界,如下所示:
∥ x t − x ∗ ∥ 2 − ∥ x t + 1 − x ∗ ∥ 2 ≥ 2 η t ( f ( ξ t , x t ) − f ( ξ t , x ∗ ) ) − η t 2 L 2 . \|\mathbf{x}_{t} - \mathbf{x}^*\|^2 - \|\mathbf{x}_{t+1} - \mathbf{x}^*\|^2 \geq 2 \eta_t (f(\boldsymbol{\xi}_t, \mathbf{x}_t) - f(\boldsymbol{\xi}_t, \mathbf{x}^*)) - \eta_t^2 L^2. ∥ x t − x ∗ ∥ 2 − ∥ x t + 1 − x ∗ ∥ 2 ≥ 2 η t ( f ( ξ t , x t ) − f ( ξ t , x ∗ ) ) − η t 2 L 2 .
:eqlabel: eqref_sgd-xt-diff
这意味着,只要当前损失和最优损失之间的差异超过η t L 2 / 2 \eta_t L^2/2 η t L 2 / 2 ,我们就会取得进展。由于这种差异必然会收敛到零,因此学习率η t \eta_t η t 也需要消失 。
接下来,我们根据 :eqref: eqref_sgd-xt-diff
取期望。得到
E [ ∥ x t − x ∗ ∥ 2 ] − E [ ∥ x t + 1 − x ∗ ∥ 2 ] ≥ 2 η t [ E [ R ( x t ) ] − R ∗ ] − η t 2 L 2 . E\left[\|\mathbf{x}_{t} - \mathbf{x}^*\|^2\right] - E\left[\|\mathbf{x}_{t+1} - \mathbf{x}^*\|^2\right] \geq 2 \eta_t [E[R(\mathbf{x}_t)] - R^*] - \eta_t^2 L^2. E [ ∥ x t − x ∗ ∥ 2 ] − E [ ∥ x t + 1 − x ∗ ∥ 2 ] ≥ 2 η t [ E [ R ( x t ) ] − R ∗ ] − η t 2 L 2 .
最后一步是对t ∈ { 1 , … , T } t \in \{1, \ldots, T\} t ∈ { 1 , … , T } 的不等式求和。在求和过程中抵消中间项,然后舍去低阶项,可以得到
∥ x 1 − x ∗ ∥ 2 ≥ 2 ( ∑ t = 1 T η t ) [ E [ R ( x t ) ] − R ∗ ] − L 2 ∑ t = 1 T η t 2 . \|\mathbf{x}_1 - \mathbf{x}^*\|^2 \geq 2 \left (\sum_{t=1}^T \eta_t \right) [E[R(\mathbf{x}_t)] - R^*] - L^2 \sum_{t=1}^T \eta_t^2. ∥ x 1 − x ∗ ∥ 2 ≥ 2 ( t = 1 ∑ T η t ) [ E [ R ( x t ) ] − R ∗ ] − L 2 t = 1 ∑ T η t 2 .
:eqlabel: eq_sgd-x1-xstar
请注意,我们利用了给定的x 1 \mathbf{x}_1 x 1 ,因而可以去掉期望。最后定义
x ˉ = d e f ∑ t = 1 T η t x t ∑ t = 1 T η t . \bar{\mathbf{x}} \stackrel{\mathrm{def}}{=} \frac{\sum_{t=1}^T \eta_t \mathbf{x}_t}{\sum_{t=1}^T \eta_t}. x ˉ = d e f ∑ t = 1 T η t ∑ t = 1 T η t x t .
因为有
E ( ∑ t = 1 T η t R ( x t ) ∑ t = 1 T η t ) = ∑ t = 1 T η t E [ R ( x t ) ] ∑ t = 1 T η t = E [ R ( x t ) ] , E\left(\frac{\sum_{t=1}^T \eta_t R(\mathbf{x}_t)}{\sum_{t=1}^T \eta_t}\right) = \frac{\sum_{t=1}^T \eta_t E[R(\mathbf{x}_t)]}{\sum_{t=1}^T \eta_t} = E[R(\mathbf{x}_t)], E ( ∑ t = 1 T η t ∑ t = 1 T η t R ( x t ) ) = ∑ t = 1 T η t ∑ t = 1 T η t E [ R ( x t ) ] = E [ R ( x t ) ] ,
根据詹森不等式(令 :eqref: eq_jensens-inequality
中i = t i=t i = t ,α i = η t / ∑ t = 1 T η t \alpha_i = \eta_t/\sum_{t=1}^T \eta_t α i = η t / ∑ t = 1 T η t )和R R R 的凸性使其满足的E [ R ( x t ) ] ≥ E [ R ( x ˉ ) ] E[R(\mathbf{x}_t)] \geq E[R(\bar{\mathbf{x}})] E [ R ( x t ) ] ≥ E [ R ( x ˉ ) ] ,因此,
∑ t = 1 T η t E [ R ( x t ) ] ≥ ∑ t = 1 T η t E [ R ( x ˉ ) ] . \sum_{t=1}^T \eta_t E[R(\mathbf{x}_t)] \geq \sum_{t=1}^T \eta_t E\left[R(\bar{\mathbf{x}})\right]. t = 1 ∑ T η t E [ R ( x t ) ] ≥ t = 1 ∑ T η t E [ R ( x ˉ ) ] .
将其代入不等式 :eqref: eq_sgd-x1-xstar
得到边界
[ E [ x ˉ ] ] − R ∗ ≤ r 2 + L 2 ∑ t = 1 T η t 2 2 ∑ t = 1 T η t , \left[E[\bar{\mathbf{x}}]\right] - R^* \leq \frac{r^2 + L^2 \sum_{t=1}^T \eta_t^2}{2 \sum_{t=1}^T \eta_t}, [ E [ x ˉ ] ] − R ∗ ≤ 2 ∑ t = 1 T η t r 2 + L 2 ∑ t = 1 T η t 2 ,
其中r 2 = d e f ∥ x 1 − x ∗ ∥ 2 r^2 \stackrel{\mathrm{def}}{=} \|\mathbf{x}_1 - \mathbf{x}^*\|^2 r 2 = d e f ∥ x 1 − x ∗ ∥ 2 是初始选择参数与最终结果之间距离的边界。简而言之,收敛速度取决于随机梯度标准的限制方式(L L L )以及初始参数值与最优结果的距离(r r r )。请注意,边界由x ˉ \bar{\mathbf{x}} x ˉ 而不是x T \mathbf{x}_T x T 表示。因为x ˉ \bar{\mathbf{x}} x ˉ 是优化路径的平滑版本。只要知道r , L r, L r , L 和T T T ,我们就可以选择学习率η = r / ( L T ) \eta = r/(L \sqrt{T}) η = r / ( L T ) 。这个就是上界r L / T rL/\sqrt{T} r L / T 。也就是说,我们将按照速度O ( 1 / T ) \mathcal{O}(1/\sqrt{T}) O ( 1 / T ) 收敛到最优解。
# 随机梯度和有限样本到目前为止,在谈论随机梯度下降时,我们进行得有点快而松散。我们假设从分布p ( x , y ) p(x, y) p ( x , y ) 中采样得到样本x i x_i x i (通常带有标签y i y_i y i ),并且用它来以某种方式更新模型参数。特别是,对于有限的样本数量,我们仅仅讨论了由某些允许我们在其上执行随机梯度下降的函数δ x i \delta_{x_i} δ x i 和δ y i \delta_{y_i} δ y i 组成的离散分布p ( x , y ) = 1 n ∑ i = 1 n δ x i ( x ) δ y i ( y ) p(x, y) = \frac{1}{n} \sum_{i=1}^n \delta_{x_i}(x) \delta_{y_i}(y) p ( x , y ) = n 1 ∑ i = 1 n δ x i ( x ) δ y i ( y ) 。
但是,这不是我们真正做的。在本节的简单示例中,我们只是将噪声添加到其他非随机梯度上,也就是说,我们假装有成对的( x i , y i ) (x_i, y_i) ( x i , y i ) 。事实证明,这种做法在这里是合理的(有关详细讨论,请参阅练习)。更麻烦的是,在以前的所有讨论中,我们显然没有这样做。相反,我们遍历了所有实例恰好一次 。要了解为什么这更可取,可以反向考虑一下,即我们有替换地 从离散分布中采样n n n 个观测值。随机选择一个元素i i i 的概率是1 / n 1/n 1 / n 。因此选择它至少 一次就是
P ( c h o o s e i ) = 1 − P ( o m i t i ) = 1 − ( 1 − 1 / n ) n ≈ 1 − e − 1 ≈ 0.63. P(\mathrm{choose~} i) = 1 - P(\mathrm{omit~} i) = 1 - (1-1/n)^n \approx 1-e^{-1} \approx 0.63. P ( c h o o s e i ) = 1 − P ( o m i t i ) = 1 − ( 1 − 1 / n ) n ≈ 1 − e − 1 ≈ 0 . 6 3 .
类似的推理表明,挑选一些样本(即训练示例)恰好一次 的概率是
( n 1 ) 1 n ( 1 − 1 n ) n − 1 = n n − 1 ( 1 − 1 n ) n ≈ e − 1 ≈ 0.37. {n \choose 1} \frac{1}{n} \left(1-\frac{1}{n}\right)^{n-1} = \frac{n}{n-1} \left(1-\frac{1}{n}\right)^{n} \approx e^{-1} \approx 0.37. ( 1 n ) n 1 ( 1 − n 1 ) n − 1 = n − 1 n ( 1 − n 1 ) n ≈ e − 1 ≈ 0 . 3 7 .
这导致与无替换 采样相比,方差增加并且数据效率降低。因此,在实践中我们执行后者(这是本书中的默认选择)。最后一点注意,重复采用训练数据集的时候,会以不同的 随机顺序遍历它。
# 小结对于凸问题,我们可以证明,对于广泛的学习率选择,随机梯度下降将收敛到最优解。 对于深度学习而言,情况通常并非如此。但是,对凸问题的分析使我们能够深入了解如何进行优化,即逐步降低学习率,尽管不是太快。 如果学习率太小或太大,就会出现问题。实际上,通常只有经过多次实验后才能找到合适的学习率。 当训练数据集中有更多样本时,计算梯度下降的每次迭代的代价更高,因此在这些情况下,首选随机梯度下降。 随机梯度下降的最优性保证在非凸情况下一般不可用,因为需要检查的局部最小值的数量可能是指数级的。 # 练习尝试不同的随机梯度下降学习率计划和不同的迭代次数进行实验。特别是,根据迭代次数的函数来绘制与最优解( 0 , 0 ) (0, 0) ( 0 , 0 ) 的距离。 证明对于函数f ( x 1 , x 2 ) = x 1 2 + 2 x 2 2 f(x_1, x_2) = x_1^2 + 2 x_2^2 f ( x 1 , x 2 ) = x 1 2 + 2 x 2 2 而言,向梯度添加正态噪声等同于最小化损失函数f ( x , w ) = ( x 1 − w 1 ) 2 + 2 ( x 2 − w 2 ) 2 f(\mathbf{x}, \mathbf{w}) = (x_1 - w_1)^2 + 2 (x_2 - w_2)^2 f ( x , w ) = ( x 1 − w 1 ) 2 + 2 ( x 2 − w 2 ) 2 ,其中x \mathbf{x} x 是从正态分布中提取的。 从{ ( x 1 , y 1 ) , … , ( x n , y n ) } \{(x_1, y_1), \ldots, (x_n, y_n)\} { ( x 1 , y 1 ) , … , ( x n , y n ) } 分别使用替换方法以及不替换方法进行采样时,比较随机梯度下降的收敛性。 如果某些梯度(或者更确切地说与之相关的某些坐标)始终比所有其他梯度都大,将如何更改随机梯度下降求解器? 假设f ( x ) = x 2 ( 1 + sin x ) f(x) = x^2 (1 + \sin x) f ( x ) = x 2 ( 1 + sin x ) 。f f f 有多少局部最小值?请试着改变f f f 以尽量减少它需要评估所有局部最小值的方式。 Discussions