# 前向传播、反向传播和计算图
🏷 sec_backprop
我们已经学习了如何用小批量随机梯度下降训练模型。
然而当实现该算法时,我们只考虑了通过前向传播(forward propagation)所涉及的计算。
在计算梯度时,我们只调用了深度学习框架提供的反向传播函数,而不知其所以然。
梯度的自动计算(自动微分)大大简化了深度学习算法的实现。
在自动微分之前,即使是对复杂模型的微小调整也需要手工重新计算复杂的导数,
学术论文也不得不分配大量页面来推导更新规则。
本节将通过一些基本的数学和计算图,
深入探讨反向传播的细节。
首先,我们将重点放在带权重衰减(L2 正则化)的单隐藏层多层感知机上。
# 前向传播
前向传播(forward propagation 或 forward pass)
指的是:按顺序(从输入层到输出层)计算和存储神经网络中每层的结果。
我们将一步步研究单隐藏层神经网络的机制,
为了简单起见,我们假设输入样本是 x∈Rd,
并且我们的隐藏层不包括偏置项。
这里的中间变量是:
z=W(1)x,
其中W(1)∈Rh×d
是隐藏层的权重参数。
将中间变量z∈Rh 通过激活函数ϕ 后,
我们得到长度为h 的隐藏激活向量:
h=ϕ(z).
隐藏变量h 也是一个中间变量。
假设输出层的参数只有权重W(2)∈Rq×h,
我们可以得到输出层变量,它是一个长度为q 的向量:
o=W(2)h.
假设损失函数为l,样本标签为y,我们可以计算单个数据样本的损失项,
L=l(o,y).
根据L2 正则化的定义,给定超参数λ,正则化项为
s=2λ(∥W(1)∥F2+∥W(2)∥F2),
:eqlabel: eq_forward-s
其中矩阵的 Frobenius 范数是将矩阵展平为向量后应用的L2 范数。
最后,模型在给定数据样本上的正则化损失为:
J=L+s.
在下面的讨论中,我们将J 称为目标函数(objective function)。
# 前向传播计算图
绘制计算图有助于我们可视化计算中操作符和变量的依赖关系。
:numref: fig_forward
是与上述简单网络相对应的计算图,
其中正方形表示变量,圆圈表示操作符。
左下角表示输入,右上角表示输出。
注意显示数据流的箭头方向主要是向右和向上的。
![前向传播的计算图]()
🏷 fig_forward
# 反向传播
反向传播(backward propagation 或 backpropagation)指的是计算神经网络参数梯度的方法。
简言之,该方法根据微积分中的链式规则,按相反的顺序从输出层到输入层遍历网络。
该算法存储了计算某些参数梯度时所需的任何中间变量(偏导数)。
假设我们有函数Y=f(X) 和Z=g(Y),
其中输入和输出X,Y,Z 是任意形状的张量。
利用链式法则,我们可以计算Z 关于X 的导数
∂X∂Z=prod(∂Y∂Z,∂X∂Y).
在这里,我们使用prod 运算符在执行必要的操作(如换位和交换输入位置)后将其参数相乘。
对于向量,这很简单,它只是矩阵 - 矩阵乘法。
对于高维张量,我们使用适当的对应项。
运算符prod 指代了所有的这些符号。
回想一下,在计算图 :numref: fig_forward
中的单隐藏层简单网络的参数是
W(1) 和W(2)。
反向传播的目的是计算梯度∂J/∂W(1) 和
∂J/∂W(2)。
为此,我们应用链式法则,依次计算每个中间变量和参数的梯度。
计算的顺序与前向传播中执行的顺序相反,因为我们需要从计算图的结果开始,并朝着参数的方向努力。第一步是计算目标函数J=L+s 相对于损失项L 和正则项s 的梯度。
∂L∂J=1and∂s∂J=1.
接下来,我们根据链式法则计算目标函数关于输出层变量o 的梯度:
∂o∂J=prod(∂L∂J,∂o∂L)=∂o∂L∈Rq.
接下来,我们计算正则化项相对于两个参数的梯度:
∂W(1)∂s=λW(1)and∂W(2)∂s=λW(2).
现在我们可以计算最接近输出层的模型参数的梯度
∂J/∂W(2)∈Rq×h。
使用链式法则得出:
∂W(2)∂J=prod(∂o∂J,∂W(2)∂o)+prod(∂s∂J,∂W(2)∂s)=∂o∂Jh⊤+λW(2).
:eqlabel: eq_backprop-J-h
为了获得关于W(1) 的梯度,我们需要继续沿着输出层到隐藏层反向传播。
关于隐藏层输出的梯度∂J/∂h∈Rh 由下式给出:
∂h∂J=prod(∂o∂J,∂h∂o)=W(2)⊤∂o∂J.
由于激活函数ϕ 是按元素计算的,
计算中间变量z 的梯度∂J/∂z∈Rh
需要使用按元素乘法运算符,我们用⊙ 表示:
∂z∂J=prod(∂h∂J,∂z∂h)=∂h∂J⊙ϕ′(z).
最后,我们可以得到最接近输入层的模型参数的梯度
∂J/∂W(1)∈Rh×d。
根据链式法则,我们得到:
∂W(1)∂J=prod(∂z∂J,∂W(1)∂z)+prod(∂s∂J,∂W(1)∂s)=∂z∂Jx⊤+λW(1).
# 训练神经网络
在训练神经网络时,前向传播和反向传播相互依赖。
对于前向传播,我们沿着依赖的方向遍历计算图并计算其路径上的所有变量。
然后将这些用于反向传播,其中计算顺序与计算图的相反。
以上述简单网络为例:一方面,在前向传播期间计算正则项
:eqref: eq_forward-s
取决于模型参数W(1) 和
W(2) 的当前值。
它们是由优化算法根据最近迭代的反向传播给出的。
另一方面,反向传播期间参数 :eqref: eq_backprop-J-h
的梯度计算,
取决于由前向传播给出的隐藏变量h 的当前值。
因此,在训练神经网络时,在初始化模型参数后,
我们交替使用前向传播和反向传播,利用反向传播给出的梯度来更新模型参数。
注意,反向传播重复利用前向传播中存储的中间值,以避免重复计算。
带来的影响之一是我们需要保留中间值,直到反向传播完成。
这也是训练比单纯的预测需要更多的内存(显存)的原因之一。
此外,这些中间值的大小与网络层的数量和批量的大小大致成正比。
因此,使用更大的批量来训练更深层次的网络更容易导致内存不足(out of memory)错误。
# 小结
- 前向传播在神经网络定义的计算图中按顺序计算和存储中间变量,它的顺序是从输入层到输出层。
- 反向传播按相反的顺序(从输出层到输入层)计算和存储神经网络的中间变量和参数的梯度。
- 在训练深度学习模型时,前向传播和反向传播是相互依赖的。
- 训练比预测需要更多的内存。
# 练习
- 假设一些标量函数X 的输入X 是n×m 矩阵。f 相对于X 的梯度维数是多少?
- 向本节中描述的模型的隐藏层添加偏置项(不需要在正则化项中包含偏置项)。
- 画出相应的计算图。
- 推导正向和反向传播方程。
- 计算本节所描述的模型,用于训练和预测的内存占用。
- 假设想计算二阶导数。计算图发生了什么?预计计算需要多长时间?
- 假设计算图对当前拥有的 GPU 来说太大了。
- 请试着把它划分到多个 GPU 上。
- 与小批量训练相比,有哪些优点和缺点?
Discussions