# 前向传播、反向传播和计算图

🏷 sec_backprop

我们已经学习了如何用小批量随机梯度下降训练模型。
然而当实现该算法时,我们只考虑了通过前向传播(forward propagation)所涉及的计算。
在计算梯度时,我们只调用了深度学习框架提供的反向传播函数,而不知其所以然。

梯度的自动计算(自动微分)大大简化了深度学习算法的实现。
在自动微分之前,即使是对复杂模型的微小调整也需要手工重新计算复杂的导数,
学术论文也不得不分配大量页面来推导更新规则。
本节将通过一些基本的数学和计算图,
深入探讨反向传播的细节。
首先,我们将重点放在带权重衰减(L2L_2 正则化)的单隐藏层多层感知机上。

# 前向传播

前向传播(forward propagation 或 forward pass)
指的是:按顺序(从输入层到输出层)计算和存储神经网络中每层的结果。

我们将一步步研究单隐藏层神经网络的机制,
为了简单起见,我们假设输入样本是 xRd\mathbf{x}\in \mathbb{R}^d
并且我们的隐藏层不包括偏置项。
这里的中间变量是:

z=W(1)x,\mathbf{z}= \mathbf{W}^{(1)} \mathbf{x},

其中W(1)Rh×d\mathbf{W}^{(1)} \in \mathbb{R}^{h \times d}
是隐藏层的权重参数。
将中间变量zRh\mathbf{z}\in \mathbb{R}^h 通过激活函数ϕ\phi 后,
我们得到长度为hh 的隐藏激活向量:

h=ϕ(z).\mathbf{h}= \phi (\mathbf{z}).

隐藏变量h\mathbf{h} 也是一个中间变量。
假设输出层的参数只有权重W(2)Rq×h\mathbf{W}^{(2)} \in \mathbb{R}^{q \times h}
我们可以得到输出层变量,它是一个长度为qq 的向量:

o=W(2)h.\mathbf{o}= \mathbf{W}^{(2)} \mathbf{h}.

假设损失函数为ll,样本标签为yy,我们可以计算单个数据样本的损失项,

L=l(o,y).L = l(\mathbf{o}, y).

根据L2L_2 正则化的定义,给定超参数λ\lambda,正则化项为

s=λ2(W(1)F2+W(2)F2),s = \frac{\lambda}{2} \left(\|\mathbf{W}^{(1)}\|_F^2 + \|\mathbf{W}^{(2)}\|_F^2\right),

:eqlabel: eq_forward-s

其中矩阵的 Frobenius 范数是将矩阵展平为向量后应用的L2L_2 范数。
最后,模型在给定数据样本上的正则化损失为:

J=L+s.J = L + s.

在下面的讨论中,我们将JJ 称为目标函数(objective function)。

# 前向传播计算图

绘制计算图有助于我们可视化计算中操作符和变量的依赖关系。
:numref: fig_forward 是与上述简单网络相对应的计算图,
其中正方形表示变量,圆圈表示操作符。
左下角表示输入,右上角表示输出。
注意显示数据流的箭头方向主要是向右和向上的。

前向传播的计算图
🏷 fig_forward

# 反向传播

反向传播(backward propagation 或 backpropagation)指的是计算神经网络参数梯度的方法。
简言之,该方法根据微积分中的链式规则,按相反的顺序从输出层到输入层遍历网络。
该算法存储了计算某些参数梯度时所需的任何中间变量(偏导数)。
假设我们有函数Y=f(X)\mathsf{Y}=f(\mathsf{X})Z=g(Y)\mathsf{Z}=g(\mathsf{Y})
其中输入和输出X,Y,Z\mathsf{X}, \mathsf{Y}, \mathsf{Z} 是任意形状的张量。
利用链式法则,我们可以计算Z\mathsf{Z} 关于X\mathsf{X} 的导数

ZX=prod(ZY,YX).\frac{\partial \mathsf{Z}}{\partial \mathsf{X}} = \text{prod}\left(\frac{\partial \mathsf{Z}}{\partial \mathsf{Y}}, \frac{\partial \mathsf{Y}}{\partial \mathsf{X}}\right).

在这里,我们使用prod\text{prod} 运算符在执行必要的操作(如换位和交换输入位置)后将其参数相乘。
对于向量,这很简单,它只是矩阵 - 矩阵乘法。
对于高维张量,我们使用适当的对应项。
运算符prod\text{prod} 指代了所有的这些符号。

回想一下,在计算图 :numref: fig_forward 中的单隐藏层简单网络的参数是
W(1)\mathbf{W}^{(1)}W(2)\mathbf{W}^{(2)}
反向传播的目的是计算梯度J/W(1)\partial J/\partial \mathbf{W}^{(1)}
J/W(2)\partial J/\partial \mathbf{W}^{(2)}
为此,我们应用链式法则,依次计算每个中间变量和参数的梯度。
计算的顺序与前向传播中执行的顺序相反,因为我们需要从计算图的结果开始,并朝着参数的方向努力。第一步是计算目标函数J=L+sJ=L+s 相对于损失项LL 和正则项ss 的梯度。

JL=1andJs=1.\frac{\partial J}{\partial L} = 1 \; \text{and} \; \frac{\partial J}{\partial s} = 1.

接下来,我们根据链式法则计算目标函数关于输出层变量o\mathbf{o} 的梯度:

Jo=prod(JL,Lo)=LoRq.\frac{\partial J}{\partial \mathbf{o}} = \text{prod}\left(\frac{\partial J}{\partial L}, \frac{\partial L}{\partial \mathbf{o}}\right) = \frac{\partial L}{\partial \mathbf{o}} \in \mathbb{R}^q.

接下来,我们计算正则化项相对于两个参数的梯度:

sW(1)=λW(1)andsW(2)=λW(2).\frac{\partial s}{\partial \mathbf{W}^{(1)}} = \lambda \mathbf{W}^{(1)} \; \text{and} \; \frac{\partial s}{\partial \mathbf{W}^{(2)}} = \lambda \mathbf{W}^{(2)}.

现在我们可以计算最接近输出层的模型参数的梯度
J/W(2)Rq×h\partial J/\partial \mathbf{W}^{(2)} \in \mathbb{R}^{q \times h}
使用链式法则得出:

JW(2)=prod(Jo,oW(2))+prod(Js,sW(2))=Joh+λW(2).\frac{\partial J}{\partial \mathbf{W}^{(2)}}= \text{prod}\left(\frac{\partial J}{\partial \mathbf{o}}, \frac{\partial \mathbf{o}}{\partial \mathbf{W}^{(2)}}\right) + \text{prod}\left(\frac{\partial J}{\partial s}, \frac{\partial s}{\partial \mathbf{W}^{(2)}}\right)= \frac{\partial J}{\partial \mathbf{o}} \mathbf{h}^\top + \lambda \mathbf{W}^{(2)}.

:eqlabel: eq_backprop-J-h

为了获得关于W(1)\mathbf{W}^{(1)} 的梯度,我们需要继续沿着输出层到隐藏层反向传播。
关于隐藏层输出的梯度J/hRh\partial J/\partial \mathbf{h} \in \mathbb{R}^h 由下式给出:

Jh=prod(Jo,oh)=W(2)Jo.\frac{\partial J}{\partial \mathbf{h}} = \text{prod}\left(\frac{\partial J}{\partial \mathbf{o}}, \frac{\partial \mathbf{o}}{\partial \mathbf{h}}\right) = {\mathbf{W}^{(2)}}^\top \frac{\partial J}{\partial \mathbf{o}}.

由于激活函数ϕ\phi 是按元素计算的,
计算中间变量z\mathbf{z} 的梯度J/zRh\partial J/\partial \mathbf{z} \in \mathbb{R}^h
需要使用按元素乘法运算符,我们用\odot 表示:

Jz=prod(Jh,hz)=Jhϕ(z).\frac{\partial J}{\partial \mathbf{z}} = \text{prod}\left(\frac{\partial J}{\partial \mathbf{h}}, \frac{\partial \mathbf{h}}{\partial \mathbf{z}}\right) = \frac{\partial J}{\partial \mathbf{h}} \odot \phi'\left(\mathbf{z}\right).

最后,我们可以得到最接近输入层的模型参数的梯度
J/W(1)Rh×d\partial J/\partial \mathbf{W}^{(1)} \in \mathbb{R}^{h \times d}
根据链式法则,我们得到:

JW(1)=prod(Jz,zW(1))+prod(Js,sW(1))=Jzx+λW(1).\frac{\partial J}{\partial \mathbf{W}^{(1)}} = \text{prod}\left(\frac{\partial J}{\partial \mathbf{z}}, \frac{\partial \mathbf{z}}{\partial \mathbf{W}^{(1)}}\right) + \text{prod}\left(\frac{\partial J}{\partial s}, \frac{\partial s}{\partial \mathbf{W}^{(1)}}\right) = \frac{\partial J}{\partial \mathbf{z}} \mathbf{x}^\top + \lambda \mathbf{W}^{(1)}.

# 训练神经网络

在训练神经网络时,前向传播和反向传播相互依赖。
对于前向传播,我们沿着依赖的方向遍历计算图并计算其路径上的所有变量。
然后将这些用于反向传播,其中计算顺序与计算图的相反。

以上述简单网络为例:一方面,在前向传播期间计算正则项
:eqref: eq_forward-s 取决于模型参数W(1)\mathbf{W}^{(1)}
W(2)\mathbf{W}^{(2)} 的当前值。
它们是由优化算法根据最近迭代的反向传播给出的。
另一方面,反向传播期间参数 :eqref: eq_backprop-J-h 的梯度计算,
取决于由前向传播给出的隐藏变量h\mathbf{h} 的当前值。

因此,在训练神经网络时,在初始化模型参数后,
我们交替使用前向传播和反向传播,利用反向传播给出的梯度来更新模型参数。
注意,反向传播重复利用前向传播中存储的中间值,以避免重复计算。
带来的影响之一是我们需要保留中间值,直到反向传播完成。
这也是训练比单纯的预测需要更多的内存(显存)的原因之一。
此外,这些中间值的大小与网络层的数量和批量的大小大致成正比。
因此,使用更大的批量来训练更深层次的网络更容易导致内存不足(out of memory)错误。

# 小结

  • 前向传播在神经网络定义的计算图中按顺序计算和存储中间变量,它的顺序是从输入层到输出层。
  • 反向传播按相反的顺序(从输出层到输入层)计算和存储神经网络的中间变量和参数的梯度。
  • 在训练深度学习模型时,前向传播和反向传播是相互依赖的。
  • 训练比预测需要更多的内存。

# 练习

  1. 假设一些标量函数X\mathbf{X} 的输入X\mathbf{X}n×mn \times m 矩阵。ff 相对于X\mathbf{X} 的梯度维数是多少?
  2. 向本节中描述的模型的隐藏层添加偏置项(不需要在正则化项中包含偏置项)。
    1. 画出相应的计算图。
    2. 推导正向和反向传播方程。
  3. 计算本节所描述的模型,用于训练和预测的内存占用。
  4. 假设想计算二阶导数。计算图发生了什么?预计计算需要多长时间?
  5. 假设计算图对当前拥有的 GPU 来说太大了。
    1. 请试着把它划分到多个 GPU 上。
    2. 与小批量训练相比,有哪些优点和缺点?

Discussions