# 词嵌入(word2vec)
🏷 sec_word2vec
自然语言是用来表达人脑思维的复杂系统。
在这个系统中,词是意义的基本单元。顾名思义,
词向量是用于表示单词意义的向量,
并且还可以被认为是单词的特征向量或表示。
将单词映射到实向量的技术称为词嵌入。
近年来,词嵌入逐渐成为自然语言处理的基础知识。
# 为何独热向量是一个糟糕的选择
在 :numref: sec_rnn_scratch
中,我们使用独热向量来表示词(字符就是单词)。假设词典中不同词的数量(词典大小)为N,每个词对应一个从0 到N−1 的不同整数(索引)。为了得到索引为i 的任意词的独热向量表示,我们创建了一个全为 0 的长度为N 的向量,并将位置i 的元素设置为 1。这样,每个词都被表示为一个长度为N 的向量,可以直接由神经网络使用。
虽然独热向量很容易构建,但它们通常不是一个好的选择。一个主要原因是独热向量不能准确表达不同词之间的相似度,比如我们经常使用的 “余弦相似度”。对于向量x,y∈Rd,它们的余弦相似度是它们之间角度的余弦:
∥x∥∥y∥x⊤y∈[−1,1].
由于任意两个不同词的独热向量之间的余弦相似度为 0,所以独热向量不能编码词之间的相似性。
# 自监督的 word2vec
word2vec 工具是为了解决上述问题而提出的。它将每个词映射到一个固定长度的向量,这些向量能更好地表达不同词之间的相似性和类比关系。word2vec 工具包含两个模型,即跳元模型(skip-gram) :cite: Mikolov.Sutskever.Chen.ea.2013
和连续词袋(CBOW) :cite: Mikolov.Chen.Corrado.ea.2013
。对于在语义上有意义的表示,它们的训练依赖于条件概率,条件概率可以被看作使用语料库中一些词来预测另一些单词。由于是不带标签的数据,因此跳元模型和连续词袋都是自监督模型。
下面,我们将介绍这两种模式及其训练方法。
# 跳元模型(Skip-Gram)
🏷 subsec_skip-gram
跳元模型假设一个词可以用来在文本序列中生成其周围的单词。以文本序列 “the”“man”“loves”“his”“son” 为例。假设中心词选择 “loves”,并将上下文窗口设置为 2,如图 :numref: fig_skip_gram
所示,给定中心词 “loves”,跳元模型考虑生成上下文词 “the”“man”“him”“son” 的条件概率:
P("the","man","his","son"∣"loves").
假设上下文词是在给定中心词的情况下独立生成的(即条件独立性)。在这种情况下,上述条件概率可以重写为:
P("the"∣"loves")⋅P("man"∣"loves")⋅P("his"∣"loves")⋅P("son"∣"loves").
![跳元模型考虑了在给定中心词的情况下生成周围上下文词的条件概率]()
🏷 fig_skip_gram
在跳元模型中,每个词都有两个d 维向量表示,用于计算条件概率。更具体地说,对于词典中索引为i 的任何词,分别用vi∈Rd 和ui∈Rd 表示其用作中心词和上下文词时的两个向量。给定中心词wc(词典中的索引c),生成任何上下文词wo(词典中的索引o)的条件概率可以通过对向量点积的 softmax 操作来建模:
P(wo∣wc)=∑i∈Vexp(ui⊤vc)exp(uo⊤vc),
:eqlabel: eq_skip-gram-softmax
其中词表索引集V={0,1,…,∣V∣−1}。给定长度为T 的文本序列,其中时间步t 处的词表示为w(t)。假设上下文词是在给定任何中心词的情况下独立生成的。对于上下文窗口m,跳元模型的似然函数是在给定任何中心词的情况下生成所有上下文词的概率:
t=1∏T−m≤j≤m, j=0∏P(w(t+j)∣w(t)),
其中可以省略小于1 或大于T 的任何时间步。
# 训练
跳元模型参数是词表中每个词的中心词向量和上下文词向量。在训练中,我们通过最大化似然函数(即极大似然估计)来学习模型参数。这相当于最小化以下损失函数:
−t=1∑T−m≤j≤m, j=0∑logP(w(t+j)∣w(t)).
当使用随机梯度下降来最小化损失时,在每次迭代中可以随机抽样一个较短的子序列来计算该子序列的(随机)梯度,以更新模型参数。为了计算该(随机)梯度,我们需要获得对数条件概率关于中心词向量和上下文词向量的梯度。通常,根据 :eqref: eq_skip-gram-softmax
,涉及中心词wc 和上下文词wo 的对数条件概率为:
logP(wo∣wc)=uo⊤vc−log(i∈V∑exp(ui⊤vc)).
:eqlabel: eq_skip-gram-log
通过微分,我们可以获得其相对于中心词向量vc 的梯度为
∂vc∂logP(wo∣wc)=uo−∑i∈Vexp(ui⊤vc)∑j∈Vexp(uj⊤vc)uj=uo−j∈V∑(∑i∈Vexp(ui⊤vc)exp(uj⊤vc))uj=uo−j∈V∑P(wj∣wc)uj.
:eqlabel: eq_skip-gram-grad
注意, :eqref: eq_skip-gram-grad
中的计算需要词典中以wc 为中心词的所有词的条件概率。其他词向量的梯度可以以相同的方式获得。
对词典中索引为i 的词进行训练后,得到vi(作为中心词)和ui(作为上下文词)两个词向量。在自然语言处理应用中,跳元模型的中心词向量通常用作词表示。
# 连续词袋(CBOW)模型
连续词袋(CBOW)模型类似于跳元模型。与跳元模型的主要区别在于,连续词袋模型假设中心词是基于其在文本序列中的周围上下文词生成的。例如,在文本序列 “the”“man”“loves”“his”“son” 中,在 “loves” 为中心词且上下文窗口为 2 的情况下,连续词袋模型考虑基于上下文词 “the”“man”“him”“son”(如 :numref: fig_cbow
所示)生成中心词 “loves” 的条件概率,即:
P("loves"∣"the","man","his","son").
![连续词袋模型考虑了给定周围上下文词生成中心词条件概率]()
🏷 fig_cbow
由于连续词袋模型中存在多个上下文词,因此在计算条件概率时对这些上下文词向量进行平均。具体地说,对于字典中索引i 的任意词,分别用vi∈Rd 和ui∈Rd 表示用作上下文词和中心词的两个向量(符号与跳元模型中相反)。给定上下文词wo1,…,wo2m(在词表中索引是o1,…,o2m)生成任意中心词wc(在词表中索引是c)的条件概率可以由以下公式建模:
P(wc∣wo1,…,wo2m)=∑i∈Vexp(2m1ui⊤(vo1+…,+vo2m))exp(2m1uc⊤(vo1+…,+vo2m)).
:eqlabel: fig_cbow-full
为了简洁起见,我们设为Wo={wo1,…,wo2m} 和vˉo=(vo1+…,+vo2m)/(2m)。那么 :eqref: fig_cbow-full
可以简化为:
P(wc∣Wo)=∑i∈Vexp(ui⊤vˉo)exp(uc⊤vˉo).
给定长度为T 的文本序列,其中时间步t 处的词表示为w(t)。对于上下文窗口m,连续词袋模型的似然函数是在给定其上下文词的情况下生成所有中心词的概率:
t=1∏TP(w(t)∣w(t−m),…,w(t−1),w(t+1),…,w(t+m)).
# 训练
训练连续词袋模型与训练跳元模型几乎是一样的。连续词袋模型的最大似然估计等价于最小化以下损失函数:
−t=1∑TlogP(w(t)∣w(t−m),…,w(t−1),w(t+1),…,w(t+m)).
请注意,
logP(wc∣Wo)=uc⊤vˉo−log(i∈V∑exp(ui⊤vˉo)).
通过微分,我们可以获得其关于任意上下文词向量voi(i=1,…,2m)的梯度,如下:
∂voi∂logP(wc∣Wo)=2m1⎝⎛uc−j∈V∑∑i∈Vexp(ui⊤vˉo)exp(uj⊤vˉo)uj⎠⎞=2m1⎝⎛uc−j∈V∑P(wj∣Wo)uj⎠⎞.
:eqlabel: eq_cbow-gradient
其他词向量的梯度可以以相同的方式获得。与跳元模型不同,连续词袋模型通常使用上下文词向量作为词表示。
# 小结
- 词向量是用于表示单词意义的向量,也可以看作词的特征向量。将词映射到实向量的技术称为词嵌入。
- word2vec 工具包含跳元模型和连续词袋模型。
- 跳元模型假设一个单词可用于在文本序列中,生成其周围的单词;而连续词袋模型假设基于上下文词来生成中心单词。
# 练习
- 计算每个梯度的计算复杂度是多少?如果词表很大,会有什么问题呢?
- 英语中的一些固定短语由多个单词组成,例如 “new york”。如何训练它们的词向量?提示:查看 word2vec 论文的第四节 :cite:
Mikolov.Sutskever.Chen.ea.2013
。 - 让我们以跳元模型为例来思考 word2vec 设计。跳元模型中两个词向量的点积与余弦相似度之间有什么关系?对于语义相似的一对词,为什么它们的词向量(由跳元模型训练)的余弦相似度可能很高?
Discussions