一文详解Google最新NLP模型XLNet

2019 年 7 月 1 日 PaperWeekly
一文详解Google最新NLP模型XLNet


本文介绍 XLNet 的基本原理,读者阅读前需要了解 BERT 等相关模型,不熟悉的读者建议学习 BERT 课程 [1]。


  • 语言模型和BERT各自的优缺点

  • 排列(Permutation)语言模型

  • Two-Stream Self-Attention for Target-Aware Representations

    • 没有目标(target)位置信息的问题

    • Two-Stream Self-Attention

  • 部分预测

  • 融入Transformer-XL的优点

    • Transformer-XL思想简介

    • Segment基本的状态重用

    • Transformer-XL的相对位置编码

    • 在XLNet里融入Transformer-XL的思想

  • 建模多个segment

    • 相对Segment编码

  • XLNet与BERT的对比

  • XLNet与语言模型的对比

  • 实验

    • Pretraining和实现

    • RACE数据集

    • SQuAD数据集

    • 文本分类

    • GLUE数据集

    • ClueWeb09-B

    • Ablation对比

    • 实验代码


语言模型和BERT各自的优缺点

 

在论文里作者使用了一些术语,比如自回归(Autoregressive, AR)语言模型自编码(autoencoding)模型等,这可能让不熟悉的读者感到困惑,因此我们先简单的解释一下。


自回归是时间序列分析或者信号处理领域喜欢用的一个术语,我们这里理解成语言模型就好了:一个句子的生成过程如下:首先根据概率分布生成第一个词,然后根据第一个词生成第二个词,然后根据前两个词生成第三个词,……,直到生成整个句子。


而所谓的自编码器是一种无监督学习输入的特征的方法:我们用一个神经网络把输入(输入通常还会增加一些噪声)变成一个低维的特征,这就是编码部分,然后再用一个 Decoder 尝试把特征恢复成原始的信号。我们可以把 BERT 看成一种 AutoEncoder,它通过 Mask 改变了部分 Token,然后试图通过其上下文的其它 Token 来恢复这些被 Mask 的 Token。如果读者不太理解或者喜欢这两个 jargon,忽略就行了。 


给定文本序列,语言模型的目标是调整参数使得训练数据上的似然函数最大:



记号 𝐱<𝑡 表示 t 时刻之前的所有 x,也就是 𝐱1:𝑡−1。ℎ𝜃(𝐱1:𝑡−1) 是 RNN 或者 Transformer(注:Transformer 也可以用于语言模型,比如在 OpenAI GPT)编码的 t 时刻之前的隐状态。𝑒(𝑥) 是词 x 的 embedding。 


而 BERT 是去噪(denoising)自编码的方法。对于序列 𝐱,BERT 会随机挑选 15% 的 Token 变成 [MASK] 得到带噪声版本的。假设被 Mask 的原始值为那么 BERT 希望尽量根据上下文恢复(猜测)出原始值了,也就是:



上式中 𝑚𝑡=1 表示 t 时刻是一个 Mask,需要恢复。𝐻𝜃 是一个 Transformer,它把长度为 𝑇 的序列 𝐱 映射为隐状态的序列


意:前面的语言模型的 RNN 在 t 时刻只能看到之前的时刻,因此记号是 ℎ𝜃(𝐱1:𝑡−1);而 BERT 的 Transformer(不同与用于语言模型的 Transformer)可以同时看到整个句子的所有 Token,因此记号是 𝐻𝜃(𝐱)。


这两个模型的优缺点分别为:


独立假设:注意等式 (2) 的约等号 ≈,它的意思是假设在给定的条件下被 Mask 的词是独立的(没有关系的),这个显然并不成立,比如”New York is a city”,假设我们 Mask 住”New”和”York”两个词,那么给定”is a city”的条件下”New”和”York”并不独立,因为”New York”是一个实体,看到”New”则后面出现”York”的概率要比看到”Old”后面出现”York”概率要大得多。而公式 (1) 没有这样的独立性假设,它是严格的等号。 


输入噪声:BERT 的在预训练时会出现特殊的 [MASK],但是它在下游的 fine-tuning 中不会出现,这就是出现了不匹配。而语言模型不会有这个问题。 


双向上下文:语言模型只能参考一个方向的上下文,而 BERT 可以参考双向整个句子的上下文,因此这一点 BERT 更好一些。关于为什么 RNN 只能是单向的上下文而 BERT 可以参考整个句子的上线,读者可以参考 ELMo 和 OpenAI GPT 的问题 [2]


排列(Permutation)语言模型


根据上面的讨论,语言模型和 BERT 各有优缺点,有什么办法能构建一个模型使得同时有它们的优点并且没有它们缺点呢?


借鉴 NADE(不了解的读者可以忽略,这是一种生成模型)的思路,XLNet 使用了排列语言模型,它同时有它们的优点。


给定长度为 T 的序列 𝐱,总共有 𝑇! 种排列方法,也就对应 𝑇! 种链式分解方法。比如假设 𝐱=𝑥1𝑥2𝑥3,那么总共用 3!=6 种分解方法:



注意 𝑝(𝑥2|𝑥1𝑥3) 指的是第一个词是 𝑥1 并且第三个词是 𝑥3 的条件下第二个词是 𝑥2 的概率,也就是说原来词的顺序是保持的。如果理解为第一个词是 𝑥1 并且第二个词是 𝑥3 的条件下第三个词是 𝑥2,那么就不对了。


如果我们的语言模型遍历 𝑇! 种分解方法,并且这个模型的参数是共享的,那么这个模型应该就能(必须)学习到各种上下文。普通的从左到右或者从右往左的语言模型只能学习一种方向的依赖关系,比如先”猜”一个词,然后根据第一个词”猜”第二个词,根据前两个词”猜”第三个词,……。


而排列语言模型会学习各种顺序的猜测方法,比如上面的最后一个式子对应的顺序 3→1→2,它是先”猜”第三个词,然后根据第三个词猜测第一个词,最后根据第一个和第三个词猜测第二个词。


因此我们可以遍历 𝑇! 种路径,然后学习语言模型的参数,但是这个计算量非常大(10!=3628800,10 个词的句子就有这么多种组合)。因此实际我们只能随机的采样𝑇!里的部分排列,为了用数学语言描述,我们引入几个记号。表示长度为 T 的序列的所有排列组成的集合,则是一种排列方法。我们用 𝑧𝑡 表示排列的第 t 个元素,而 𝑧<𝑡 表示 z 的第 1 到第 t-1 个元素。


举个例子,假设 T=3,那么共有 6 个元素,我们假设其中之一 𝑧=[1,3,2],则 𝑧3=2,而 𝑧<3=[1,3]。


有了上面的记号,则排列语言模型的目标是调整模型参数使得下面的似然概率最大:



上面的公式看起来有点复杂,细读起来其实很简单:从所有的排列中采样一种,然后根据这个排列来分解联合概率成条件概率的乘积,然后加起来。 


注意:上面的模型只会遍历概率的分解顺序,并不会改变原始词的顺序。实现是通过 Attention 的 Mask 来对应不同的分解方法。比如 𝑝(𝑥1|𝑥3)𝑝(𝑥2|𝑥1𝑥3)𝑝(𝑥3),我们可以在用 Transformer 编码 𝑥1 时候让它可以 Attend to 𝑥3,而把 𝑥2Mask 掉;编码 𝑥3 的时候把 𝑥1,𝑥2 都 Mask 掉。


 图. 排列语言模型在预测𝑥3时不同排列的情况


比如图的左上,对应的分解方式是 3→2→4→1,因此预测 𝑥3 是不能 attend to 任何其它词,只能根据之前的隐状态 𝑚𝑒𝑚 来预测。而对于左下,𝑥3 可以 attend to 其它 3 个词。


Two-Stream Self-Attention for Target-Aware Representations


没有目标(target)位置信息的问题 


上面的思想很简单,但是如果我们使用标准的 Transformer 来实现时会有问题。我们来看一个例子。假设输入的句子是”I like New York”,并且一种排列为 z=[1, 3, 4, 2],假设我们需要预测 𝑧3=4,那么根据公式:



注意,我们通常用大写的 X 表示随机变量,比如 𝑋4,而小写的 x 表示某一个具体取值,比如 x,我们假设 x 是”York”,则 𝑝𝜃(𝑋4=𝑥) 表示第 4 个词是 York 的概率。用自然语言描述:上面的概率是第一个词是 I,第 3 个词是 New 的条件下第 4 个词是 York 的概率。


另外我们再假设一种排列为 z’=[1,3,2,4],我们需要预测 𝑧3=2,那么:



则上面是表示是第一个词是 I,第 3 个词是 New 的条件下第 2 个词是 York 的概率。我们仔细对比一下公式会发现这两个概率是相等的。但是根据经验,显然这两个概率是不同的,而且上面的那个概率大一些,因为 York 跟在 New 之后是一个城市,而”York New”是什么呢? 


上面的问题的关键是模型并不知道要预测的那个词在原始序列中的位置。了解 Transformer 的读者可能会问:输入的位置编码在哪里呢?位置编码的信息不能起作用吗?


注意:位置编码是和输入的 Embedding 加到一起作为输入的,因此 𝑝𝜃(𝑋4=𝑥|𝑥1𝑥3) 里的 𝑥1 和 𝑥3 是带了位置信息的,模型(可能)知道(根据输入的向量猜测)I 是第一个词,而 New 是第三个词,但是第四个词的向量显然这个是还不知道(知道了还要就不用预测了),因此就不可能知道它要预测的词到底是哪个位置的词,因此我们必须”显式”的告诉模型我要预测哪个位置的词。 


为了后面的描述,我们再把上面的两个公式写出更加一般的形式。给定排列 z,我们需要计算,如果我们使用普通的 Transformer,那么计算公式为:



根据前面的讨论,我们知道问题的关键是模型并不知道要预测的到底是哪个位置的词,为了解决这个问题,我们把预测的位置 𝑧𝑡 放到模型里:



上式中表示这是一个新的模型 g,并且它的参数除了之前的词,还有要预测的词的位置 𝑧𝑡。


Two-Stream Self-Attention


接下来的问题是用什么模型来表示。当然有很多种可选的函数(模型),我们这里通过位置 𝑧𝑡 来从 context 𝐱𝑧<𝑡 里通过 Attention 机制提取需要的信息来预测这个位置的词。那么它需要满足如下两点要求: 


1. 为了预测只能使用位置信息 𝑧𝑡 而不能使用这是显然的:你预测一个词当然不能知道要预测的是什么词。 


2. 为了预测 𝑧𝑡 之后的词,必须编码了的信息(语义)。 


但是上面两点要求对于普通的 Transformer 来说是矛盾的无法满足的。因为上面是理解为什么要搞出两个 Stream 的关键,所以我这里再啰嗦一点举一个例子。 


假设输入的句子还是”I like New York”,并且一种排列为 z=[1, 3, 4, 2],假设 t=2,我们现在是在计算,也就是给定第一个位置的词为 I 预测第三个位置为 New 的概率,显然我们不能使用 New 本身的而只能根据第一个位置的 I 来预测。


假设我们非常幸运的找到了一很好的函数 g,它可以能够比较好的预测这个概率 𝑔𝜃(𝑥1,𝑧2)。现在我们又需要计算 t=3,也就是根据 𝑔𝜃(𝑥1,𝑧2) 和 𝑧𝑡 来预测 York,显然知道第三个位置是 New 对于预测第四个位置是 York 会非常有帮助,但是 𝑔𝜃(𝑥1,𝑧2) 并没有 New 这个词的信息。


读者可能会问:你不是说 g 可以比较好的根据第一个词 I 预测第三个词 New 的概率吗?这里有两点:I 后面出现 New 的概率并不高;在预测 York 时我们是知道第三个位置是 New 的,只不过模型的限制我们没有重复利用这信息。 


为了解决这个问题,论文引入了两个 Stream,也就是两个隐状态:


1. 内容隐状态,简写为,它就会标准的 Transformer 一样,既编码上下文(context)也编码的内容。 


2. 查询隐状态,简写为,它只编码上下文和要预测的位置 𝑧𝑡,但是不包含 


下面我们介绍一下计算过程。我们首先把查询隐状态初始化为一个变量 w,把内容隐状态初始化为词的 Embedding 𝑒(𝑥𝑖)。这里的上标 0 表示第 0 层(不存在的层,用于计算第一层)。因为内容隐状态可以编码当前词,因此初始化为词的 Embedding 是比较合适的。 


接着从 m=1 一直到第 M 层,我们逐层计算:



上面两个流分别使用自己的 Query 向量;但是 Key 和 Value 向量都是用的 h,因为 h 是内容。但是注意 Query 流不能访问 𝑧𝑡 的内容,因此 KV 是,这里用的是小于号 (<) 表示不包括 t 时刻的 content。而 Content 流的 KV 是,它包含


上面的梯度更新和标准的 self-attention 是一样的。在 fine-tuning 的时候,我们可以丢弃掉 Query 流而只用 Content 流。最后在计算公式的时候我们可以用最上面一层的 Query 向量


下面我们通过下图来直观的了解计算过程。


 图. Two Stream排列模型的计算过程


图的左上是 Content 流 Attention 的计算,假设排列为 3→2→4→1,并且我们现在预测第 1 个位置的词的概率。根据排列,我们可以参考所有 4 个词的信息,因此,而 


左下是Query流的计算,因为不能参考自己的内容,因此,而 


而图的右边是完整的计算过程,我们从下往上看,首先 h 和 g 分别被初始化为 𝑒(𝑥𝑖) 和 W,然后 Content Mask 和 Query Mask 计算第一层的输出ℎ(1)和𝑔(1),然后计算第二层……。注意最右边的 Content Mask 和 Query Mask,我们先看 Content Mask。它的第一行全是红点,表示第一个词可以 attend to 所有的词(根据 3→2→4→1),第二个词可以 attend to 它自己和第三个词,……。而 Query Mask 和 Content Mask 的区别就是不能 attend to 自己,因此对角线都是白点。


部分预测


虽然排列语言模型有很多有点,但是它的计算量很大(排列很多),很难优化。因此我们只预测一个句子后面的一些词,为什么不预测前面的词呢?因为前面的词的上下文比较少,上下文信息相对较少。比如句子”I like New York”。预测 I 的时候没有任何上下文,因此可能的选择很多。而到最后一个词 York 的时候,如果 New 已经知道了,那么 York 的概率就非常大了。 


因此我们把一个排列 𝑧 分成两个子序列 𝑧≤𝑐 和 𝑧>𝑐,分别叫做 non-target 序列和 target 序列,其中 c 是切分点。我们会使用一个超参数 K,表示 1/K 的 Token 会被预测,因此根据公式:



可以计算出,约等于的原因是因为 K 是整数。前面 c 个不用预测的 Token,我们不需要计算其 Query 流,从而可以节省计算时间。


融入Transformer-XL的优点


到此为止,XLNet 的核心思想已经比较清楚了:还是使用语言模型,但是为了解决双向上下文的问题,引入了排列语言模型。排列语言模型在预测时需要 target 的位置信息,因此通过引入 Two-Stream,Content 流编码到当前时刻的所有内容,而 Query 流只能参考之前的历史以及当前要预测的位置。最后为了解决计算量过大的问题,对于一个句子,我们只预测后面的 1/K 的词。 


接下来 XLNet 借鉴了 Transformer-XL 的优点,它对于很长的上下文的处理是要由于传统的 Transformer 的。我们这里只是简单的介绍 Transformer-XL,有兴趣的读者可以参考 Transformer-XL 论文 [3]。 


Transformer-XL思想简介 


首先 Transformer-XL 是一个语言模型,也就是改进 Transformer 来根据历史的词预测下一个词。它不同于 BERT 的 Mask 语言模型问题,也不同于 XLNet 使用的排列语言模型。我们知道 OpenAI GPT 就是使用 Transformer 来进行语言模型的建模。因为 Transformer 要求输入是定长的词序列(不像 RNN 可以处理变成的输入序列),太长的截断,不足的 padding,这样我们把一个语料库的字符串序列切分成固定长度的 segments。它有下面一些问题: 


由于定长的要求,我们不可能让输入太长。因此虽然 Self-Attention 机制虽然不太受长度的约束,但是 Transformer 的语言模型实际能够考虑的上下文就是输入的长度。 


因为我们在序列语言模型的时候通常很难准确的分句(或者有时候一个句子比最大长度还长),所以一个 Segment 很可能不是一个完整的句子(甚至它是从某个句子的中间部分开始的),这样前面的几个词就很难预测(给人一个没头没脑的句子也很难预测),因为语言模型是自回归的,一步错步步错。这就是所谓的 context fragmentation 的问题。 


预测的性能问题,假设我们要使用 Transformer 语言模型来计算一个句子的概率(而不是用于下游的任务),那么我们首先要计算 𝑃(𝑥1),然后计算 𝑃(𝑥2|𝑥1),……,一直计算到 𝑃(𝑥𝑇|𝑥1,…,𝑥𝑇−1)。每个时刻都需要用 Transformer 计算一次,而不能像 RNN 那样之前的把历史都编码到一个 context 向量里。


 图. 普通的Transformer语言模型的训练和预测


上图做是普通的 Transformer 语言模型的训练过程。假设 Segment 的长度为 4,如图中我标示的:根据红色的路径,虽然 𝑥8 的最上层是受 𝑥1 影响的,但是由于固定的 segment,𝑥8 无法利用 𝑥1 的信息。


而预测的时候的上下文也是固定的 4,比如预测 𝑥6 时我们需要根据 [𝑥2,𝑥3,𝑥4,𝑥5] 来计算,接着把预测的结果作为下一个时刻的输入。接着预测 𝑥7 的时候需要根据 [𝑥3,𝑥4,𝑥5,𝑥6] 完全进行重新的计算。之前的计算结果一点也用不上。


而 Transformer-XL 如下图所示:


 图. Transformer-XL的训练和预测


我们会把之前一个固定长度的词序列每一层的输出都放到一个 cache 里,比如把 𝑥1,…,𝑥4 的计算结果都存起来,那么在训练第二个 Segment[𝑥5,…,𝑥8] 的时候就可以让 Self-Attention 机制参考 [𝑥1,…,𝑥4] 的信息了。当然在反向计算梯度的时候,cache 里的内容是不会参与梯度的计算的。


而在预测的时候,比如右图我们在计算 𝑥12 作为输入的时候,之前那些 [𝑥11,𝑥10,…] 都不需要重新计算。而普通的 Transformer 是需要的,为什么呢?


我们仔细看一下上图,在 t=12 的时候,𝑥11 可以 attend to [𝑥11,…,𝑥9](而 𝑥8 被截掉了),而在 t=11 的时候可以 attend to [𝑥11,…,𝑥8],因此这两个计算结果是不同的,需要重新计算。


Segment基本的状态重用 


根据之前的思路,我们用 cache 缓存部分历史的状态。虽然计算梯度的时候只使用本 segment 的信息,但是在 forward 的时候其实是用到了之前的 segment(甚至很久以前的 segment,只有 cache 的空间足够大)的信息,因此它又有点类似于 RNN。


下面我们形式化的用数学语言来描述状态重用的过程。假设两个相邻的 segment


假设 segment 𝑠𝜏 的第 n 层的隐状态序列为,那么计算 segment 𝑠𝜏+1的隐状态的过程如下:



上式中函数代表不参与梯度的计算。我们看到,计算 Query 的时候只是用本 segment 的信息,而计算 Key 和 Value 的时候同时使用了(实际用的是


Transformer-XL的相对位置编码 


Transformer-XL 不能像 BERT 那样使用绝对位置编码,下面我们来分析一些为什么不行。 


和前面一样,假设两个相邻的segment为


假设 segment 𝑠𝜏 的第 n 层的隐状态序列为,那么计算公式如下:



上式中 𝐸𝑠𝜏 是 segment 的每一个词的 Embedding 的序列。我们发现 𝐸𝑠𝜏 和 𝐸𝑠𝜏+1 都是加了 𝑈1:𝐿,因此模型无法通过向量判断它到底是当前 segment 的第 i 个位置还是前一个 Segment 的第 i 个位置。


注:不熟悉位置编码的读者需要参考 Transformer 图解 [4]。它的基本思想就是给每一个绝对位置一个Embedding,因此模型可以通过这个 Embedding 猜测它在编码哪个位置的信息,也可以学到某个位置用什么向量来表示更好。


因此 Transformer-XL 必须使用相对位置编码,它使用了和原始的 Transformer 使用正弦函数不同的方法。原始的 Transformer 是把位置信息 embedding 进去直接加到输入里,而 Transformer-XL 是在 Attention 计算的时候利用当前 Query 和 Key 的相对位置。因为 XLNet 使用的是正弦函数的位置编码,所以这里就不介绍 Transformer-XL 的位置编码方法了,感兴趣的读者可以参考 Transformer-XL 论文 [3]


在XLNet里融入Transformer-XL的思想 


首先 XLNet 借鉴了 Transoformer-XL 的相对位置编码的思想,这个和它基本一样,因此这里不再介绍。另外一点就是 cache 前一个 segment 的隐状态。


我们假设有两个从原始序列 𝐬 里抽取的两个连续 Segment,和 𝑥=𝑠𝑇+1:2𝑇。同时假设  和 𝑧 分别是 [1,…,T] 和 [T+1,…,2T] 的一个排列。然后根据排列 𝑧̃ 的概率分解我们首先计算第一个 segment,并且把 Content 流的隐状态 cache 下来,这里是第 m 层的 Content 流的隐状态。那么计算第二个 Segment 的 Content 流的方法如下:



上式用自然语言描述就是:为了计算 𝑧𝑡 第 m 层的隐状态,我们使用 Attention 机制,其中 Query 是上一次的隐状态,而 Key 和 Value 除了 𝑧1,…,𝑧𝑡 第 m-1 层的隐状态,也需要 attend to cached 上一个 segment 的所有第 m-1 层的隐状态。 


在计算第二个 segment 时,我们只需要知道隐状态就可以了,而并不需要知道它是通过哪个排列 𝑧̃ 计算出来的。这样我们在 cache 前一个 segment 时不用考虑它的排列。


建模多个segment


许多下游的任务会有多余一个输入序列,比如问答的输入是问题和包含答案的段落。下面我们讨论怎么在自回归框架下怎么预训练两个 segment。和 BERT 一样,我们选择两个句子,它们有 50% 的概率是连续的句子(前后语义相关),有 50% 的概率是不连续(无关)的句子。


我们把这两个句子拼接后当成一个句子来学习排列语言模型。输入和 BERT 是类似的:[A, SEP, B, SEP, CLS],这里 SEP 和 CLS 是特殊的两个 Token,而 A 和 B 代表两个 Segment。而 BERT 稍微不同,这里把 CLS 放到了最后。


原因是因为对于 BERT 来说,Self-Attention 唯一能够感知位置是因为我们把位置信息编码到输入向量了,Self-Attention 的计算本身不考虑位置信息。而前面我们讨论过,为了减少计算量,这里的排列语言模型通常只预测最后 1/K 个 Token。我们希望 CLS 编码所有两个 Segment 的语义,因此希望它是被预测的对象,因此放到最后肯定是会被预测的。 


但是和 BERT 不同,我们并没有增加一个预测下一个句子的 Task,原因是通过实验分析这个 Task 加进去后并不是总有帮助。


注:其实很多做法都是某些作者的经验,后面很多作者一看某个模型好,那么所有的 Follow,其实也不见得就一定好。有的时候可能只是对某个数据集有效果,或者效果好是其它因素带来的,一篇文章修改了 5 个因素,其实可能只是某一两个因素是真正带来提高的地方,其它 3 个因素可能并不有用甚至还是有少量副作用。


相对Segment编码 


BERT 使用的是绝对的 Segment 编码,也就是第一个句子对于的 Segment id 是 0,而第二个句子是 1。这样如果把两个句子换一下顺序,那么输出是不一样的。


XLNet 使用的是相对的 Segment 编码,它是在计算 Attention 的时候判断两个词是否属于同一个 Segment,如果位置 i 和 j 的词属于同一个 segment,那么使用一个可以学习的 Embedding 𝑠𝑖𝑗=𝑠+,否则 𝑠𝑖𝑗=𝑠−。也就是说,我们只关心它们是属于同一个 Segment 还是属于不同的 Segment 的。


当我们从位置 i attend to j 的时候,我们会这样计算一个新的 attention score:。这里的 𝑞𝑖 是第 i 位置的 Query 向量,b 是一个可以学习的 bias。最后我们会把这个 attention score 加到原来计算的 Attention score 里,这样它就能学到当 i 和 j 都属于某个 segment 的特征和i和就属于不同 segment 的特征。


XLNet与BERT的对比


XLNet 和 BERT 都是预测一个句子的部分词,但是背后的原因是不同的。BERT 使用的是 Mask 语言模型,因此只能预测部分词(总不能把所有词都 Mask 了然后预测?)。而 XLNet 预测部分词是出于性能考虑,而 BERT 是随机的选择一些词来预测。 


除此之外,它们最大的区别其实就是 BERT 是约等号,也就是条件独立的假设——那些被 MASK 的词在给定非 MASK 的词的条件下是独立的。但是我们前面分析过,这个假设并不(总是)成立。下面我们通过一个例子来说明(其实前面已经说过了,理解的读者跳过本节即可)。 


假设输入是 [New, York, is, a, city],并且假设恰巧 XLNet 和 BERT 都选择使用 [is, a, city] 来预测 New 和 York。同时我们假设 XLNet 的排列顺序为 [is, a, city, New, York]。那么它们优化的目标函数分别为:



从上面可以发现,XLNet 可以在预测 York 的使用利用 New 的信息,因此它能学到”New York”经常出现在一起而且它们出现在一起的语义和单独出现是完全不同的。


XLNet与语言模型的对比


和语言模型相比,XLNet 最大的优势就是通过输入序列的各种排列,同时学习到上下文的信息。


实验


Pretraining和实现 


和 BERT 一样,XLNet 使用了 BooksCorpus 和英文的维基百科作为训练数据,这两者总共 13GB 的文本。此外,XLNet 还增加了 Giga5(16GB)、ClueWeb 2012-B 和 Common Crawl 的数据来进行 Pretraining。


对于 ClueWeb 2012-B 和 Common Crawl 的内容使用了启发式的规则进行了预处理,最终各自保留了 19GB 和 78GB 的文本。使用 SentencePiece 工具 [5] 后分别得到 2.78B, 1.09B, 4.75B, 4.30B 和 19.97B Token (subword unit),总计 32.89B。 


最大的模型 XLNet-Large 采样了和 BERT-large 一样的超参数,从而得到类似大小的模型。序列长度和 cache 分别设置为 512 和 384。训练 XLNet-Large 是在 512 核心(不是 512 个)的 TPU v3 芯片上进行,使用 Adam 优化器迭代了 500K 次。使用了线性的 Learning rate decay,batch 大小是 2048,最终训练了 2.5 天。


我们发现模型仍然是欠拟合(underfitting)的,如果继续训练的话在训练数据上的 loss 还能下降。但是对于下游的任务并没有太大帮助。因此我们判断是因为数据太大了,默认没有能力完全拟合数据。为了与 BERT 对比,我们也训练了 XLNet-Base 模型,它只使用了 BooksCorpus 和维基百科的数据。 


因为引入了递归(recurrence)的机制,我们使用双向的输入 pipeline,也就是把一个 batch 的一半样本正常顺序输入而另一半反向输入。对于 XLNet-Large,我们设置 K 为 6,也就是预测 1/6 的 Token。Fine-tuning 过程基本是 follow BERT。


此外我们采样了 span-based 预测,也就是我们首先采样一个长度 L,𝐿∈[1,…,5],也就是最少一个 Token (1-gram),最多连续 5 个 Token (5-gram)。然后使用长度为 KL 的上下文来预测这个 n-gram。后面的代码分析我们会看到这一点。


RACE数据集


RACE 数据集 [6],它包含大概 100K 个问题。它是中国 12 岁到 18 岁的学生在初中和高中的英语阅读理解问题。下图是其中一个样例,我们在中学经常做的阅读理解题。


 图. RACE阅读理解题示例


下图是实验结果,我们可以看到 XLNet 比最好的 BERT 模型要提升很多。


 图. RACE数据集的结果对比


SQuAD数据集


SQuAD [7] 是一个大规模的阅读理解任务的数据集。和前面的选择题不同,SQuAD 可以看成问答题,也就是需要从阅读的文章找答案。如下图所示:


 图. SQuAD数据示例


SQuAD1.1 假设答案是原文的一个连续的一个或者多个词,并且答案是一定存在的。而 SQuAD2.0 可能会问没有答案的问题。因此为了 fine-tuning SQuAD2.0,我们使用了 Multi-Task Learning:其中一个损失函数是一个二分类的 logistic regression 损失函数,它判断有没有答案;而另一个就是标准的 span 抽取的损失函数(感兴趣的读者可以参考 BERT 的论文)。


因为 v1.1 的问题是包含在 v2.0 里的,因此在打榜的时候我们直接使用 v2.0 的模型去做 v1.1 的题目,只是把判断有没有答案的部分去掉(因为 v1.1 肯定有答案)。另外因为很多参赛者会使用额外的数据,我们也增加了 NewsQA 的数据作为训练数据。如下表所示,我们的单一的模型(很多好成绩都是好的模型的 Ensembling)取得了 SOTA 的成绩。


 图. SQuAD数据集结果对比


文本分类


我们在 IMDB,Yelp-2,Yelp-5,DBpedia,AG,Amazon-2 和 Amazon-5 等文本分类数据集上做了对比实验,结果如下: 


 图. 常见文本分类数据集结果对比


GLUE数据集


GLUE 数据集上的实验如下:


 图. GLUE数据集结果对比


ClueWeb09-B


ClueWeb09-B 是一个文档排序的数据集。它主要用于搜索引擎:给定一个 Query,然后给相关的网页排序。下面是实验结果:


 图. ClueWeb09-B数据集结果对比


Ablation对比实验


因为 XLNet 引入了很多改进点,包括实验排列语言模型,使用 Transformer-XL 里的改进,而且还使用了不同的 Pretraining 数据,为了发现哪些改进是有效的,下面做了 Ablation 实验,对比的主要是 BERT-base 和 XLNet-base,因为它们的训练数据都是 BooksCorpus 和 Wiki。


 图. Ablation对比实验


从上面的对比实验发现:加上预测下一个句子这个 Multi-Task 任务在 XLNet 里并无作用。而去掉 memory、span-based 的预测和双向的数据时效果都是有所下降的,因此它们都是有用的。


相关链接


[1] https://fancyerii.github.io/2019/03/05/bert-prerequisites/

[2] https://fancyerii.github.io/2019/03/09/bert-theory/#elmo和openai-gpt的问题

[3] https://arxiv.org/abs/1901.02860

[4] https://fancyerii.github.io/2019/03/09/transformer-illustrated/#位置编码positional-encoding 

[5] https://github.com/google/sentencepiece

[6] https://www.cs.cmu.edu/~glai1/data/race/
[7] https://rajpurkar.github.io/SQuAD-explorer/




点击以下标题查看更多往期内容: 





#投 稿 通 道#

 让你的论文被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。


📝 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志


📬 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


▽ 点击 | 阅读原文 | 获取最新论文推荐

登录查看更多
16

相关内容

小贴士
相关资讯
绝对干货!NLP预训练模型:从transformer到albert
新智元
12+阅读 · 2019年11月10日
8篇论文梳理BERT相关模型进展与反思 | MSRA出品
【干货】BERT模型的标准调优和花式调优
新智元
9+阅读 · 2019年4月26日
3分钟看懂史上最强NLP模型BERT
新智元
16+阅读 · 2019年2月27日
详解谷歌最强NLP模型BERT(理论+实战)
AI100
9+阅读 · 2019年1月18日
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
9+阅读 · 2019年1月8日
NLP预训练模型大集合!
全球人工智能
30+阅读 · 2018年12月29日
NLP预训练模型大集合
机器学习算法与Python学习
6+阅读 · 2018年12月28日
相关VIP内容
专知会员服务
11+阅读 · 2020年4月20日
专知会员服务
56+阅读 · 2020年2月3日
BERT进展2019四篇必读论文
专知会员服务
46+阅读 · 2020年1月2日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
31+阅读 · 2019年9月29日
相关论文
Xipeng Qiu,Tianxiang Sun,Yige Xu,Yunfan Shao,Ning Dai,Xuanjing Huang
83+阅读 · 2020年3月18日
Qi Liu,Matt J. Kusner,Phil Blunsom
24+阅读 · 2020年3月16日
Sheng Shen,Zhen Dong,Jiayu Ye,Linjian Ma,Zhewei Yao,Amir Gholami,Michael W. Mahoney,Kurt Keutzer
3+阅读 · 2019年9月12日
Betty van Aken,Benjamin Winter,Alexander Löser,Felix A. Gers
3+阅读 · 2019年9月11日
Yang Liu
3+阅读 · 2019年9月5日
Kazuki Irie,Albert Zeyer,Ralf Schlüter,Hermann Ney
5+阅读 · 2019年7月11日
Zhilin Yang,Zihang Dai,Yiming Yang,Jaime Carbonell,Ruslan Salakhutdinov,Quoc V. Le
13+阅读 · 2019年6月19日
Jacob Devlin,Ming-Wei Chang,Kenton Lee,Kristina Toutanova
9+阅读 · 2019年5月24日
Universal Transformers
Mostafa Dehghani,Stephan Gouws,Oriol Vinyals,Jakob Uszkoreit,Łukasz Kaiser
4+阅读 · 2019年3月5日
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Zihang Dai,Zhilin Yang,Yiming Yang,William W. Cohen,Jaime Carbonell,Quoc V. Le,Ruslan Salakhutdinov
3+阅读 · 2019年1月9日
Top