FastBERT: a Self-distilling BERT with Adaptive Inference Time

作者: 刘杰鹏

来源: 学术头条

发布日期: 2020-07-23

本文提出了一种名为FastBERT的预训练模型,该模型通过自适应推理和自蒸馏机制提高了推理效率,同时保持了较高的准确性。FastBERT在多个中英文数据集上进行了测试,结果表明其可以在不降低性能的情况下比BERT快2到3倍,若允许略有精度损失,则可以加速1到12倍。

预训练模型如BERT所取得的成果举世瞩目,但是如何在确保模型性能的前提下提高模型效率,是近年来的研究热点。为此本文提出FastBERT。FastBERT是一种速度可调具有自适应推理的模型。推理速度可根据不同需求灵活调整,避免样本冗余计算。此外,该模型在微调方面采用了独特的自精馏机制,进一步提高了计算效率,使性能损失最小。FastBERT在12个中英文数据集中取得了很好的结果。

如果给定不同的加速阈值以进行速度性能折衷,那么FastBERT能够比BERT加速1-12倍。

预训练模型的成功众所周知,从最初的BERT,不断升级进化,做大做强,包括GPT2、XLNet、RoBERTa、T5、UER等等。然而,在许多实际的场景中,这些预训练模型通常需要较多的计算资源。针对这一问题,常见的解决方案包括有量化,把FP32改成FP16甚至INT8。剪枝,剪掉多余的连接、多余的注意力头甚至是去掉部分的网络层。蒸馏,用一个较小的Student模型来学习较大Teacher模型的知识。

通过查验许多NLP数据集,发现这些样本有不同的难度级别。较大的模型可能会对简单的样本输入过多计算,而较小的模型难以应付复杂的样本。最近的研究表明预训练模型中确实存在冗余,因此设计一个适合所有样本难度的单一化模型是有用的,该模型可以满足不同复杂度的样本,并在精度损失最小的情况下获得计算效率。基于这种目的,本文提出FastBERT:一个具有样本自适应机制的预训练模型。

FastBERT可以动态调整执行层的数量,以减少计算量。换句话说,就是自适应调整每个样本的计算量,难度低的样本通过一两层就可以预测出来,难度较高的样本则需要继续走到更深的层级甚至是整个全程。此外,该模型也有一个独特的自蒸馏处理机制,以尽量少改变模型结构,在单一框架内实现更快且准确的结果。与笨重的BERT相比,FastBERT加速了2到11倍,且结果精度也极具竞争优势。

FastBERT有2部分组成:主干和分支。主干由12层的Transformer encoder和一个额外的teacher-classifier组成;而分支是附加到每个Transformer输出的student-classifiers。

具体模型结构如Figure 2所示:主干由三部分组成:embedding层、encoder(由Transformer堆叠起来的blocks组成)和teacher classifier。embedding层和encoder没什么特别的,与BERT相同,是word、position和segment embedding的和。

跟在encoder最后的是teacher-classifier,它提取域内特征用于下游推理。分支,即每个student classifier,是接到每个Transformer block的输出,使得难度低的样本可以提前结束计算输出结果。为了平衡模型的准确性和推理速度。

FastBERT分别训练主干和分支,在训练另一个模块时,一个模块中的参数是固定住的。

模型训练包括三个步骤:主干预训练、主干微调和student classifier的自蒸馏。主干预训练:与BERT的各种版本模型一样,比如BERT-WWM、RoBERTa等等模型的预训练方法和结果都可以直接拿来用。所以FastBERT可以不需要自己进行预训练,直接加载各种已经公布的高质量预训练模型。需要注意的是,由于teacher-classifier仅用于推理,因此预训练过程不受影响。

主干微调:对于每个下游任务,用对应的任务数据输入到模型,对主干进行和teacher-classifier微调。注意,此时尚未启用student classifier。分支自蒸馏:经过上述预训练和微调的主干对知识具有良好的表征和抽取,其输出是高质量的soft-label,既包含原始embedding,又包含通用知识。在此基础上蒸馏出student classifiers。

由于student classifier之间是相互独立的,他们的预测结果分别与teacher-classifier的soft-label进行比较,其差异用KL散度来衡量。FastBERT中一共有L-1个student classifier,所以自蒸馏的总损失即为它们KL散度的总和。

预训练和微调阶段都只更新主干参数,蒸馏阶段固定住主干参数,用student classifier蒸馏主干中teacher classifier的概率分布。

在推理阶段,FastBERT可以根据样本的复杂性调整模型中执行的encoding层的数量。在每一Transformer层,用归一化的熵衡量每个样本的当前推理是否可靠到足以终止。

归一化熵定义如下:在12个NLP数据集(6个英文和6个中文)上对FastBERT进行评测。分析FLOPs:所谓的FLOPs(floating point operations)是指每秒所执行的浮点运算次数,可以用来衡量模型计算复杂度。FLOPs与模型的运行环境(CPU、GPU或TPU)无关,反映模型计算的复杂性。一般来说,模型的FLOPs越大,推理时间就会越长。

在同样的精度下,更低FLOPs的模型效率更高,更适合生产环境。Table 1中列出了Transformer和分类器这两种结构的FLOPs,从中可以看出,分类器的计算负荷(FLOPs)要比Transformer轻得多。这是FastBERT加速的基础,虽然它增加了额外的分类器,但减少Transformer的计算量来实现加速。

BERT、DistilBERT和FastBERT在12个数据集上对比结果如Table 2所示。从Table 2可以看出,Speed=0.1时,FastBERT在多数数据集上比BERT加速2-5倍且无损精度。如果允许精确度稍有损失,FastBERT比BERT快7到11倍。FastBERT甚至在部分任务上(如Weibo)还有细微提升。

相比之下DistillBERT的性价比就不是这么高了,损失的性能换得的速度提升不如FastBERT多。

本文提出一个快速版BERT,即FastBERT。具体来说,FastBERT在训练阶段采用一种自蒸馏机制,在推理阶段采用一种自适应机制,提高了推理效率且准确度损失极少。此外,FastBERT在工业场景中有一个非常实用的特性,即推理速度可调。

实验表明,在不降低性能的情况下,FastBERT可以比BERT快2到3倍。若允许精度略有损失,模型推理加速在1到12倍。此外,FastBERT仍然与其他类BERT模型的参数设置兼容,即可以自由加载其他如BERT-WWM、ERNIE和RoBERTa等预训练的模型。

UUID: c80c4f1f-3aa1-432e-a400-4e5745eedbbc

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2020年-下/2020-07-23_推理怎么又快又稳?且看我FastBERT.txt

是否为广告: 否

处理费用: 0.0059 元