Matching the Blanks: Distributional Similarity for Relation Learning

作者: 吕志亨

来源: 学术头条

发布日期: 2019-08-06

本论文提出了Matching the blanks预训练任务,使用Bert进行关系表示,并在多个数据集上达到SOTA效果,特别在小样本情况下有显著提升。

本论文关注于通用目的关系抽取,使用Bert进行关系表示,并且提出了Matching the blanks预训练任务。论文模型在多个数据集上达到了SOTA的结果,并且在小样本的情况下提升明显。通用目的的关系抽取器,即能够对任意关系建模的关系抽取器,是信息抽取研究中的愿景。论文使用Bert来对文本关系进行表示,并且提出了Matching the blanks的方法来预训练任务不可知的关系抽取模型。

论文的模型在Few-shot关系抽取的数据集FewRel上达到了SOTA的结果,并超过了数据集给定的人类水平,并且在有监督的关系抽取数据集SemEval 2010 Task8、KBP37、TACRED上也达到了SOTA的效果。

论文的贡献主要有两个:测试了Bert的不同的输入方式和输出方式对关系抽取结果的影响;提出了关系抽取预训练任务Matching the blanks,在少样本关系抽取任务上效果提升明显。

首先考虑Bert的输入方式,即如何在输入中指定两个实体的位置,论文中提出了三种方法:STANDARD:标准输入,不指定实体位置;POSITIONAL EMB:位置嵌入,Bert的输入本来就有segment embedding,这里把实体1和实体2所在的token的segment type置为1和2;ENTITY MARKER:实体标记,在实体1和实体2的两侧用特殊标记标记实体位置。

对于输出方式,即如何从Bert最后一层的输出得到关系表示,论文中也提出了三种方法:[CLS]:用[CLS] token的表示作为关系表示;MENTION POOL:分别对两个实体对应token的表示作max pooling,然后拼接得到关系表示;ENTITY START:两个实体开始位置特殊标记token的表示,拼接起来作为关系表示。

论文模型使用Bert Large的参数进行初始化,在Matching the blanks任务上预训练后,再在具体的关系抽取任务上进行fine-tune。在Matching the blanks任务上预训练的Bert模型要优于原来的Bert模型,并且在三个有监督的关系抽取数据集上达到了SOTA的结果。

Matching the blanks预训练使得模型需要更少的标注样例进行fine-tune,更适用于少样本或少资源的场景。

UUID: 5331397c-51b3-4166-91b4-a3f93e970f0e

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2019年/2019-08-06_【ACL2019】MatchingtheBlanks预训练关系表示模型.txt

是否为广告: 否

处理费用: 0.0033 元