2. 新疆多语种信息技术实验室, 乌鲁木齐 830046;
3. 新疆多语种信息技术研究中心, 乌鲁木齐 830046;
4. 新疆大学 软件学院, 乌鲁木齐 830046
2. Xinjiang Laboratory of Multi-Language Information Technology, Urumqi 830046, China;
3. Xinjiang Multi-Language Information Technology Research Center, Urumqi 830046, China;
4. School of Software, Xinjiang University, Urumqi 830046, China
开放科学(资源服务)标志码(OSID):
自然语言处理(Natural Language Processing,NLP)是人工智能和语言学领域的分支学科,近年来,NLP的发展取得了巨大进步,任务划分也更加详尽,其主要下游任务,如关系抽取[1]、文本分类[2]、对话生成、机器翻译和共指消解[3]等均离不开预训练技术。预训练技术使用大规模无标注的文本语料库对深层网络结构进行训练,从而得到一组模型参数,这种深层网络结构通常被称为“预训练模型”[4]。将训练得到的模型参数运用于后续特定的下游任务,可避免从零开始进行再训练的繁琐过程。预训练模型的优点在于训练代价较小,配合下游任务能够达到更好的收敛效果,可以较好地提升模型的性能。
自BERT[5]模型被提出以来,各种预训练语言模型层出不穷。然而,非知识感知的预训练语言模型通常采用浅层网络结构,只进行简单的学习,无法理解更高层次的文本概念,如语义角色、指代等;而知识感知的预训练语言模型能够根据不同的应用目的而加强不同的模块,使模型具备更加专业的业务能力。因此,面对智能要求和专业化程度更高的深层次NLP任务,需要探索并分析将特定种类的外部知识嵌入到特定用途的预训练语言模型中。
目前,已有部分研究人员尝试将外部知识嵌入到预训练语言模型中,评估其在特定下游任务中的性能表现。NLP的外部知识含义广泛,涵盖了语言学知识、语义知识、常识知识、事实知识以及领域知识等[6]。知识丰富的预训练语言模型通常从通用的大规模文本语料库中学习通用的语言表示,以灵活应对多种下游任务并进行相应的微调[7]。基于知识感知[8]对预训练语言模型进行扩展,使得预训练技术进入了一个新的发展阶段。
本文在分析预训练技术发展历程中经典语言模型的基础上,将研究重点转向知识感知的预训练语言模型,分析此类模型相比其他预训练语言模型的优势,研究知识感知对于预训练语言模型性能提升的增强作用,并在多种知识驱动的NLP下游任务中评估模型的性能表现。同时,搜集最新知识感知的预训练语言模型的相关研究成果,对其中多种模型对比实验的结果加以分析,从中归纳总结已有知识感知的预训练语言模型适用于何种NLP下游任务,从而对未来的研究方向进行展望。
1 研究背景及相关技术 1.1 知识表示学习技术知识感知的预训练语言模型大多基于知识图谱引入丰富的外部知识,因此,本节介绍知识表示学习的原理和其中具有代表性的相关方法。
知识图谱是一种由实体节点和关系组成的语义网络。表示学习旨在将研究对象的语义信息表示为稠密低维实值向量,而知识表示学习则在词向量的启发下面向知识图谱中实体和关系的语义信息进行学习,通过将实体和关系映射到连续的低维向量空间中以实现知识的有效表示[9]。
知识的表示方法主要有符号表示[10]和数值表示:符号表示通常包含字符、关联图和符号等;数值表示通常用标量、向量、概率分布等数值表达事实与知识。
TransE模型[11]是传统且具有代表性的知识表示学习方法,随后针对TransE模型进行改进的方法也层出不穷。TransE模型主要考虑向低维向量空间中嵌入实体和多关系数据的关系问题,采用基于翻译[12]的思想,通过将知识图谱中的关系解释为对应于实体的某种低维嵌入平移向量[13],从而实现对关系的建模,因此,TransE也被称作翻译模型。将三元组
$ {f}_{r}\left(h, t\right)={‖h+r-t‖}_{{l}_{1}/{l}_{2}} $ | (1) |
其中:
此外,还有诸多传统的知识表示学习方法及其改进模型。例如,将不同的实体和关系对象映射到独立语义空间的TransR模型、注重实体与关系之间交互的TransD模型、专注解决多重关系语义问题的TransG模型以及用来处理复杂关系映射问题的TransH模型等。
1.2 预训练技术预训练技术利用大型语料库学习通用语义表示,从而将预训练好的模型的相应结构和权重直接应用于下游任务,其借鉴了迁移学习[14]的思想。迁移学习的本质是在一个数据集上训练基础模型,通过微调等方式使模型可以在其他不同的数据集上处理不同的任务。
1.3 知识融合的预训练方法 1.3.1 语言建模的初步知识本文在不失一般性的前提下研究自回归语言建模问题,将文本
$ p\left( X \right) = \prod\limits_i p ({\omega _i}\left| {{\omega _{ < i}}} \right.) $ | (2) |
其中:
$ p\left( {{\omega _i}\left| {{\omega _{ < i}}} \right.} \right) = {\rm{transformer}}({\omega _i}\left| {{\omega _{ < i}})} \right. $ | (3) |
由式(3)可知,可以通过增大Transformer参数的方法促使语言建模能力提升,即随着Transformer层的扩大和加深,Transformer语言模型逐渐能够输出词法和语法模式之外的更加复杂的语义。
1.3.2 知识与预训练的融合方式预训练语言模型中的所有语义都是由Transformer间接捕获的,预训练中也并无明确的要求用以更好地捕捉知识,而当前期望是其能含蓄地捕捉原始单词序列下的知识,方法之一是采用知识感知的语言建模(KALM)框架[15],在相同数量的Transformer参数中封装更多的信息,而非叠加更多的层或添加外部知识存储。
知识与预训练融合的第一步是利用实体标记器,通过形成一个额外的实体标记序列表明预训练过程的输入和输出中存在实体。在知识感知输入阶段,首先每个单词标记都有一个输入嵌入,同时允许模型学习每个实体的一个实体嵌入,然后将2种嵌入相结合形成知识感知输入,这里的所有嵌入都是随机初始化并在训练前进行学习的。在知识感知输出阶段,使用一个输出头来表示单词概率,另一个输出头来表示实体,并共享单词和实体之间的所有Transformer层。最后,将知识感知的输入和输出引入到标准的多任务设置中,结合语言建模的损失并引入超参数,平衡标准预训练语言模型中的交叉熵与实体预测损失之间的关系。通过上述过程,知识与预训练的融合已基本实现。
2 预训练技术的发展历程预训练的思想起初来源于计算机视觉领域,鉴于预训练在计算机视觉领域取得的较好效果,NLP开始尝试使用预训练技术实现迁移学习。当预训练技术运用于NLP领域时,训练得当的语言模型可以捕获与下游任务相关的许多知识,如长期依赖、层次关系等。此外,在NLP领域进行训预练的显著优势是训练数据可以来源于任意无监督文本语料,即训练过程拥有无限量的训练数据。
早期的预训练是一种静态技术,NNLM[16]作为使用神经网络实现语言模型的经典范例,早在2003年就已被提出,Word2Vec[17]借鉴NNLM的思想使用语言模型得到词向量,随后GloVe[18]和FastText[19]相继被提出,使得这种静态的预训练技术逐渐成为最常用的文本表征技术之一[20]。但是,这种预训练技术归根到底是一种静态技术,其对不同语境的适应能力较差,且对下游任务的性能提升收效甚微。
为解决上述问题,研究人员开始关注动态的预训练技术。自2018年PETERS等[21]提出一种上下文相关的文本表示方法以来,DPT、BERT、XLNet[22]等预训练语言模型相继被提出,预训练技术逐渐在NLP领域得到广泛应用。BERT的出现将预训练语言模型的发展推向高潮,此后相继涌现出一系列新式的预训练技术,就模型结构而言,它们所训练的模型一类是基于BERT的改进模型,另一类则是XLNet,关于预训练技术的研究自此进入新阶段。
2.1 静态预训练技术本节主要总结分析NNLM、Word2Vec、GloVe、FastText等静态预训练技术。
2003年BENGIO提出的NNLM是早期使用神经网络实现语言模型的经典模型,其本质是一个N-Gram语言模型。研究人员将模型的第一层特征映射矩阵当作词的文本表征,从而开创将词语表示为向量形式的模式,启发了后续Word2Vec的有关研究。NNLM的不足之处在于只利用了上文信息,并未结合更多的上下文信息,此外,其输出层存在词表较大引发计算量过大的问题。
2013年MIKOLOV提出的Word2Vev在模型结构和训练技巧方面对NNLM进行了优化,并提出使用语言模型作为词向量的构思。该文首先提出CBOW[23]和Skip-gram[24]以简化模型结构,其次使用Hierarchical Softmax[25]和Negative Sampling技术解决普通Softmax计算量过大的问题,最后将词向量更换为需要由上下文词向量[26]求和得到的语境向量。上述优化使得在大规模无监督文本语料上训练得到的词向量在语义上取得了良好的性能表现。
2014年PENNINGTON等提出的GloVe是一个基于全局词频统计的词表征工具,它可以将某个单词表达成由实数组成的向量,通过向量获取单词之间的语义特性,对向量进行运算可以得出2个单词之间的语义相似度[27]。与Word2Vec相比,GloVe主要利用词语的共现信息构建模型,其训练主要包含统计共现矩阵和训练获取词向量2个步骤。
2016年,Word2Vec的提出者MIKOLOV再次提出FastText,其利用有监督标记的文本分类数据进行训练。FastText的网络结构与CBOW类似,但学习目标是人工标注的分类结果,两者均使用Hierarchical Softmax技术加速训练。此外,FastText为了利用更多的语序信息,增加了N-Gram[28]的输入信息,在训练词向量时引入subword来处理长词,这些改进均使得FastText的训练速度大幅提升。
2.2 动态预训练技术随着NLP应用场景的不断丰富,以往采用静态预训练技术训练的模型有时无法很好地完成特定的任务。在此情形下,动态预训练技术方案应运而生,本节主要概述其中经典且具有代表性的ELMo、GPT和BERT。
2018年,ELMo提出一种上下文相关的文本表示方法,根据当前上下文对Word Embedding[29]进行动态调整,其任务采用典型的两阶段划分:第一阶段利用语言模型进行预训练;第二阶段在下游任务进行时从预训练网络中提取对应单词,将其网络各层的Word Embedding作为新特征补充到下游任务中。虽然ELMo在当时的适用范围非常广泛,但其选择LSTM[30]作为特征提取器,而非提取能力更强的Transformer,导致在某些任务中的表现受到一定限制。
2018年,RADFORD等提出的GPT使用生成式方法训练语言模型,选用Transformer作为特征提取器,同样也划分为两阶段过程:第一阶段利用语言模型进行预训练,但其采用的是单向语言模型;第二阶段通过微调(Fine-tuning)模式处理下游任务。由于仅选取预测词的上文进行预测,因此GPT在某些应用任务中仍然无法取得较好的效果。
2018年,谷歌团队的BERT模型一经发布,立即刷新了11项NLP任务的性能记录。BERT模型的架构基于Transformer,实现多层双向的Transformer编码器,其同样被划分为两阶段过程:第一阶段的预训练过程包含Masked Language Model[31]和Next Sentence Prediction[32]2个任务;第二阶段使用Fine-tuning模式处理下游任务。与GPT相比,BERT效果更优,这主要归功于双向语言模型发挥的主要作用,尤其在下游任务中,其作用更加凸显。此外,Next Sentence Prediction在个别任务中也有出色表现。虽然BERT在众多任务中表现优异,但其参数量巨大,导致计算资源消耗大幅提升。
2.3 新兴预训练技术新兴预训练技术从模型结构上可分为两类:一类是能够获得真双向上下文信息的自回归语言模型XLNet;另一类是基于BERT的改进模型,包括改进生成任务、引入多任务、引入知识以及改进训练方法等改进模型。
在BERT的众多改进模型中,MASS[33]和UNILM[34] 2个模型均致力于改进BERT在其生成任务中的表现。其中,MASS在机器翻译任务中效果显著,UNILM则在摘要生成、问题生成、对话回复生成以及生成式问答任务中效果更佳。MT-DNN[35]和ERNIE 2.0[36] 2个模型通过引入多任务学习改进BERT。其中,MT-DNN能更好地在小数据集上实现微调,ERNIE 2.0则在阅读理解、情感分析以及问答任务上效果显著。ERNIE 1.0和ERNIE(THU)[37]2个模型通过引入知识,使预训练语言模型能够学习到蕴含在深层文本中的潜在知识。其中,ERNIE 1.0在自然语言推断[38]、语义相似度、情感分析、命名实体识别[39]以及问答匹配任务中较BERT表现更佳,ERNIE(THU)则在知识驱动型任务中效果显著。RoBERTa[40]模型采用比BERT更加精细的参数和训练方法,在句子关系推断任务中具有比BERT更好的性能。BERT-WWM更改原预训练阶段的训练样本生成策略,当被掩蔽的词块标记属于一个整词时,所有构成一个完整词的词块标记将一起被掩蔽。由于BERT-WWM缺乏中文语言相关模型,哈工大讯飞实验室提出了全词覆盖的中文BERT预训练模型,即BERT-wwm-ext[41],其增加了训练数据集同时也增加了训练步数,进一步促进中文信息处理研究的发展。为解决目前预训练模型参数量过大的问题,ALBERT(A Lite BERT)[42]提出2种能够大幅减少预训练模型参数量的方法,用SOP(Sentence-Order Prediction)任务代替BERT中的NSP(Next-Sentence Prediction)任务,在多个自然语言理解任务中取得了较优的结果。在BERT模型的基础上进行改进得到的分词级别的预训练模型SpanBERT[43],对随机的邻接分词而非随机的单个词语添加掩模,通过使用分词边界的表示来预测被添加掩模的分词内容,其在问答、指代消解等分词选择任务中取得了较大的进展。华为、华科联合提出的TinyBERT模型[44]是一种基于transformer而专门设计的知识蒸馏[45]方法,其模型大小不足BERT的1/7,但将处理速度相对BERT提高了9倍,大幅降低了其应用成本。
XLNet模型使用排列语言模型、双流自注意力和循环三大机制,不仅解决了BERT单词之间预测不独立的问题,还使得自回归模型也可获得真双向的上下文信息。
预训练的语言表示模型(如ELMo、BERT和XLNet等)从大规模的非结构化和无标记语料库中学习有效的语言表示,并凭借其优异的性能在各种NLP任务中发挥着重要作用。然而,它们大多缺乏真实的世界知识,最新的研究结果表明,可以通过将外部知识注入到预训练语言模型中来解决某些文本理解较为局限的问题。
3 知识感知的预训练语言模型预训练语言模型通常从通用的大规模文本语料库中学习通用的语言表示,但其大多缺乏特定领域的知识。目前已有许多研究人员尝试将外部知识库中的领域知识整合到预训练语言模型中,再将这些模型分别运用于各自适用的NLP下游任务并从中监测其表现,结果表明,这种通过知识嵌入增强预训练语言模型性能的方法具有有效性。
本文根据外部知识的范围,从语言学、语义、常识、事实以及特定领域的知识等方面出发,对现有相关模型进行归纳和总结,重点介绍其中具有代表性的知识感知的预训练语言模型。
3.1 事实知识融合的预训练语言模型现有的预训练语言模型很少考虑引入知识图谱(KGs)[46],而知识图谱可以为语言理解提供丰富的结构化知识事实。
清华大学与华为公司的相关研究人员认为,KGs中的信息实体可以作为外部知识来增强语言表示,因此,他们提出一种使用信息实体增强语言表示的模型ERNIE(THU),该模型利用大规模的文本语料库和KGs训练得到一个增强的语言表示模型。
3.1.1 ERNIE(THU)总体架构如图 1所示,ERNIE(THU)模型架构由2个堆叠的模块组成:
![]() |
Download:
|
图 1 ERNIE(THU)总体架构 Fig. 1 The architecture of ERNIE (THU) |
1)底层文本编码器(T-Encoder)负责从输入标记中捕获基本的词汇和语法信息。
2)上层知识丰富的编码器(K-Encoder)负责将额外的面向标记的知识信息集成到底层的文本信息中,以便在统一的特征空间中表示标记和实体的异构信息。
3.1.2 ERNIE(THU)预训练与BERT相似,ERNIE(THU)也采用掩码语言模型(MLM)和下一句预测(NSP)作为预训练任务,以从文本标记中捕捉词法和句法信息。
为能够通过信息实体将知识注入到语言表示中,可以采用随机掩盖部分标记-实体对齐的方法,要求系统基于对齐的标记预测对应的实体,且只需根据给定的实体序列来预测实体,而非KGs中的所有实体。上述过程称为去噪实体自动编码器(dEA)。
给定标记序列
$ p({e_j}|{w_i}) = \frac{{{\rm{exp}}({\rm{linear}}(w_i^o) \cdot {e_j})}}{{\sum\limits_{k = 1}^m {\rm{e}} {\rm{xp}}({\rm{linear}}(w_i^o) \cdot {e_k})}} $ | (4) |
其中:
对于常见的NLP任务,ERNIE(THU)采用类似于BERT的微调过程,而对于知识驱动的NLP任务(如关系分类和实体键入),ERNIE(THU)设计了特殊的微调过程。
关系分类任务要求系统根据上下文对给定实体对的关系标签进行分类,通过添加2个标记符号修改输入标记序列以突出实体提及,这些额外的标记符号在传统关系分类模型中扮演着类似于位置嵌入的角色。ERNIE(THU)同样也采取[CLS]标记嵌入分类,还分别为头部实体和尾部实体设计了不同的标记[HD]和[TL]。
实体键入任务的特定微调是关系分类任务微调的简化过程,由于之前的类型模型充分利用了上下文嵌入和实体提及嵌入,因此修改后的输入序列带有提及标记符[ENT],可以引导ERNIE(THU)将上下文信息和实体提及信息相结合。
3.1.4 ERNIE(THU)评估在FIGER和Open Entity 2个数据集上对BERT和ERNIE(THU)进行微调,评估两者在实体键入任务中的性能;在FewRel和TACRED 2个数据集上对BERT和ERNIE(THU)进行微调,评估两者在关系分类任务中的性能。实验结果如表 1所示。
![]() |
下载CSV 表 1 BERT和ERNIE(THU)的性能对比结果 Table 1 Performance comparison results of BERT and ERNIE (THU) |
从表 1可以看出,ERNIE(THU)模型能同时充分利用词汇、句法和知识信息,在2个知识驱动的NLP任务,即实体键入和关系分类上取得优于BERT的性能。但是,ERNIE(THU)仍存在一定的局限性,比如受命名实体识别(NER)的影响,其依赖于NER提取的准确度,模型复杂度过高。
3.1.5 其他事实知识融合的预训练语言模型ERNIE(THU)模型将预训练在KGs上的实体嵌入与文本中提到的相应实体相结合以增强文本表示。与ERNIE(THU)类似,KG-BERT[47]模型结合预训练模型BERT并修改其输入使BERT适配知识库三元组的形式,以便使更丰富的上下文表示与模型相结合,促使其在三元组分类、链接预测以及关系预测等任务中达到SOTA效果。KnowBERT[48]将BERT与实体链接模型相联合,以端到端的方式合并实体表示:使用常识知识库ConceptNet[49]和情感词典NEC_VAD作为外部知识来源,采用动态上下文感知情感图注意力机制,计算每个token融入知识后的上下文表示;引入相关性因子和情感因子2个因素来衡量上下文相关度和情感强度的权重;提出一种层次化自注意力机制,在利用对话结构表示形式的同时学习上下文语言的向量表示形式。KEPLER[50]将知识嵌入和语言建模目标相结合并进行优化:通过添加类似TransE的预训练机制以增强相应的文本表示,将每个实体与对应的维基百科描述相链接,使之均获得对应的文本描述信息;对于每一个三元组 < 头实体,关系,尾实体 > ,采用基于BERT的编码器,利用实体的描述信息对每个实体进行编码;在得到头实体和尾实体对应的表示之后,基于头实体和关系预测尾实体。上述模型都是通过实体嵌入的方式注入KGs的结构信息。
3.2 领域知识融合的预训练语言模型现有预训练语言模型大多可以在大规模开放领域语料库上进行预训练以获得一般的语言表示,然后在特定的下游任务中进行微调以吸收特定领域的知识。但是,由于预训练和微调之间可能存在领域差异,此类模型往往在知识驱动任务中表现不佳。为此,文献[51]提出基于KGs知识支持的语言表示模型K-BERT,该模型将从KGs中提取的相关三元组作为领域知识显式地注入到句子中,得到BERT的扩展树形输入。由于K-BERT能够从预训练的BERT中加载模型参数,因此无须自行进行预训练,只需配备KGs即可将领域知识注入到模型中。
3.2.1 K-BERT总体架构如图 2所示,K-BERT模型架构由知识层、嵌入层、可见层、掩模转换器等4个模块组成。对于输入的句子,知识层首先从KGs中向其注入相关三元组,将原句转化为知识丰富的句子树;随后句子树被同时输送到嵌入层和可见层,转化为一个标记级别的嵌入表示和一个可见矩阵,可见矩阵用来控制每个标记的可见区域,防止因注入过多知识而导致原句句意改变;最后通过掩模转换器编码后用于下游任务的输出。
![]() |
Download:
|
图 2 K-BERT总体架构 Fig. 2 The architecture of K-BERT |
知识层完成知识注入和句子树转换,输入原始句子
1)知识查询选中输入句子中涉及的所有实体并查询它们在KGs中对应的三元组
$ E=\mathrm{K}\_\mathrm{Q}\mathrm{u}\mathrm{e}\mathrm{r}\mathrm{y}\left(s, K\right) $ | (5) |
其中:
2)知识注入将查询到的三元组注入句子
$ t=\mathrm{K}\_\mathrm{I}\mathrm{n}\mathrm{j}\mathrm{e}\mathrm{c}\mathrm{t}\left(s, E\right) $ | (6) |
嵌入层的作用是将输入的句子树转换为一种嵌入表示并保留其结构化信息,该嵌入表示是标记嵌入、位置嵌入、段嵌入等3个部分之和。
可见层是K-BERT和BERT之间最大的区别,K-BERT通过使用一个可见矩阵
掩模转换器是掩模自注意块的层层堆叠,K-BERT提出的掩模自注意机制是自注意机制的延伸,如下所示:
$ {Q}^{i+1}, {K}^{i+1}, {V}^{i+1}={h}^{i}{W}_{q}, {h}^{i}{W}_{k}, {h}^{i}{W}_{v} $ | (7) |
$ {S}^{i+1}=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left(\frac{{Q}^{i+1}{K}^{i+1}+\boldsymbol{M}}{\sqrt{{d}_{k}}}\right) $ | (8) |
$ {h}^{i+1}={S}^{i+1}{V}^{i+1} $ | (9) |
其中:
将特定领域的数据集分为3个部分,分别用于模型的微调、选择和测试,各模型的检验结果如表 2、表 3所示。
![]() |
下载CSV 表 2 Google BERT模型的预训练表现 Table 2 Pre-training performance of Google BERT model |
![]() |
下载CSV 表 3 改进BERT模型的预训练表现 Table 3 Pre-training performance of the improved BERT model |
从表 2、表 3可以看出,在特定领域的任务(包括金融、法律和医学)中,K-BERT的表现明显优于BERT,尤其在医学领域效果提升显著,这表明K-BERT是解决需要专家知识驱动问题的较佳方案。
上文详细阐述了K-BERT将三元组作为领域知识注入到句子中,并引入可见矩阵限制知识影响以解决噪声问题的过程。
3.2.4 其他领域知识融合的预训练语言模型上文所述方法大多在注入知识时更新预训练模型的原始参数,因此,在注入多种知识时可能会遭遇灾难性遗忘问题。为此,文献[52]提出一种K-Adapter模型,其可以使BERT自适应地与知识相融合:先针对不同的预训练任务对不同的adapter进行独立训练,然后在针对具体的下游任务进行微调时,采用不同的adapter有针对性地加入特征以增强其效果。这样不仅保持了预训练模型的原始参数不变,还能进行持续的知识灌输。
3.3 常识知识融合的预训练语言模型常识知识对某些NLP任务至关重要,其中,大规模常识知识如何促进语言的理解和生成是关键,特别是对话系统,原因是会话交互是一种语义活动[53],如果模型能够访问和充分利用大规模的常识知识,就能更好地理解对话,从而做出更恰当的响应。目前已有研究人员在会话生成中通过引入外部知识来增强对话生成,并取得了一定成果,但在会话生成方面还有一些问题未能解决:
1)一个实体词通常可以指不同的概念,即一个实体有多种含义,但在特定的语境中只涉及一个特定的概念,如果不考虑这一点,一些预先获取的知识事实可能与上下文无关。
2)即使只考虑一个特定的实体意义,相关的知识事实也可能涵盖各种目标主题,但是,其中一些主题并不有助于产生对话。
3)以往方法在知识整合与对话生成方面存在不足,包括整合的方式以及知识的类型。
本节介绍一种全新的常识知识感知的对话生成模型ConKADI[54],该模型可以很好地解决以上问题。
3.3.1 ConKADI总体架构ConKADI总体架构如图 3所示,知识事实集
![]() |
Download:
|
图 3 ConKADI总体架构 Fig. 3 The architecture of ConKADI |
各模块具体如下:
1)知识检索器。给定一个查询消息
2)上下文编码器。该编码器是一个双向GRU网络,其读取
3)虚构事实识别器。某些初步检索到的知识事实在对话上下文中可能不合适,虚构事实识别器旨在检测与对话上下文高度一致的事实,其读取上下文信息,然后在
$ {z_{{\rm{post}}}} = \eta {\left( {\phi \left( {\boldsymbol{F} \cdot {W_{ft}}} \right) \cdot \phi \left( {\left[ {\boldsymbol{h}{{_n^x}^{\rm{T}}};\boldsymbol{h}{{_m^y}^{\rm{T}}}} \right] \cdot {W_{{\rm{post}}}}} \right)} \right)^{\rm{T}}} $ | (10) |
$ {z_{{\rm{prior}}}} = \eta {\left( {\phi \left( {\boldsymbol{F} \cdot {W_{ft}}} \right) \cdot \phi \left( {\boldsymbol{h}{{_n^x}^{\rm{T}}} \cdot {W_{{\rm{prior}}}}} \right)} \right)^{\rm{T}}} $ | (11) |
其中:
$ {\ell _k} = {\rm{KLD}}\left( {{z_{{\rm{post}}}}, {z_{{\rm{prior}}}}} \right) $ | (12) |
基于知识融合和上下文检索,对解码器进行初始化以增强其对背景知识的理解:
$ {{\boldsymbol{h}}_{0}^{y}}^{\mathrm{T}}=\mathrm{t}\mathrm{a}\mathrm{n}\mathrm{h}\left(\left[{{\boldsymbol{h}}_{n}^{x}}^{\mathrm{T}};{{\boldsymbol{f}}_{z}}^{\mathrm{T}}\right]\cdot {W}_{\mathrm{i}\mathrm{n}\mathrm{i}\mathrm{t}}\right) $ | (13) |
采用词袋丢失以确保上下文
$ - \frac{{\sum\limits_{{y_b} \in B} {\rm{l}} {\rm{o}}{{\rm{g}}_a}{p_b}\left( {\left. {{y_b}} \right|{\boldsymbol{h}}_n^x, {{\boldsymbol{f}}_z}} \right)}}{{\left| B \right|}} - \frac{{{I_f}^{\rm{T}} \cdot {\rm{lo}}{{\rm{g}}_a}\left( {{z_{{\rm{post}}}}} \right)}}{{\left| {{I_f}} \right|}} $ | (14) |
其中:
4)三元组知识解码器。该解码器是另一个GRU网络,在每个时间步可以生成词汇、知识实体词和复制词中的一种。词汇的概率分布为:
$ {\boldsymbol{p}}_{w, t}^{\mathrm{T}}=\eta \left(\mathrm{e}\mathrm{l}\mathrm{u}\left(\left[{{\boldsymbol{h}}_{t}^{y}}^{\mathrm{T}};{\boldsymbol{u}}_{t-1}^{\mathrm{T}};{\boldsymbol{c}}_{t}^{\mathrm{T}}\right]\cdot {W}_{v1}\right)\cdot {W}_{v2}\right) $ | (15) |
其中:
知识实体词的概率分布为:
$ {z}_{d, t}=\eta \left(\phi \left(\boldsymbol{F}\cdot {W}_{fd}\right)\cdot \phi {\left(\left[{{\boldsymbol{h}}_{t}^{y}}^{\mathrm{T}};{\boldsymbol{u}}_{t-1}^{\mathrm{T}}\right]\cdot {W}_{d}\right)}^{\mathrm{T}}\right) $ | (16) |
$ {\gamma }_{t}=\mathrm{s}\mathrm{i}\mathrm{g}\mathrm{m}\mathrm{o}\mathrm{i}\mathrm{d}\left(\left[{{\boldsymbol{h}}_{t}^{y}}^{\mathrm{T}};{\boldsymbol{u}}_{t}^{\mathrm{T}};{\boldsymbol{c}}_{t}^{\mathrm{T}}\right]\cdot {W}_{\mathrm{g}\mathrm{a}\mathrm{t}\mathrm{e}}\right)\in \mathbb{R} $ | (17) |
$ {p}_{k, t}={\gamma }_{t}\times z+\left(1.0-{\gamma }_{t}\right)\times {z}_{d} $ | (18) |
其中:
$ {p}_{c, t}=\eta \left(\phi \left({H}^{x}\cdot {W}_{cs}\right)\cdot \phi {\left({{\boldsymbol{u}}_{t}^{c}}^{\mathrm{T}}\cdot {W}_{ct}\right)}^{\mathrm{T}}\right) $ | (19) |
$ {{\boldsymbol{u}}_{t}^{c}}^{\mathrm{T}}=\left[{{\boldsymbol{h}}_{t}^{y}}^{\mathrm{T}};{\boldsymbol{u}}_{t-1}^{\mathrm{T}};{\boldsymbol{c}}_{t}^{\mathrm{T}}\right] $ | (20) |
随后通过最小化
$ - \sum\limits_t {{\lambda _t}}\mathrm{l}\mathrm{o}{\mathrm{g}}_{a}{p}_{\mathrm{o}\mathrm{u}\mathrm{t}, t}\left(\left.{y}_{t}\right|{y}_{t-1:1}, X, \boldsymbol{F}\right)+\frac{\ell _m}{2} $ | (21) |
训练目标是通过最小化如下
$ \ell = {\ell _n} + {\ell _k} + {\ell _f} $ | (22) |
为了研究不同语言之间的泛化性,实验采用公开的英语Reddit数据集、中文微博数据集,基线选取S2S、ATS2S、GenDS和CCM等模型,从知识利用率、基于嵌入的相关性、基于重叠的相关性、多样性和信息量这5个方面进行评价。为了验证模型的综合性能,先按平均指标(AVG)计算7个基线的平均得分,然后计算算术平均得分如下:
$ {R_{\rm{a}}} = \frac{1}{5}\sum\limits_{{A_i}} {\left( {\frac{1}{{\left| {{A_i}} \right|}}\sum\limits_{m \in {A_i}} {\frac{{{m_j}}}{{{m_{j, {\rm{AVG}}}}}}} } \right)} $ | (23) |
计算几何平均得分如下:
$ {R_{\rm{g}}} = {\left( {\prod\limits_{{A_i}} {{{\left( {\prod\limits_{{m_j} \in {A_i}} {\frac{{{m_j}}}{{{m_{j, {\rm{AVG}}}}}}} } \right)}^{\frac{1}{{\left| {{A_i}} \right|}}}}} } \right)^{\frac{1}{5}}} $ | (24) |
实验结果如表 4、表 5所示,从表 4、表 5可以看出:在相对得分方面,ConKADI的整体表现优于基线模型,与最先进的CCM方法相比,ConKADI在中文数据集上的得分分别提高了153%(算术)、95%(几何),在英文数据集上分别提高了48%(算术)、25%(几何);在知识利用率方面,GenDS、CCM、ConKADI等3种知识感知模型的表现显著优于其他模型,而与GenDS、CCM相比,ConKADI对知识的利用率更高,并且更能找出准确的知识;在多样性和信息性方面,ConKADI性能提升显著归因于上下文-知识融合;在相关性方面,由于数据集存在内在差异,因此ConKADI在中文数据集上的整体性能最好,但在英文数据集上其性能并不理想。
![]() |
下载CSV 表 4 各模型在中文微博数据集上的性能对比结果 Table 4 Performance comparison results of each model on Chinese microblog dataset |
![]() |
下载CSV 表 5 各模型在英文Reddit数据集上的性能对比结果 Table 5 Performance comparison results of each model on English Reddit dataset |
综上,ConKADI模型提出的上下文知识融合和灵活模式融合可以促进知识整合,在开放发布的英文数据集和中文数据集中取得显著成果,但其在推进高质量知识整合方面仍存在一定的局限性。
3.3.3 其他常识知识融合的预训练语言模型在其他常识知识融合的预训练语言模型中,常识知识感知的会话生成模型CCM[55]与现有单独使用知识三元组(实体)的模型不同,CCM将每个知识图视为一个整体,在图中编码结构化更强、连接更紧密的语义信息。具体来说,CCM通过从一个知识库中检索出相关的知识图谱,并采用静态的图注意机制对其进行编码,促进开放领域会话系统中的语言理解和生成,然后通过动态图注意机制在词生成过程中检索知识图和图中的每个知识三元组,以便更好地完成生成任务。
3.4 语义知识融合的预训练语言模型受BERT掩蔽策略的启发,百度提出一种新的知识增强语言表示模型ERNIE(baidu),用来学习通过知识掩蔽策略增强的语言表示。ERNIE(baidu)的掩蔽策略如图 4所示。
![]() |
Download:
|
图 4 ERNIE(baidu)的掩蔽策略 Fig. 4 The masking strategy of ERNIE (baidu) |
与BERT相同,ERNIE(baidu)使用多层Transfomer作为基础编码器,Transformer可以通过自注意机制获取句子中每个标记的上下文信息,并生成上下文嵌入序列。
对于汉语语料库,本文使用词块对汉语句子进行标记。对于给定的标记,其输入表示是由相应的令牌、段和位置嵌入的总和构成的,每个序列的第一个标记是特殊分类嵌入([CLS])。
3.4.2 ERNIE(baidu)的知识集成方法知识集成的主要思路是使用先验知识增强预训练语言模型。ERNIE(baidu)提出一种多阶段知识掩蔽策略,将短语级和实体级知识整合到语言表示中,而非直接添加知识嵌入。句子的不同掩蔽级别如图 5所示。
![]() |
Download:
|
图 5 句子的不同掩蔽级别 Fig. 5 Different masking levels of a sentence |
第一阶段是基础级掩蔽,在训练过程中随机掩码15%的基本语言单元,并使用句子中其他基本语言单元作为输入,训练一个Transformer来预测掩码单元,由此得到的基本词表示很难对高级语义知识进行完全建模。
第二阶段是短语级掩蔽,同样使用基本语言单元作为训练输入,不同于上一阶段,这次选择随机掩蔽几个短语,并预测同一短语中的所有基本单元。在此阶段,短语信息被编码到词嵌入中。
第三阶段是实体级掩蔽,实体通常在句子中包含重要信息。在上一阶段,分析得到句子中的命名实体并将其掩蔽,随后进行预测并填补空缺的实体。
经过上述3个阶段的学习,能够得到经过丰富语义信息增强后的词表示。
3.4.3 ERNIE(baidu)评估ERNIE(baidu)和BERT在自然语言推理、语义相似度、命名实体识别、情感分析和问答这5个中文自然语言处理任务中的性能表现如表 6所示。
![]() |
下载CSV 表 6 ERNIE(baidu)和BERT在5个中文自然语言处理任务中的性能对比 Table 6 Performance comparison of ERNIE(baidu) and BERT in five Chinese NLP tasks |
从表 6可以看出,通过对异构数据的知识整合和预训练,模型的语义表示能力显著增强,能够获得更好的语言表达。在上述5个中文自然语言处理任务中,ERNIE(baidu)的表现均明显优于BERT。
以上详细阐述了ERNIE(baidu)在BERT的基础上使用Transformer[56]作为特征抽取器,加入海量语料中的短语、实体等先验语义知识,从而建模真实世界语义关系的过程。与BERT相比,ERNIE(baidu)仅对学习任务MLM稍作改进就取得了较好的成效。
3.4.4 其他语义知识融合的预训练语言模型ERNIE(baidu)的改进模型ERNIE 2.0是基于持续学习的语义理解预训练框架,使用多任务学习增量式构建预训练任务,新增的语义任务包括预测句中词汇、重建和重排句子结构、判断句间逻辑关系等。采用语言学及语义知识注入的预训练语言模型还有面向中文理解的神经语境表征模型NEZHA[57],其在BERT的基础上进行的改进包括作为有效位置编码方案的函数相对位置编码、全词掩蔽策略、混合精度训练和训练模型的LAMB优化器。使用N-gram[58]表示增强的中文文本编码器的预训练模型ZEN[59],其基于BERT,在训练过程中考虑不同的字符组合,整合字符序列及其所包含的单词或短语的综合信息,相比于其他编码器使用更少的资源,却能在大多数任务上展现出更佳的性能。基于BERT的汉语全词掩蔽预训练语言模型BERT-WWM-Chinese[60],当被掩蔽的词块标记属于整词时,所有构成整词的词块标记都将被一并掩蔽,迫使模型在掩蔽语言模型(MLM)的预训练任务中恢复整个单词,而不仅仅恢复单词标记。上述模型均通过对BERT进行微小改进而使得表征能力和训练速度大幅提升。
3.5 专业知识融合的预训练语言模型本节以预训练技术在生物医学领域的应用为代表,介绍将特定领域的专业知识注入到预训练语言模型的相关研究。
随着生物医学文档数量的快速增长,生物医学文本挖掘需求日益增大。BioBERT模型[61]是一种注入了生物医学领域知识的预训练语言模型,其基于BERT,致力于合理利用生物医学语料库,达到最佳的预期效果以帮助临床实践。BioBERT的预训练和微调过程如图 6所示。
![]() |
Download:
|
图 6 BioBERT的预训练和微调流程 Fig. 6 Pre-training and fine-tuning procedure of BioBERT |
首先使用BERT的权重初始化BioBERT,该BERT已在通用领域语料库(英语Wikipedia和BooksCorpus)上进行了预训练;然后对BioBERT进行生物医学领域语料库(PubMed摘要和PMC全文文章)的预训练。用于BioBERT预训练的文本语料库如表 7所示,经过测试的文本语料库组合如表 8所示。
![]() |
下载CSV 表 7 BioBERT使用的文本语料库列表 Table 7 List of text corpora used by BioBERT |
![]() |
下载CSV 表 8 文本语料库的不同组合 Table 8 Different combinations of text corpora |
本文针对命名实体识别(NER)、关系提取(RE)和问题解答(QA)这3个具有代表性的生物医学文本挖掘任务对BioBERT进行调整。
NER是最基本的生物医学文本挖掘任务之一,涉及识别生物医学语料库中的众多领域特定专有名词,在预训练和微调过程中,BioBERT直接学习词块嵌入,使用实体级精度、召回率和
QA是一种用自然语言对相关段落提出的问题进行回答的任务,为了对BioBERT的QA进行微调,本文采用SQuAD数据集的BERT架构。由于BioASQ的格式与SQuAD相似,BioBERT使用了BioASQ事实数据集,利用单个输出层计算答案短语开始/结束位置的令牌级别概率。然而,约30%的BioASQ问题在抽取的QA设置中无法回答,因为确切的答案没有出现在给定的段落中,所以将无法回答问题的样本从训练集中剔除。使用strict accuracy、lenient accuracy和mrr(mean reciprocal rank)作为QA的评价指标。mrr得分的计算公式为:
$ {M_{{\rm{mrr}}}} = \frac{1}{{\left| Q \right|}}\left| {\sum\limits_{i = 1}^{\left| Q \right|} {\frac{1}{{R_{{\rm{rank}}}^i}}} } \right| $ | (25) |
本次实验使用较多生物医学NLP研究人员常用的数据集,包括NCBI疾病、BC5CDR、BC4CHEMD等,本文将BERT和BioBERT与当前最新模型进行比较,并报告其得分。
NER结果如表 9所示,从表 9可以看出:仅对通用域语料库进行预训练的BERT具有有效性,但是BERT的微观平均F1得分比最新模型低(2.01);另一方面,在所有数据集上,BioBERT的得分均高于BERT,在9个数据集中,有6个数据集上的BioBERT性能优于最新模型。RE结果如表 10所示,从表 10可以看出,BERT的性能优于CHEMPROT数据集上的最新模型,这证明了其在RE中的有效性。从平均水平(微型)来看,BioBERT v1.0(+PubMed)的F1得分高于最新模型。此外,BioBERT在2个生物医学数据集中均获得了最高的F1分数。QA结果如表 11所示,从表 11可以看出,BioBERT各项性能明显优于BERT和最新模型。
![]() |
下载CSV 表 9 生物医学命名实体识别测试结果 Table 9 Test results of biomedical named entity recognition |
![]() |
下载CSV 表 10 生物医学关系提取测试结果 Table 10 Test results of biomedical relation extraction |
![]() |
下载CSV 表 11 生物医学问题回答测试结果 Table 11 Test results of biomedical question answerin |
以上主要介绍用于生物医学文本挖掘的预训练语言表示模型BioBERT,实验结果证明,在生物医学语料库上对BERT引入特定领域知识,对于将其应用于生物医学领域至关重要。只需对特定任务进行微小的架构修改,BioBERT就可以在生物医学文本挖掘任务(如NER、RE和QA等)中取得优异成果。
3.5.4 其他专业知识融合的预训练语言模型基于BERT语言模型的专利分类模型PatentBERT[62]通过使用带有单词嵌入的CNN方法,集中对一个预训练BERT模型做适当微调,并将其应用于专利分类这个多标签分类任务。面向科学文本的预训练语言模型SciBERT[63]利用大型多领域科学出版物语料库进行无监督的预训练,以提高下游科学自然语言处理任务的效果。
3.6 模型性能总结对比前文根据外部知识的分类,分别对语言学、语义、事实、常识、领域知识等多种类型知识注入的预训练语言模型进行详细阐述,实验结果证明,在知识驱动的NLP下游任务中使用知识感知的预训练语言模型,有助于提升工作效率。
通过对以上知识感知的预训练语言模型在执行常识和推理任务时所需的信息资源进行分析,本文评估并归纳不同预训练语言模型的综合性能,结果如表 12所示。
![]() |
下载CSV 表 12 知识感知的预训练语言模型性能对比结果 Table 12 Performance comparison results of knowledge-aware pre-trained language models |
目前,知识感知的预训练语言模型在NLP任务中得到广泛应用并获得了良好收益,但是,一些不足之处也逐渐显现,其发展主要面临如下挑战:
1)预训练代价大。预训练模型的规模呈现逐步扩大的趋势,虽然其能力越来越强,但模型的参数也越来越多,因此,对计算设备的算力提出了更高的要求。预训练语言模型如何使用较小的代价来高质量地完成NLP任务是其当前面临的问题之一。
2)深层结构化语义分析存在明显的性能不足。当前大多数引入了语义知识的预训练语言模型仍难以抵御文本对抗攻击,当面向非规范和专用领域文本时,分析精度大幅降低,说明模型未能完全学习语言的真正寓意。仅在通用语料库上进行训练的模型往往经验不足,无法较好完成常识和推理任务,不符合人类使用语言的交际意图。
3)形式化知识在语言模型中存在明显构成缺失。该问题导致在问答任务中无法基于常识给出正确的回答,不足以完成细粒度的关系抽取,命名实体识别精度不高以及在知识图谱的知识系统中缺少动作、行为、状态以及事件逻辑关系的形式化描写。
4)跨模态的语言理解存在明显融通局限。跨模态关系因缺乏深层结构化语义分析和世界知识导致推理能力较弱,造成语言理解形意相离。
与此同时,知识感知的预训练语言模型已在现阶段部分知识驱动的NLP下游任务中崭露头角。预训练语言模型未来可能的研究方向如下:
1)降低预训练语言模型的训练成本。当前已有研究人员致力于在损失较小精度的前提下探索更小、更快的预训练语言模型,当前提供的思路包含对模型采用压缩和知识蒸馏[64]等方法,如百度公司发布的ERNIE-Tiny,将ERNIE 2.0 Base模型进行压缩,取得了4.3倍的预测提速。此外,研究新的高效的模型架构也将对降低训练消耗起到积极作用。
2)从海量的非结构化文本而非infobox中搜集系统的非结构化知识,构建新型多元知识图谱增强的预训练语言模型。在实体的静态事实描述较为充分的基础上,进一步完善事件的动态描述以及事件之间逻辑关系的构建。
3)未来可向大数据与富知识共同驱动的方向进行研究,并通过与图像等跨模态信息进行交互,提升以自然语言为核心的中文语义理解能力,在实践中探索经验主义与理性主义相结合的自然语言处理新范式。
5 结束语本文阐述预训练技术的发展历程,分析其中经典的预训练语言模型,如BERT及其改进模型,归纳近年来预训练技术在NLP领域的应用现状和趋势。对现有预训练语言模型在NLP特定下游任务中的表现进行评估,结果表明,外部知识的引入对预训练语言模型在多种NLP下游任务中的性能提升起到积极作用。知识感知的预训练语言模型或可在更多特殊的应用情境中取得优异表现,逐步探索构建低成本、非结构化和可实现跨模态交互的预训练语言模型将是下一步的研究方向。
[1] |
LIN Y, LIU Z, SUN M, et al. Learning entity and relation embeddings for knowledge graph completion[C]//Proceedings of AAAI Conference on Artificial Intelligence. New York, USA: AAAI Press, 2015: 134-145.
|
[2] |
DUAN D D, TANG J S, WEN Y, et al. Chinese short text classification algorithm based on BERT model[J]. Computer Engineering, 2021, 47(1): 79-86. (in Chinese) 段丹丹, 唐加山, 温勇, 等. 基于BERT模型的中文短文本分类算法[J]. 计算机工程, 2021, 47(1): 79-86. |
[3] |
SOON W M, NG H T, LIM D C Y. A machine learning approach to coreference resolution of noun phrases[J]. Computational Linguistics, 2001, 27(4): 521-544. DOI:10.1162/089120101753342653 |
[4] |
RADFORD A, NARASIMHAN K, SALIMANS T, et al. Improving language understanding by generative pre-training[EB/OL]. [2021-01-05]. https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf.
|
[5] |
DEVLIN J, CHANG M W, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[EB/OL]. [2021-01-05]. https://aclanthology.org/N19-1423.pdf.
|
[6] |
QIU X, SUN T, XU Y, et al. Pre-trained models for natural language processing: a survey[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/2003.08271v2.pdf.
|
[7] |
HOWARD J, RUDER S. Universal language model fine-tuning for text classification[EB/OL]. [2021-01-05]. https://aclanthology.org/P18-1031.pdf.
|
[8] |
ROSSET C, XIONG C, PHAN M, et al. Knowledge-aware language model pretraining[EB/OL]. [2021-01-05]. https://openreview.net/pdf?id=OAdGsaptOXy.
|
[9] |
LIU H C, YOU J X, LI Z W, et al. Fuzzy petrinets for knowledge representation and reasoning: a literature review[J]. Engineering Applications of Artificial Intelligence, 2017(60): 45-56. |
[10] |
GUO S, WANG Q, WANG B, et al. SSE: semantically smooth embedding for knowledge graphs[J]. IEEE Transactions on Knowledge and Data Engineering, 2017(29): 884-897. |
[11] |
BORDES A, USUNIER N, GARCIA-DURAN A, et al. Translating embeddings for modeling multi-relational data[EB/OL]. [2021-01-05]. https://proceedings.neurips.cc/paper/2013/file/1cecc7a77928ca8133fa24680a88d2f9-Paper.pdf.
|
[12] |
DING Y X, WU R, ZHANG X. Ontology-based knowledge representation for malware individuals and families[J]. Computers & Security, 2019(87): 101574. |
[13] |
LIU Z Y, SUN M S, LIN Y K, et al. Knowledge representation learning: a review[J]. Journal of Computer Research and Development, 2016, 53(2): 247-261. (in Chinese) 刘知远, 孙茂松, 林衍凯, 等. 知识表示学习研究进展[J]. 计算机研究与发展, 2016, 53(2): 247-261. |
[14] |
LU C Y, KANG Y, YANG C R, et al. Text feature alignment algorithm for transfer learning based on semantic structure[J]. Computer Engineering, 2019, 45(5): 116-121. (in Chinese) 卢晨阳, 康雁, 杨成荣, 等. 基于语义结构的迁移学习文本特征对齐算法[J]. 计算机工程, 2019, 45(5): 116-121. |
[15] |
WAN J, HUANG X. KaLM at SemEval-2020 task 4: knowledge-aware language models for comprehension and generation[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/2005.11768v2.pdf.
|
[16] |
SHI Y, ZHANG W Q, CAI M, et al. Efficient one-pass decoding with NNLM for speech recognition[J]. IEEE Signal Processing Letters, 2014, 21(4): 377-381. DOI:10.1109/LSP.2014.2303136 |
[17] |
GOLDBERG Y, LEVY O. word2vec explained: deriving Mikolov et al. 's negative-sampling word-embedding method[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/1402.3722.pdf.
|
[18] |
PENNINGTON J, SOCHER R, MANNING C D. Glove: global vectors for word representation[C]//Proceedings of 2014 Conference on Empirical Methods in Natural Language Processing. Washington D.C., USA: IEEE Press, 2014: 1532-1543.
|
[19] |
JOULIN A, GRAVE E, BOJANOWSKI P, et al. Bag of tricks for efficient text classification[EB/OL]. [2021-01-05]. https://pdfs.semanticscholar.org/892e/53fe5cd39f037cb2a961499f42f3002595dd.pdf.
|
[20] |
TAI K S, SOCHER R, MANNING C D. Improved semantic representations from tree-structured long short-term memory networks[EB/OL]. [2021-01-05]. https://aclanthology.org/P15-1150.pdf.
|
[21] |
PETERS M E, NEUMANN M, IYYER M, et al. Deep contextualized word representations[EB/OL]. [2021-01-05]. https://aclanthology.org/N18-1202.pdf.
|
[22] |
YANG Z, DAI Z, YANG Y, et al. XLNet: generalized autoregressive pretraining for language understanding[EB/OL]. [2021-01-05]. https://proceedings.neurips.cc/paper/2019/file/dc6a7e655d7e5840e66733e9ee67cc69-Paper.pdf.
|
[23] |
KENTER T, BORISOV A, DE RIJKE M. Siamese CBOW: optimizing word embeddings for sentence representations[EB/OL]. [2021-01-05]. https://aclanthology.org/P16-1089.pdf.
|
[24] |
GUTHRIE D, ALLISON B, LIU W, et al. A closer look at skip-gram modeling[EB/OL]. [2021-01-05]. http://www.lrec-conf.org/proceedings/lrec2006/pdf/357_pdf.pdf.
|
[25] |
PENG H, LI J, SONG Y, et al. Incrementally learning the hierarchical softmax function for neural language models[EB/OL]. [2021-01-05]. http://home.cse.ust.hk/~yqsong/papers/2017-AAAI-Incremental.pdf.
|
[26] |
MCCANN B, BRADBURY J, XIONG C, et al. Learned in translation: contextualized word vectors[EB/OL]. [2021-01-05]. https://papers.nips.cc/paper/2017/file/20c86a628232a67e7bd46f76fba7ce12-Paper.pdf.
|
[27] |
RESNIK P. Semantic similarity in a taxonomy: an information-based measure and its application to problems of ambiguity in natural language[J]. Journal of Artificial Intelligence Research, 1999, 11: 95-130. DOI:10.1613/jair.514 |
[28] |
BOJANOWSKI P, GRAVE E, JOULIN A, et al. Enriching word vectors with subword information[J]. Transactions of the Association for Computational Linguistics, 2017, 5: 135-146. DOI:10.1162/tacl_a_00051 |
[29] |
LEVY O, GOLDBERG Y. Neural word embedding as implicit matrix factorization[J]. Advances in Neural Information Processing Systems, 2014, 27: 2177-2185. |
[30] |
GREFF K, SRIVASTAVA R K, KOUTNÍK J, et al. LSTM: a search space odyssey[J]. IEEE Transactions on Neural Networks and Learning Systems, 2016, 28(10): 2222-2232. |
[31] |
WU X, ZHANG T, ZANG L, et al. "Mask and infill": applying masked language model to sentiment transfer[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/1908.08039.pdf.
|
[32] |
GHAZVININEJAD M, LEVY O, LIU Y, et al. Mask-predict: parallel decoding of conditional masked language models[EB/OL]. [2021-01-05]. https://aclanthology.org/D19-1633.pdf.
|
[33] |
SONG K, TAN X, QIN T, et al. MASS: masked sequence to sequence pre-training for language generation[EB/OL]. [2021-01-05]. https://www.microsoft.com/en-us/research/uploads/prod/2019/06/MASS-paper-updated-002.pdf.
|
[34] |
DONG L, YANG N, WANG W, et al. Unified language model pre-training for natural language understanding and generation[EB/OL]. [2021-01-05]. https://papers.nips.cc/paper/2019/file/c20bb2d9a50d5ac1f713f8b34d9aac5a-Paper.pdf.
|
[35] |
CHENG Y, FU S, TANG M, et al. Multi-task deep neural network enabled optical performance monitoring from directly detected PDM-QAM signals[J]. Optics Express, 2019, 27(13): 19062-19074. DOI:10.1364/OE.27.019062 |
[36] |
SUN Y, WANG S, LI Y, et al. ERNIE 2.0: a continual pre-training framework for language understanding[C]//Proceedings of AAAI Conference on Artificial Intelligence. New York, USA: AAAI Press, 2020: 8968-8975.
|
[37] |
ZHANG Z, HAN X, LIU Z, et al. ERNIE: enhanced language representation with informative entities[EB/OL]. [2021-01-05]. https://aclanthology.org/P19-1139.pdf.
|
[38] |
CONNEAU A, KIELA D, SCHWENK H, et al. Supervised learning of universal sentence representations from natural language inference data[EB/OL]. [2021-01-05]. https://research.fb.com/wp-content/uploads/2017/09/emnlp2017.pdf.
|
[39] |
LAMPLE G, BALLESTEROS M, SUBRAMANIAN S, et al. Neural architectures for named entity recognition[EB/OL]. [2021-01-05]. https://aclanthology.org/N16-1030.pdf.
|
[40] |
LIU Y, OTT M, GOYAL N, et al. RoBERT: a robustly optimized bert pretraining approach[EB/OL]. [2021-01-05]. https://export.arxiv.org/pdf/1907.11692.
|
[41] |
CUI Y, CHE W, LIU T, et al. Pre-training with whole word masking for Chinese BERT[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/1906.08101v2.pdf.
|
[42] |
LAN Z, CHEN M, GOODMAN S, et al. ALBERT: a lite BERT for self-supervised learning of language representations[EB/OL]. [2021-01-05]. https://openreview.net/pdf?id=H1eA7AEtvS.
|
[43] |
JOSHI M, CHEN D, LIU Y, et al. SpanBERT: improving pre-training by representing and predicting spans[EB/OL]. [2021-01-05]. https://www.cs.princeton.edu/~danqic/papers/tacl2020.pdf.
|
[44] |
JIAO X, YIN Y, SHANG L, et al. TinyBERT: distilling BERT for natural language understanding[EB/OL]. [2021-01-05]. https://aclanthology.org/2020.findings-emnlp.372.pdf.
|
[45] |
HINTON G, VINYALS O, DEAN J. Distilling the knowledge in a neural network[J]. Computer Science, 2015, 14(7): 38-39. |
[46] |
AGARWAL O, GE H, SHAKERI S, et al. Large scale knowledge graph based synthetic corpus generation for knowledge-enhanced language model pre-training[EB/OL]. [2021-01-05]. https://aclanthology.org/2021.naacl-main.278.pdf.
|
[47] |
YAO L, MAO C, LUO Y. KG-BERT: BERT for knowledge graph completion[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/1909.03193.pdf.
|
[48] |
PETERS M E, NEUMANN M, LOGAN IV R L, et al. Knowledge enhanced contextual word representations[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/1909.04164.pdf.
|
[49] |
LIU H, SINGH P. ConceptNet-a practical commonsense reasoning tool-kit[J]. BT Technology Journal, 2004, 22(4): 211-226. DOI:10.1023/B:BTTJ.0000047600.45421.6d |
[50] |
WANG X, GAO T, ZHU Z, et al. KEPLER: a unified model for knowledge embedding and pre-trained language representation[EB/OL]. [2021-01-05]. https://bakser.github.io/files/TACL-KEPLER/KEPLER.pdf.
|
[51] |
LIU W, ZHOU P, ZHAO Z, et al. K-BERT: enabling language representation with knowledge graph[C]//Proceedings of AAAI Conference on Artificial Intelligence. New York, USA: AAAI Press, 2020: 2901-2908.
|
[52] |
WANG R, TANG D, DUAN N, et al. K-adapter: infusing knowledge into pre-trained models with adapters[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/2002.01808v3.pdf.
|
[53] |
ZHOU H, YOUNG T, HUANG M, et al. Commonsense knowledge aware conversation generation with graph attention[EB/OL]. [2021-01-05]. http://coai.cs.tsinghua.edu.cn/hml/media/files/2018_commonsense_ZhouHao_3_TYVQ7Iq.pdf.
|
[54] |
WU S, LI Y, ZHANG D, et al. Diverse and informative dialogue generation with context-specific commonsense knowledge awareness[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. San Diego, USA: Association for Computational Linguistics, 2020: 5811-5820.
|
[55] |
ZHOU H, YOUNG T, HUANG M, et al. Commonsense knowledge aware conversation generation with graph attention[EB/OL]. [2021-01-05]. http://coai.cs.tsinghua.edu.cn/hml/media/files/2018_commonsense_ZhouHao_3_TYVQ7Iq.pdf.
|
[56] |
HAYKIN S, KOSKO B. Gradientbased learning applied to document recognition[EB/OL]. [2021-01-05]. https://axon.cs.byu.edu/~martinez/classes/678/Papers/Convolution_nets.pdf.
|
[57] |
WEI J, REN X, LI X, et al. NEZHA: neural contextualized representation for Chinese language understanding[EB/OL]. [2021-01-05]. https://lonepatient.top/2020/01/20/NEZHA.
|
[58] |
SHAOUL C, BAAYEN R H, WESTBURY C F. N-gram probability effects in a cloze task[J]. The Mental Lexicon, 2014, 9(3): 437-472. DOI:10.1075/ml.9.3.04sha |
[59] |
DIAO S, BAI J, SONG Y, et al. ZEN: pre-training Chinese text encoder enhanced by N-gram representations[EB/OL]. [2021-01-05]. https://aclanthology.org/2020.findings-emnlp.425.pdf.
|
[60] |
CUI Y, CHE W, LIU T, et al. Pre-training with whole word masking for Chinese BERT[EB/OL]. [2021-01-05]. https://arxiv.org/pdf/1906.08101v2.pdf.
|
[61] |
LEE J, YOON W, KIM S, et al. BioBERT: a pre-trained biomedical language representation model for biomedical text mining[J]. Bioinformatics, 2020, 36(4): 1234-1240. |
[62] |
LEE J S, HSIANG J. Patent classification by fine-tuning BERT language model[EB/OL]. [2021-01-05]. https://arxiv.org/ftp/arxiv/papers/1906/1906.02124.pdf.
|
[63] |
BELTAGY I, LO K, COHAN A. SciBERT: a pretrained language model for scientific text[EB/OL]. [2021-01-05]. https://aclanthology.org/D19-1371.pdf.
|
[64] |
ZHAO S, GUPTA R, SONG Y, et al. Extreme language model compression with optimal subwords and shared projections[EB/OL]. [2021-01-05]. https://openreview.net/pdf?id=S1x6ueSKPr.
|