开放科学(资源服务)标志码(OSID):
脚本事件预测任务对于许多自然语言理解应用至关重要,例如文本理解[1]、意图识别[2]和问答系统[3]。脚本事件预测任务定义为:给定特定场景中已经发生的一系列上下文事件,预测后续可能发生的事件[4]。早期关于脚本事件预测的研究都是基于统计的方法,例如PMI(Pointwise Mutual Information)[4]和Bigram[5]方法。但是,基于统计的方法无法对训练集中没有出现过的事件进行预测,缺乏泛化性能,极大地限制了模型的预测能力。近年来,通过神经网络把事件映射至低维稠密的向量空间这一做法可以有效上述问题,取得了较好的预测效果[6]。目前,基于神经网络的脚本事件预测方法大体上可以分为基于事件对、基于事件链和基于事理图谱3类方法。虽然基于神经网络的方法取得了较好的效果,但仍难以有效解决脚本事件预测任务的两大难点,即如何进行准确的事件表示以及如何充分利用事件之间复杂的相关性进行后续预测。
脚本事件预测的一个难点是如何进行事件表示,通常每个事件用四元组(主语、谓语、宾语及介词宾语)的形式表示。现有的方法把表示事件的4个元素的嵌入进行拼接或者平均得到整个事件的表示,即“加性”模型[7]。“加性”模型对表示事件的词嵌入有很强的依赖,只能学习事件的浅层语义信息,难以区分两个事件之间细微的区别。以“X eat apple”和“X establish apple”为例,两个事件都包含“apple”,如果仅用“加性”模型把表示事件的词向量进行拼接,会导致这两个事件的表示非常接近,然而这两个事件并非相似事件。因此,如何进行事件的“非加性”表示是本研究的一个难点。得到事件的表示之后,现有方法单独利用事件链的时序信息或事理图谱中的事件演化模式进行后续事件预测,没有有效整合这两类信息对后续事件进行预测。因此,如何捕获时序信息和事件演化模式并有效融合两者进行事件预测,是本研究的另一个难点。
为应对上述挑战,本文提出一种结合事件链和事理图谱的脚本事件预测方法ECGNet。将表示事件的4个元素视为一个长度为4的短句输入到Transformer编码器[8],以学习事件的深层语义信息得到更准确的事件表示,并利用基于长短期记忆(Long Short-Term Memory,LSTM)网络[9]的长程时序(Long Range Temporal Orders module,LRTO)模块对叙事事件链进行学习,捕获事件链内部的时序信息。同时,设计基于图神经网络(Graph Neural Network,GNN)[10]的全局事件演化(Global Event Evolutionary Patterns,GEEP)模块对事理图谱进行学习,捕获事件发展的演化模式。此外,本文还设计一种门控注意力机制来动态融合两个模块学习到的信息,从而实现最终的预测。
1 相关工作脚本是指被存放在知识库中用来进行推理的事件序列[11]。2008年,CHAMBERS等[4]提出一种可以从新闻文本中无监督地提取大规模叙事事件链的方法。2016年,GRANROTH-WILDING等[6]在前人的研究基础上,提出了多选完形填空(Multiple Choice Narrative Cloze,MCNC)方法来评估脚本事件预测模型的效果,如图 1所示。
![]() |
Download:
|
图 1 多选完形填空样例 Fig. 1 Example of MCNC |
文献[4, 6]的工作极大地推动了脚本事件预测领域的发展,下面对相关工作进行简要介绍。
1.1 脚本事件表示脚本事件表示是脚本事件预测任务中一个比较重要的子任务。文献[4]在最初的任务定义中用〈predicate;dependency〉来表示一个事件,这种表示方式被称作predicate-GR。其中,predicate表示事件的核心动词,dependency表示事件的主语和核心动词之间的依赖关系,例如“subject”和“object”。pedicate-GR方式有时可以包括事件的核心信息,例如〈逮捕;obj〉,但有时也会丢失重要的信息,难以理解事件的真实含义,例如〈去;subj〉,此时“去工作”或者是“去度假”不得而知。为了解决这个问题,文献[12]提出采用〈Arg1;Relation;Arg2〉三元组的形式来表示事件,其中,Arg1表示事件的主语,Arg2表示事件的宾语,Relation表示事件的核心动词。为了更准确地表示事件,文献[13]提出使用
脚本事件预测任务从二十世纪七十年代提出至今先后经历了人工编码阶段、基于统计的阶段和基于神经网络的阶段。
第一阶段:人工编码阶段。早期的脚本事件预测主要依赖于人工从故事文本中学习事件的规则,然后对学习到的事件进行清洗和处理,构造专家系统。这类人工编码模型的缺点显而易见:1)人工编码具有不全面性,对专家没有标注过的故事文本无法进行后续的预测;2)人工标注无法处理大规模的数据集,无法适应信息爆炸增长的当代社会。
第二阶段:基于统计的阶段。这一阶段的方法借鉴了语言模型的思想,通过学习各个事件之间的概率分布进行脚本事件预测。PMI模型[4]通过统计训练集中两个事件同时发生的频率来计算这两个事件同时发生的概率,进而进行后续事件的预测。Bigram模型[5]则采用二元条件概率来表示两个事件的关联强度。这类基于统计的模型仍然存在表示能力不全面、泛化性能差等问题。
第三阶段:基于神经网络的阶段。这一阶段方法主要分为:基于事件对的方法,例如Word2Vec[14]和EventComp[6];基于事件链的方法,例如PairLSTM[15]和SAM-Net[16];基于事理图谱图的方法,例如SGNN[17]。该阶段的方法都是将事件映射成低维稠密的向量进行后续预测。具体而言,基于事件对的方法重点关注叙事事件链中的事件和候选集中的事件之间的相关性,利用事件对的相关性进行后续事件预测,这类方法完全忽略了叙事事件链中各个事件之间的时序关系。基于事件链的方法重点关注叙事事件链中各个事件之间的时序信息,采用循环神经网络(Recurrent Neural Network,RNN)捕获叙事事件链的时序信息,进而对后续事件进行预测,这类方法对类似于图 2中展示的网络购票观影这种链式场景下的事件预测非常有效。
![]() |
Download:
|
图 2 链式事件示例 Fig. 2 Example of chain events |
目前基于事理图谱的方法研究较少,文献[17]提出根据训练集中所有的叙事事件链构建事理图谱,通过学习事理图谱中事件之间的稠密连接关系进行后续事件预测,这类方法更适用于类似于图 3所示的金融货币超发这类环状场景下的预测。
![]() |
Download:
|
图 3 环式事件示例 Fig. 3 Example of ring events |
遵循前人的工作,本文采用四元组
脚本事件预测的任务可以描述为:已知特定场景下已经发生的一系列事件
本文采用MCNC作为评估方法。MCNC对脚本事件预测任务进行简化,大幅缩小候选事件集的范围,把候选事件集从所有的事件集缩小至有限事件集,即除了正确的后续事件外,其余的候选事件从事件集中随机抽取,并用正确后续事件的主语替换其他候选事件的主语,因此,候选事件集中有且仅有一个是正确的答案,且所有候选事件共享主语。最后,采用预测准确率评估模型的有效性。
3 ECGNet模型本文提出的ECGNet模型将事件视为短句,使用Transformer学习事件内部的语义关联从而得到全面的事件表示。同时,设计基于LSTM的长程时序模块来捕获事件链内部的时序信息,构建基于GNN的全局演化模块来捕获事理图谱中事件的发展规律和演化模式。最后,提出一种门控注意力机制来动态融合时序信息和演化信息进行后续事件预测。
具体而言,ECGNet模型共分为4个模块(如图 4所示):
![]() |
Download:
|
图 4 ECGNet模型的整体架构 Fig. 4 Overall architecture of ECGNet model |
1)事件表示层,把每个脚本事件映射至低维稠密的向量空间。
2)长程时序模块(LRTO),通过LSTM对叙事事件链中的上下文事件进行建模,得到融合时序信息的事件表示。
3)全局事件演化模块(GEEP),根据训练集中所有的叙事事件链构建事理图谱,然后利用GNN学习融合演化模式的事件表示。
4)门控注意力层,通过门控注意力机制动态融合LRTO模块学习到的事件表示和GEEP模块学习到的事件表示,进行后续事件预测。
3.1 事件表示层事件表示层的作用是把每个输入事件编码为一个低维稠密的向量。输入是表示每个事件的4个元素的初始词嵌入(通过GloVe方法[18]预训练得到的
为学习表示事件的4个元素之间丰富的语义关联,本文提出把每个事件视为长度为4的短句,并采用Transformer编码器学习每个元素的嵌入。每个事件的四元素的初始词嵌入{
$ \mathit{\boldsymbol{v}}\left(e\right)=[{\mathit{\boldsymbol{z}}}_{p}, {\mathit{\boldsymbol{z}}}_{a0}, {\mathit{\boldsymbol{z}}}_{a1}, {\mathit{\boldsymbol{z}}}_{a2}] $ | (1) |
其中:
长程时序模块(LRTO)采用LSTM来学习上下文事件链中的时序信息。输入是上下文叙事事件链
$ {\mathit{\boldsymbol{h}}}_{i}=\mathrm{L}\mathrm{S}\mathrm{T}\mathrm{M}\left(\mathit{\boldsymbol{v}}\right({e}_{i}), {\mathit{\boldsymbol{h}}}_{i-1}) $ | (2) |
其中:
对于每个事件链所对应的候选事件集,把其中每个候选事件拼接至叙事事件链的末端。具体而言,对于每个候选事件
$ {\mathit{\boldsymbol{h}}}_{cj}=\mathrm{L}\mathrm{S}\mathrm{T}\mathrm{M}\left(\mathit{\boldsymbol{v}}\right({e}_{cj}), {\mathit{\boldsymbol{h}}}_{n}) $ | (3) |
其中:
最后,把
$ \mathit{\boldsymbol{H}}=({\mathit{\boldsymbol{h}}}_{1}, {\mathit{\boldsymbol{h}}}_{2}, \cdots , {\mathit{\boldsymbol{h}}}_{n}, {\mathit{\boldsymbol{h}}}_{c1}, {\mathit{\boldsymbol{h}}}_{c2}, \cdots , {\mathit{\boldsymbol{h}}}_{cm}) $ | (4) |
全局事件演化模块(GEEP)旨在通过构造事理图谱来学习事件演化模式,以指导后续事件的预测。GEEP模块分为两个步骤:1)根据训练集中的叙事事件链构建事理图谱;2)使用可缩放的图神经网络(Scaled Graph Neural Network,SGNN)[16]学习隐藏在事理图谱中的事件演化模式。
3.3.1 事理图谱构建本文把事理图谱(Event Evolutionary Graph,EEG)形式化表示为
$ w({p}_{i}, {p}_{j})=\frac{{c}_{\mathrm{c}\mathrm{o}\mathrm{u}\mathrm{n}\mathrm{t}}({p}_{i}, {p}_{j})}{\sum\limits_{k}{c}_{\mathrm{c}\mathrm{o}\mathrm{u}\mathrm{n}\mathrm{t}}({p}_{i}, {p}_{k})} $ | (5) |
其中:
为了节省计算资源和提高效率,把每个事件链视为一个子图输入门控图神经网络(Gated Graph Neural Network,GGNN)[19]学习事件链中每个事件的表示,这种把子图作为输入的图神经网络被称为可缩放的门控图神经网络(SGNN)[17]。SGNN的输入分为两部分:一部分是叙事事件链的所有事件表示
$ \mathit{\boldsymbol{E}}=\left(\mathit{\boldsymbol{v}}\right({e}_{1}), \mathit{\boldsymbol{v}}({e}_{2}), \cdots , \mathit{\boldsymbol{v}}({e}_{n}), \mathit{\boldsymbol{v}}({e}_{c1}), \mathit{\boldsymbol{v}}({e}_{c2}), \cdots , \mathit{\boldsymbol{v}}({e}_{cm}\left)\right) $ | (6) |
$ \mathit{\boldsymbol{A}}[i, j]=\left\{\begin{array}{l}w\left({p}_{j}\right|{p}_{i}), ({p}_{i}, {p}_{j})\in \mathbb{Q}\\ 0, \mathrm{其}\mathrm{他}\end{array}\right. $ | (7) |
SGNN的计算过程如式(8)~式(12)所示:
$ {\mathit{\boldsymbol{a}}}^{\left(t\right)}={\mathit{\boldsymbol{A}}}^{\mathrm{T}}\cdot {\mathit{\boldsymbol{E}}}^{(t-1)}+\mathit{\boldsymbol{b}} $ | (8) |
$ {\mathit{\boldsymbol{z}}}^{\left(t\right)}=\sigma ({\mathit{\boldsymbol{W}}}^{z}\cdot {\mathit{\boldsymbol{a}}}^{\left(t\right)}+{\mathit{\boldsymbol{U}}}^{z}\cdot {\mathit{\boldsymbol{E}}}^{(t-1)}) $ | (9) |
$ {\mathit{\boldsymbol{r}}}^{\left(t\right)}=\sigma ({\mathit{\boldsymbol{W}}}^{r}\cdot {\mathit{\boldsymbol{a}}}^{\left(t\right)}+{\mathit{\boldsymbol{U}}}^{r}\cdot {\mathit{\boldsymbol{E}}}^{(t-1)}) $ | (10) |
$ {\mathit{\boldsymbol{c}}}^{\left(t\right)}=\mathrm{t}\mathrm{a}\mathrm{n}\mathrm{h}(\mathit{\boldsymbol{W}}\cdot {\mathit{\boldsymbol{a}}}^{\left(t\right)}+\mathit{\boldsymbol{U}}({\mathit{\boldsymbol{r}}}^{\left(t\right)}\odot {\mathit{\boldsymbol{E}}}^{(t-1)}\left)\right) $ | (11) |
$ {\mathit{\boldsymbol{E}}}^{\left(t\right)}=(1-{\mathit{\boldsymbol{z}}}^{\left(t\right)})\odot {\mathit{\boldsymbol{E}}}^{(t-1)}+{\mathit{\boldsymbol{z}}}^{\left(t\right)}\odot {\mathit{\boldsymbol{c}}}^{\left(t\right)} $ | (12) |
式(8)是指子图的节点通过邻接矩阵进行消息的传递,式(9)~式(12)和GRU类似,通过
门控注意力层的输入是LRTO模块的输出
$ \mathit{\boldsymbol{G}}=\sigma \left(\right[\mathit{\boldsymbol{H}}, \mathit{\boldsymbol{E}}]\cdot {\mathit{\boldsymbol{W}}}_{g}+{\mathit{\boldsymbol{b}}}_{g}) $ | (13) |
其中:
$ {\mathit{\boldsymbol{H}}}_{g}=\mathit{\boldsymbol{H}}\odot \mathit{\boldsymbol{G}} $ | (14) |
$ {\mathit{\boldsymbol{E}}}_{g}=\mathit{\boldsymbol{E}}\odot (1-\mathit{\boldsymbol{G}}) $ | (15) |
其中:
得到
$ \mathit{\boldsymbol{\alpha}}=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}({\mathit{\boldsymbol{H}}}_{g}^{1}\cdot ({\mathit{\boldsymbol{H}}}_{g}^{2}{)}^{\mathrm{T}}) $ | (16) |
$ {\mathit{\boldsymbol{v}}}_{h}=\mathrm{r}\mathrm{e}\mathrm{l}\mathrm{u}({\mathit{\boldsymbol{\alpha}}}^{\mathrm{T}}\cdot {\mathit{\boldsymbol{H}}}_{g}^{1}) $ | (17) |
$ {\mathit{\boldsymbol{s}}}_{h}=\mathrm{c}\mathrm{o}\mathrm{s}\mathrm{i}\mathrm{n}\mathrm{e}({\mathit{\boldsymbol{H}}}_{g}^{2}\cdot {\mathit{\boldsymbol{v}}}_{h}) $ | (18) |
得到
$ \mathit{\boldsymbol{\beta}}=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}({\mathit{\boldsymbol{E}}}_{g}^{1}\cdot ({\mathit{\boldsymbol{E}}}_{g}^{2}{)}^{\mathrm{T}}) $ | (19) |
$ {\mathit{\boldsymbol{v}}}_{g}=\mathrm{r}\mathrm{e}\mathrm{l}\mathrm{u}({\beta }^{\mathrm{T}}\cdot {\mathit{\boldsymbol{E}}}_{g}^{1}) $ | (20) |
$ {\mathit{\boldsymbol{s}}}_{g}=\mathrm{c}\mathrm{o}\mathrm{s}\mathrm{i}\mathrm{n}\mathrm{e}({\mathit{\boldsymbol{E}}}_{g}^{2}\cdot {\mathit{\boldsymbol{v}}}_{g}) $ | (21) |
在此基础上,通过式(22)计算候选事件
$ {s}_{\mathrm{s}\mathrm{c}\mathrm{o}\mathrm{r}\mathrm{e}}\left({e}_{cj}\right)=w\mathrm{*}{\mathit{\boldsymbol{s}}}_{h}\left({e}_{cj}\right)+(1-w)\mathrm{*}{\mathit{\boldsymbol{s}}}_{g}\left({e}_{cj}\right) $ | (22) |
其中:
最后,对于每个叙事事件链对应的
$ p\left({e}_{cj}\right|{e}_{1}, {e}_{2}, \cdots , {e}_{n})=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left({s}_{\mathrm{s}\mathrm{c}\mathrm{o}\mathrm{r}\mathrm{e}}\right({e}_{cj}\left)\right)}{\sum\limits_{k\in [1, m]}\mathrm{e}\mathrm{x}\mathrm{p}\left({s}_{\mathrm{s}\mathrm{c}\mathrm{o}\mathrm{r}\mathrm{e}}\right({e}_{ck}\left)\right)} $ | (23) |
$ {e}_{c}^{\mathrm{*}}=\underset{k}{\mathrm{a}\mathrm{r}\mathrm{g}\mathrm{m}\mathrm{a}\mathrm{x}}\;p\left({e}_{ck}\right|{e}_{1}, {e}_{2}, \cdots , {e}_{n}) $ | (24) |
给定一系列的叙事事件链和候选事件集,训练目标是最小化式(25)所示的边界损失函数:
$ L\left(\theta \right)=\sum\limits_{I}^{N}\sum\limits_{j}^{m}\left(\mathrm{m}\mathrm{a}\mathrm{x}\right(0, \gamma -{s}_{Iy}+{s}_{Ij}\left)\right)+\frac{\lambda }{2}{\left(||\theta ||\right)}^{2} $ | (25) |
其中:
本文采用MCNC评估方法,将ECGNet模型和多个当前最新的基线模型进行对比,验证其有效性。
4.1 数据集本文使用两个数据集进行实验。一个是文献[17]公开的NYT英文数据集,该数据集从Gigaword语料库的纽约时报部分中进行提取。NYT数据集共包括160 331个样本,本文按照140 331∶10 000∶10 000的比例划分训练集、验证集和测试集
由于目前为止脚本事件预测领域仅有一个公开的英文数据集,因此本文基于文献[21]收集的新浪新闻语料库处理了一个中文数据集,命名为SinaNews。原始新闻语料库由不同系列主题的新闻组成,每个系列包含了同一主题的众多新闻文章。本文把同一主题下的新闻按照时间顺序视为叙事事件链,每则新闻被视为一个事件,由于新闻的标题包含了该则新闻的主要内容,因此本文仅使用新闻标题作为事件。具体处理流程按照以下步骤进行:
1)划分叙事事件链。将每个主题下的新闻按照时间顺序划分,每5则新闻为一组,一组新闻被视为一个事件链。其中前4则新闻作为上下文事件,最后一则新闻作为要预测的新闻事件,即预测标签。经过划分,得到147 622个来自不同主题的新闻事件链,按照127 622∶10 000∶10 000的比例划分训练集、验证集和测试集。
2)抽取新闻事件。通过依赖解析从每则新闻标题中抽取事件的相关要素(主语、谓语、宾语、介词宾语)。依赖解析工具为HanLP[22]。
3)构造候选事件集。遵循MCNC标准,本文对每个叙事事件链构造候选事件集,把每组新闻中的最后一则新闻作为标签,从事件集中随机抽取
为了对ECGNet模型的效果进行全面评估,本文分别选择了经典的基于统计学和事件对的脚本事件预测方法,以及最新的基于事件链和事理图谱的方法作为基线模型:PMI[4]和Bigram[5]是基于统计的模型;Word2Vec[14]和EventComp[6]是基于事件对的模型,它们通过学习上下文事件和候选事件对之间的关系对后续事件预测的影响;PairLSTM[15]、HierLSTM[21]和SAM-Net[16]是基于事件链的方法,它们通过循环神经网络学习叙事事件链的时序信息进行后续事件预测;SGNN[17]是一种基于事理图谱的方法,其构造叙事事理图谱描述事件之间的发展规律,并提出采用可缩放的图神经网络学习事理图谱中的事件表示进行后续事件预测。
4.3 总体实验结果ECGNet和基线模型在测试集上的结果如表 1所示。根据表中的结果能够得到以下结论:
![]() |
下载CSV 表 1 不同模型的准确率 Table 1 Accuracy of different models |
1)EventComp、PairLSTM和其他的神经网络模型效果优于统计模型。这是因为基于统计的模型无法应对稀疏性和泛化性的问题。
2)基于事件链和事理图谱的方法与基于事件对的方法相比效果有所提升,证明了仅考虑上下文事件和候选事件对之间的关系进行后续事件预测是不够的。基于事件链的方法和基于事理图谱的方法取得了较好的实验效果。这证明了时序信息和事件演化模式对后续事件的预测的重要性。
3)本文提出的ECGNet模型取得的实验效果优于所有基线模型且提升明显(在两个数据集上均比次优模型提升预测准确率3%以上),这充分证明了同时利用时序信息和演化模式进行后续事件预测是非常重要的。此外,ECGNet模型在中英文数据集上均取得了最好的实验效果,也验证了模型的鲁棒性。
4.4 事件表示层探究实验本节采用一系列对比实验验证事件表示方法对预测结果的影响。不同方法的输入均为一个事件的4个元素的词嵌入,输出为该事件的表示。
“Concat”方法把事件的4个元素的词嵌入进行拼接作为事件表示。“Average”方法把4个元素的词嵌入进行平均作为事件表示。“Comp”方法遵循前人的研究,采用tanh层把4个元素进行组合得到事件的表示,计算过程如式(26)所示:
$ \mathit{\boldsymbol{v}}\left({e}_{i}\right)=\mathrm{t}\mathrm{a}\mathrm{n}\mathrm{h}({\mathit{\boldsymbol{W}}}_{p}{\mathit{\boldsymbol{v}}}_{p}+{\mathit{\boldsymbol{W}}}_{0}{\mathit{\boldsymbol{v}}}_{a0}+{\mathit{\boldsymbol{W}}}_{1}{\mathit{\boldsymbol{v}}}_{a1}+{\mathit{\boldsymbol{W}}}_{2}{\mathit{\boldsymbol{v}}}_{a2}) $ | (26) |
“LSTM”方法把4个元素输入LSTM,然后把每个元素的隐藏状态进行拼接作为事件表示。“Transformer”是ECGNet的事件表示层。
不同的事件表示方法的实验结果如表 2所示。根据表中的结果可以发现:“Average”方法在两个数据集上的表现最差,这是因为把各个元素的词嵌入进行简单的平均会丢失一些特征;“LSTM”方法考虑到了表示一个事件的4个元素之间的时序信息,因此取得了比“Concat”和“Comp”更好的实验效果;ECGNet模型采用Transformer编码器进行事件表示,在两个数据集上都取得了最好的效果。这也验证了本文的假设:事件内部的4个元素之间的时序语义信息对于事件表示和后续预测是非常重要的,Transformer编码器能够较好地捕获这些时序和语义信息,从而获得更好的预测效果。
![]() |
下载CSV 表 2 不同事件表示方法的准确率 Table 2 Accuracy of different event representation methods |
本节通过消融实验,验证ECGNet各个模块的效果,结果如表 3所示。
![]() |
下载CSV 表 3 消融实验结果 Table 3 Ablation experiment results |
对表 3中的结果进行分析,具体如下:
“-ER”表示去掉事件表示层,简单地把事件的4个元素的词嵌入进行拼接作为事件表示进行后续预测。去掉事件表示层之后在NYT和SinaNews上准确率分别下降了3.77和3.26个百分点,验证了事件表示对于后续事件预测有着至关重要的作用。
“-LRTO”表示去掉LRTO模块,只考虑事理图谱中的事件发展规律和演化模式,使用GEEP模块得到的事件表示进行后续预测。去掉LRTO模块之后,实验效果有明显的下降,这证明了叙事事件链中上下文事件之间的时序特征不可忽视。
“-GEEP”表示去掉GEEP模块,只考虑叙事事件链中的时序信息,使用LRTO模块得到的事件表示进行后续预测。从实验结果可以看到,去掉GEEP模块后,预测效果明显下降,验证了事理图谱中的事件演化模式对于脚本事件预测任务是非常重要的。
“-Gated M-att”表示去掉门控注意力层,在LRTO模块和GEEP模块分别使用注意力机制对候选事件进行打分,将两个模块对候选事件的打分进行相加作为该候选事件的得分。实验结果证明了本文提出的门控注意力机制能够动态融合时序信息和演化模式,进行后续事件预测。
由于去掉事件表示层后预测效果下降明显,本文设置了“Transformer+att”实验,即通过Transformer学习到事件表示之后,使用注意力机制和softmax层进行后续事件预测。实验结果表明,即使Transformer具有强大的表示学习能力,但仍然需要结合叙事事件链中的时序信息和事理图谱中的全局事件演化模式,才能取得更好的预测效果。
5 结束语本文针对脚本事件预测事件表示不全面、信息融合不充分等问题,提出一种动态融合事件链和事理图谱的模型ECGNet。在NYT英文数据集和SinaNews中文数据集上,使用预测准确率作为评估标准,ECGNet模型取得了较好的效果。此外,本文还进行了事件表示探究实验,实验结果证明使用Transformer编码器学习事件表示的方法非常有效。同时,消融实验也验证了ECGNet模型各个模块的有效性。本文模型只对事件链中的时序信息和事理图谱信息进行了融合,下一步将通过深度整合知识图谱和事理图谱,进一步提升脚本事件预测的准确率。
[1] |
KANJIRANGAT V, MELLACE S, ANTONUCCI A. Temporal embeddings and transformer models for narrative text understanding[C]//Proceedings of the 3rd Workshop on Narrative Extraction from Texts Co-located with the 42nd European Conference on Information Retrieval. Lisbon, Portugal: CEUR-WS, 2020: 71-77.
|
[2] |
TAKATSU H, YOKOYAMA K, MATSUYAMA Y, et al. Recognition of intentions of users' short responses for conversational news delivery system [C]//Proceedings of the 20th Annual Conference of the International Speech Communication Association. Graz, Austria: ISCA, 2019: 1193-1197.
|
[3] |
PICKERING T, JORDANOUS A. Applying narrative theory to aid unexpectedness in a story generation system[C]//Proceedings of the 8th International Conference on Computational Creativity. Georgia, USA: ACC, 2017: 213-220.
|
[4] |
CHAMBERS N, JURAFSKY D. Unsupervised learning of narrative event chains[C]//Proceedings of the 46th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, USA: ACL, 2008: 789-797.
|
[5] |
JANS B, BETHARD S, VULIC I, et al. Skip n-grams and ranking functions for predicting script events[C]//Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics. Stroudsburg, USA: ACL, 2012: 336-344.
|
[6] |
GRANROTH-WILDING M, CLARK S. What happens next? Event prediction using a compositional neural network model[C]//Proceedings of the 13th AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI, 2016: 2727-2733.
|
[7] |
DING X, LIAO K, LIU T, et al. Event representation learning enhanced with external commonsense knowledge[C]//Proceedings of 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Stroudsburg, USA: ACL, 2019: 4893-4902.
|
[8] |
VASWANI A, SHAZEER N, PARMAR N, at al. Attention is all you need[C]//Proceedings of NIPS'17. [S. l.]: NIPS, 2017: 5998-6008.
|
[9] |
HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735 |
[10] |
SCARSELLI F, GORI M, TSOI A C, et al. The graph neural network model[J]. IEEE Transactions on Neural Networks, 2009, 20(1): 61-80. DOI:10.1109/TNN.2008.2005605 |
[11] |
SCHANK R C, ABELSON R P. Scripts, plans, goals, and understanding[M]. New York, USA: Psychology Press, 2013.
|
[12] |
BALASUBRAMANIAN N, SODERLAND S, MAUSAM, et al. Generating coherent event schemas at scale[C]//Proceedings of 2013 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, USA: ACL, 2013: 1721-1731.
|
[13] |
PICHOTTA K, MOONEY R J. Statistical script learning with multi-argument events[C]//Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics. Stroudsburg, USA: ACL, 2014: 220-229.
|
[14] |
MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality[C]//Proceedings of NIPS'13. [S. l.]: NIPS, 2013: 3111-3119.
|
[15] |
WANG Z Q, ZHANG Y, CHANG C Y. Integrating order information and event relation for script event prediction[C]//Proceedings of 2017 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, USA: ACL, 2017: 57-67.
|
[16] |
LÜ S W, QIAN W H, HUANG L T, et al. SAM-Net: integrating event-level and chain-level attentions to predict what happens next[C]//Proceedings of the 33th AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI, 2019: 6802-6809.
|
[17] |
LI Z Y, DING X, LIU T. Constructing narrative event evolutionary graph for script event prediction[C]//Proceedings of the 27th International Joint Conference on Artificial Intelligence. Stockholm, Sweden: IJCAI, 2018: 4201-4207.
|
[18] |
PENNINGTON J, SOCHER R, MANNING C. GloVe: global vectors for word representation[C]//Proceedings of 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, USA: ACL, 2014: 1532-1543.
|
[19] |
LI Y J, TARLOW D, BROCKSCHMIDT M, et al. Gated graph sequence neural networks[C]//Proceedings of the 4th International Conference on Learning Representations. Stroudsburg, USA: ACL, 2018: 273-283.
|
[20] |
CHEN Y B, YANG H, LIU K, et al. Collective event detection via a hierarchical and bias tagging networks with gated multi-level attention mechanisms[C]//Proceedings of 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, USA: ACL, 2018: 1267-1276.
|
[21] |
HU L M, LI J Z, NIE L Q, et al. What happens next? Future subevent prediction using contextual hierarchical LSTM[C]//Proceedings of the 31st AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI, 2017: 3450-3456.
|
[22] |
HE H. HanLP: Han language processing[EB/OL]. [2020-10-25]. https://github.com/hankcs/HanLP.
|