开放科学(资源服务)标志码(OSID):
司法摘要是对司法文书的内容进行压缩、总结的过程,在案件检索、案件预览等场合中将司法摘要与业务流程相结合,能够提高司法工作的效率。在摘要任务中,与新闻、文学文本相比,法律文书的格式和结构更规范,用词更精确,在摘要的研究中具有明显的领域特点。司法领域数据建设的不断进步为司法领域的信息自动化、信息化、智能化建设提供了坚实的数据基础,同时也为自然语言处理(Natural Language Processing,NLP)方向的研究提供了新思路。
文本摘要是指机器自动对文本信息进行选择、凝练,进而形成较短文本。文本摘要分为抽取式摘要和生成式摘要。抽取式摘要是将抽取原文本中包含重要信息的句子组成摘要,句子间不够连贯,灵活性差。生成式摘要是对词库中词语的组合排列形成概括性的新句子,比较灵活,符合自然摘要的生成方式。生成式模型存在序列重复、可读性差等问题,随着深度神经网络的发展,其各个问题逐渐被解决,从而受到广泛关注。生成式摘要的可读性较优,但需要训练大量语料,大部分模型在处理长文本时存在训练时间过长和“长距离依赖”等问题。抽取式摘要和生成式摘要都可以对原文信息进行甄选,后者能够将信息重新组合成上下衔接更加流畅的句子。近年来,研究人员侧重于对内容选择和摘要生成进行独立分析。文献[1]提出选择合适的单句或句对生成单句摘要的方法。针对长文档摘要,文献[2]在生成摘要模型前增加简单的抽取步骤。研究人员通过对重要段落或句子的总结进行内容选择。相比摘要生成,内容选择更关注信息的识别,并且具有领域特点,例如,体育新闻注重比分、参赛运动员信息等,法律文本注重案情要素、法条等。摘要生成则侧重于语义上的裁剪和抽象。将内容选择和摘要生成分开能够有效测试句子压缩和融合模型的性能,并具有一定的可解释性,但是在抽取过程中可能会丢失一部分信息。
本文提出一种基于序列标注的分段式抽取摘要模型。在摘要抽取过程中,采用预训练模型作为句子嵌入和Transformer结构[3]的序列标注模型,将每个句子分成3类标签,抽取每句摘要对应的原文句子集合。在摘要生成过程中,利用指针生成器(Pointer-Generator,PG)网络[4]对抽取结果进行压缩和融合,生成单句摘要。
1 相关工作自动摘要研究以抽取式方法为主,使用统计学方法,例如,以句子位置、词频、线索词等特征作为输入,并将得到每个句子的分数从大到小进行排序,抽取出分数较高的句子作为摘要[5-7]。随着机器学习技术在NLP中的应用,将统计特征输入到机器学习模型中进行分类的方法成为研究热点。文献[8]提出将文章的统计特征输入到朴素贝叶斯分类器模型和决策树的方法。文献[9]提出将马尔科夫模型用到摘要抽取中。文献[10-11]提出图排序的方法等。以上方法都是基于人工提取的浅层特征,然而基于深度神经网络的方法通过模型自学习识别文本的高维特征,采用序列标注的方法,即为每个句子定义0或1的标签,以包含1标签的句子作为被选中的重要句子。文献[12]基于循环神经网络(Recurrent Neural Network,RNN)的序列分类模型构建SummaRuNNer模型,将抽取摘要的内容重要度、显著度、新颖度等显式地表达出,具有较优的可解释性。文献[13]结合打分和选择提出NeuSum模型,是一种基于序列到序列(Sequence to Sequence,Seq2Seq)架构的摘要抽取模型。基于Transformer结构[3]构建的预训练模型BERT[14](Bidirectional Encoder Representations from Transformers)在多个NLP任务中取得最佳表现,将其首次应用到抽取式文本摘要中[15],在多个摘要数据集上具有较优的结果。
随着神经网络的发展,Seq2Seq的神经网络摘要模型成为研究热点。Seq2Seq模型最早用于机器翻译,将RNN作为编码器(Encoder)和解码器(Decoder)[16],前者将输入序列表示为固定长度的向量,后者根据向量生成输出序列。文献[17]指出该模型的性能随文本长度的增加而降低。文献[18]引入注意力机制,使得解码器的每个阶段能够关注特定位置的原文,提高模型的预测能力和鲁棒性。文献[19]构建输入输出序列的模型——指针网络(Pointer network)。受神经网络机器翻译模型的启发,文献[20]首次将指针网络应用在生成式摘要任务上,在句子级摘要数据集上具有较优的性能。在此基础上,针对生成式摘要Seq2Seq模型的输出存在事实细节再现性差和容易重复的问题,文献[4]提出一种指针生成器网络,在一定程度上解决未登录词和罕见词的问题,并采用覆盖机制解决生成序列重复的问题,在CNN/Daily Mail摘要数据集上具有较优的性能。
2 数据分析 2.1 数据预处理为促进智慧司法相关技术的发展,由政府部门、高校及企业联合举办的CAIL2020将摘要任务加入到评测比赛中,该比赛采用民事裁判文书语料,其文书和参考摘要呈现相似的段落结构,叙述顺序也基本一致,本文则是基于该语料展开研究。实验中使用的CAIL2020摘要数据集总共9 848份民事一审判决书。裁判文书预先划分成若干句子,每句都标记是否重要的标签,并提供与之对应的参考摘要全文。文书类别包括侵权责任、租赁合同、劳动合同、继承合同、借款合同等民事纠纷,文书平均包含2 568个字,最长为13 060个字,95%的文书超过4 663个字。摘要平均283个字,最长474个字,95%的摘要超过327个字。该数据集属于长文本的摘要数据集。文书和摘要的预处理分为4个步骤:1)去噪,文书和摘要包含一些空格和多余的句号等非法字符,这会影响下一步分词和分句的效果;2)信息提取,使用正则表达式对文书中标志性的字符串进行提取并识别文书类别;3)分句,按照句号划分参考摘要;4)分词,通过导入预定义的法律名词词典和使用jieba分词工具进行分词。每句摘要中大部分信息来源于原文中标有重要标签的句子,并且摘要叙述的顺序和文书有高度的一致性,文书和摘要预处理是按照纠纷类型判定、原告诉讼请求陈述、列举案情细节及审理结果的顺序进行描述。
本文将TF-IDF向量作为句子的表示向量,利用句子向量间的余弦值衡量句子间的相似度,同时对摘要与标有重要信息标签句子的相似度进行可视化实验研究。某份文书的参考摘要和重要句子之间相似度热力图如图 1所示。热力图中颜色越深表示两者相似度越高。热力图呈阶梯状,说明摘要信息分布和原文信息分布具有一致性,且重要句子和摘要句子呈现多对一的特点,即同一个重要句子大概率只与一句摘要的内容相关。
![]() |
Download:
|
图 1 参考摘要和重要句子之间相似度热力图 Fig. 1 Similarity thermodynamic diagram between reference summarization and important sentences |
针对长文档摘要,“抽取+生成”的流水线模型能够缩短生成模型中输入序列和输出序列的长度,从而改善模型效果[2]。本文将摘要生成过程分为抽取和生成2个阶段,采用“句子集合-摘要全文”和“句子集合-摘要句子”生成序列粒度。“句子集合-摘要全文”找出原文中重要的句子进而生成摘要全文;“句子集合-摘要句子”找出每句摘要对应的重要句子集合,通过生成模型对抽取结果进行压缩和融合,以生成单句摘要,从而缩短输出序列和输入序列的长度。
2.2 抽取式数据集构建在CAIL2020摘要数据集中重要句子标签可用于“句子集合-摘要全文”模型,单句摘要模型所需的数据需要做进一步处理。对于L句输入文档D={S1,S2,…,SL},N句参考摘要T={T1,T2,…,TN},本文构建D中句子索引的N个集合Z={Z1,Z2,…,ZN},其中Zi包含Ti对应D中句子的索引。文献[1]提出针对单句摘要抽取方式,通过对输入文档中N个句子进行组合得到集合,同时对这些集合进行分类,因为预设组合的数量限制,所以减少分类次数。CAIL2020摘要数据集中部分摘要对应原文句子远高于这个限制,且数量分布不均。因此,该方式处理数据集是不合适的。CAIL2020摘要数据集的特点包括摘要和对应句子位置分布的基本一致,大部分输入句子只对应一句摘要。本文给出以下假设:Z中集合均为D的子序列,且集合之间不存在重叠。本文采用类似于实体识别的标注方式对每个句子进行标注,并使用“bio”标签,“b”表示Zi中第一个句子,“i”表示与前一个带有“i”或“b”标签构成一个集合,“o”表示不重要的句子。该方法与实体识别标注策略不同的是“b”和“i”之间、“i”和“i”之间允许“o”标签存在。
单句抽取式摘要数据集的构建通过将D中每组句子集合和对应摘要的匹配度之和作为他们的相似度,对重要句子集合分隔成摘要数目的组,使得所有组合的相似度之和最大。如已知重要句子的索引序列为{5,6,8,9,11,15,16,21},而摘要序列为{a,b,c,d},因此C(7,4)=35种方式将序列隔成4组,{{5},{6,8},{11,15,16},{21}}为其中一种方式,分别计算{5}和a、{6,8}和b、{11,15,16}和c、{21}和d的的相似度,这种方式的相似度之和最大,因此选择第5个句子的标签为“b”,第6个和第8个句子的标签设置为“b”“i”,其他非重要句子标“o”。
3 本文模型 3.1 抽取式摘要模型抽取式摘要模型的结构如图 2所示,分为句子嵌入和文档级编码器。句子嵌入采取BERT模型,文档级编码器基于多层Transformer结构,最后接入全连接层,将每个句子分成3类标签。
![]() |
Download:
|
图 2 抽取式摘要模型的结构 Fig. 2 Structure of extractive summarization model |
BERT模型通过大量语料的自监督学习包含丰富语义信息的词表示,在文本分类任务中常使用“[CLS]”位置的输出向量作为文本表示,用于下游具体任务。在文本分类任务中,通常在每个句子前后插入“[CLS]”和“[SEP]”,然后拼接所有句子作为BERT编码器的输入。但是,CAIL2020语料中文书字数远超过BERT单次处理的序列长度,词的切分和特殊字符的引入导致输入序列增长和显卡内存不足。
本文单次处理一个句子并缓存“[CLS]”位置的输出向量Tj,[CLS],文书第L个句子向量序列表示为T[CLS]={T1,[CLS],T2,[CLS],…,TL,[CLS]}。该方式能够有效减小内存,缺点是句子编码器无法进行微调。
3.1.2 句子分类器在抽取式摘要中,句子的文档级编码方式比较常见,但此处获得句子表示是句子级编码,不包含上下文信息,只包含句子本身的信息,因此将句子向量表示输入到文档级编码器中。文档级编码器基于Transformer结构,通过全连接网络分类器对句子的文档级表示向量进行分类。在“集合-全文”的模型中使用二分类,而在“集合-句子”的分段式摘要模型中输出实体标签“b”“i”“o”3个标签,通过标签序列获得句子索引的子序列集合,例如,根据标签“{b,o,i,b,o,b}”可以得到抽取式摘要集合“{{0,2},{3},{5}}”。每个句子标签的概率如式(1)所示,分类指标的损失函数如式(2)所示:
$ Y = {\rm{soft\,max}}({\mathit{\boldsymbol{W}}_0}{\rm{Trm}}({\mathit{\boldsymbol{T}}_{\left[ {{\rm{CLS}}} \right]}})) $ | (1) |
$ {l_{{\rm{loss}}}} = - \sum\limits_{i = 1}^L {\sum\limits_{j = 1}^3 {Z_j^i} } {\rm{lb}}\left( {Y_j^i} \right) $ | (2) |
其中:Zj=0,1,j={0,1,2}。
3.2 生成式摘要模型指针生成器网络能够很好地复述事实,适用于文本摘要任务,通过计算输入序列的注意力得分,采用基于时间步的内注意力机制(Intra-Temporal Attention)[21]和解码器内的注意力机制(Intra-Decoder Attention)[22]减少输出序列的重复。
3.2.1 指针生成器网络在编码端,将长度为L的序列S={s1,s2,…,sL}的词向量输入到双向长短期记忆(Bi-directional Long Short-Term Memory,BiLSTM)网络中,将第i个位置的隐藏层向量拼接后作为编码器的输出H=
$ \boldsymbol{h}_{i}^{\text {enc }}=\left[\overrightarrow{\boldsymbol{h}}_{\mathrm{i}}^{\mathrm{T}}, \overleftarrow{\boldsymbol{h}}_{\mathrm{i}}^{\mathrm{T}}\right]^{\mathrm{T}} $ | (3) |
在解码端,式(4)表示LSTM为主体构成的解码器(g函数表示解码器的计算过程),在t时刻接收包括上一时刻隐藏层的输出ht-1和ct-1、输出结果yt-1的词嵌入,以及编码器在上一时刻隐藏层向量加权和
$ {\mathit{\boldsymbol{h}}_t}, {\mathit{\boldsymbol{c}}_t} = g(\mathit{\boldsymbol{h}}_{t - 1}^{\rm{*}}, {\mathit{\boldsymbol{y}}_{t - 1}}, {\mathit{\boldsymbol{h}}_{t - 1}}, {\mathit{\boldsymbol{c}}_{t - 1}}) $ | (4) |
$ u_i^t = {\mathit{\boldsymbol{V}}_0}{\rm{tanh}}({\mathit{\boldsymbol{W}}_1}\mathit{\boldsymbol{h}}_i^{{\rm{enc}}} + {\mathit{\boldsymbol{W}}_2}{[\mathit{\boldsymbol{h}}_t^{\rm{T}}, \mathit{\boldsymbol{c}}_t^{\rm{T}}]^{\rm{T}}}) $ | (5) |
$ {a}_{i}^{t}=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({u}_{i}^{t}\right) $ | (6) |
$ \mathit{\boldsymbol{h}}_t^{\rm{*}} = \sum\limits_L^{i = 1} {a_i^t} \times \mathit{\boldsymbol{h}}_i^{{\rm{enc}}} $ | (7) |
其中:W1、W2为参数可更新的矩阵;V0为参数可更新的行向量。
词表概率Pvocab和词表概率的权重pgen如式(8)和式(9)所示,Pvocab和原文的词概率加权和得到最终拓展后的词表概率Pexp,如式(10)所示:
$ {P_{{\rm{vocab}}}} = {\rm{soft\,max}}({\mathit{\boldsymbol{W}}_3}{[{(\mathit{\boldsymbol{h}}_t^{\rm{*}})^{\rm{T}}}, \mathit{\boldsymbol{h}}_t^{\rm{T}}, \mathit{\boldsymbol{c}}_t^{\rm{T}}, {(\mathit{\boldsymbol{c}}_t^d)^{\rm{T}}}]^{\rm{T}}}) $ | (8) |
$ {p_{{\rm{gen}}}} = {\rm{sigmoid}}({\mathit{\boldsymbol{V}}_1}[\mathit{\boldsymbol{h}}_t^{\rm{T}}, \mathit{\boldsymbol{c}}_t^{\rm{T}}, {(\mathit{\boldsymbol{c}}_t^d)^{\rm{T}}}, {(\mathit{\boldsymbol{h}}_t^{\rm{*}})^{\rm{T}}}, {({\mathit{\boldsymbol{y}}_{t - 1}})^{\rm{T}}}])$ | (9) |
$ {P_{{\rm{exp}}}}\left( w \right) = {p_{{\rm{gen}}}} \times {P_{{\rm{vocab}}}}\left( w \right) + (1 - {p_{{\rm{gen}}}}) \times \sum\limits_{i:w = wi} {a_i^t} $ | (10) |
为解决长文本的重复问题,本文基于时间内的注意力机制,使得解码器在每个时刻关注输入序列的不同部位。注意力得分计算公式如下:
$ {e}_{i}^{t}=\left\{\begin{array}{l}\mathrm{e}\mathrm{x}\mathrm{p} \,{u}_{i}^{t}, t=1\\ \frac{\mathrm{e}\mathrm{x}\mathrm{p} \,{u}_{i}^{t}}{\sum\limits _{j}^{t-1}\mathrm{e}\mathrm{x}\mathrm{p} \,{u}_{i}^{j}}, t > 1\end{array}\right. $ | (11) |
$ {a}_{i}^{t}=\frac{{e}_{i}^{t}}{\sum\limits _{j}^{L}{e}_{j}^{t}} $ | (12) |
虽然基于时间步的注意力机制可以使解码器在不同时刻关注输入序列的不同部位,但是如果解码器自身的隐藏层在上一时刻的输出和此时刻相似,存在生成重复序列的可能。因此,本文通过解码器所有隐藏层输出向量计算注意力,并求加权和作为t时刻输入的方式,其计算过程如下:
$ e_{tt'}^d = \left( {\mathit{\boldsymbol{V'}}\left( {\mathit{\boldsymbol{W'h}}_{t'}^d + \mathit{\boldsymbol{Wh}}_t^d} \right)} \right)$ | (13) |
$ a_{tt'}^d = \frac{{\exp \left( {e_{tt'}^d} \right)}}{{\sum\limits_{j = 1}^{t - 1} {\exp } \left( {e_{tj}^d} \right)}} $ | (14) |
$ \mathit{\boldsymbol{c}}_t^d = \sum\limits_{j = 1}^{t - 1} {a_{tj}^d} \mathit{\boldsymbol{h}}_j^d$ | (15) |
其中:W’和W为可更新参数的矩阵;V’为可更新参数的行向量。
3.2.4 损失函数在训练阶段,参考摘要在该时刻出现的字为wt,t时刻输出的拓展词表概率为Pexp(wt),损失函数如式(16)所示,对所有时刻的损失函数求平均值得到最终的损失函数,如式(17)所示:
$ {l}_{t}^{\mathrm{l}\mathrm{o}\mathrm{s}\mathrm{s}}=-\mathrm{l}\mathrm{b}\left({P}_{\mathrm{e}\mathrm{x}\mathrm{p}}\right({w}^{t}\left)\right) $ | (16) |
$ {l}_{\mathrm{l}\mathrm{o}\mathrm{s}\mathrm{s}}=\frac{1}{T}\sum\limits _{t=1}^{T}{l}_{t}^{\mathrm{l}\mathrm{o}\mathrm{s}\mathrm{s}} $ | (17) |
在抽取式摘要模型中BERT模型采用追一科技有限公司推出的以词为单位的预训练模型WoBERT,使用d层Transformer结构,其中全连接层的隐藏层为2 048,注意力层为8,输出全连接层的隐藏层为128。RNN编码器-解码器的隐藏层均为256,以字为单位构建词表的大小为4 847,采用随机初始化方式进行字嵌入。在“集合-全文”语料上最大编码长度设置为1 370,最小解码长度设置为330,“集合-句子”语料最大编码长度和最小解码长度分别设置为360、120,均能满足95%左右的输入序列和输出序列的长度要求,采用束搜索方式进行预测,Beam Size设置为3。所使用的优化器均为Adam优化器[23]。抽取式摘要模型和生成式摘要模型的参数设置如表 1所示。
![]() |
下载CSV 表 1 抽取式摘要模型和生成式摘要模型的参数设置 Table 1 Parameter settings of extractive summarization model and generative summarization model |
训练集和测试集按照文书类别等比例划分成8∶2,并在抽取式摘要模型的训练阶段中使用训练集的10%用于验证。由于生成式摘要模型的预测比较耗时,因此没有在训练阶段进行验证。
4.2 结果分析 4.2.1 评价指标大多数分类系统通常使用精确率(Precision)、召回率(Recall)及F1值(F1-score)作为评价指标,如式(18)~式(20)所示:
$ P=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{P}}} $ | (18) |
$ R=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{N}}} $ | (19) |
$ \mathrm{F}1=\frac{2\times P\times R}{P+R} $ | (20) |
真实正例的集合用S表示,预测为正例的集合用S*表示。预测正确的正例表示S和S*中同时存在的元素,预测错误的负例表示S中不存在而S*中存在的元素,预测错误的正例表示S中存在而S*中不存在的元素,它们的数量分别用TTP、FFP、FFN表示。
本文以参考摘要作为基准评价系统摘要质量的评价指标ROUGE[24](Recall-Oriented Understudy for Gisting Evaluation),其是一种常用的文本摘要评价指标。ROUGE-N的召回率如式(21)所示:
$ {R}_{\mathrm{R}\mathrm{O}\mathrm{U}\mathrm{G}\mathrm{E}-N}=\frac{\sum\limits _{S\in \left\{\mathrm{R}\mathrm{e}\mathrm{f}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s}\right\}}\sum\limits _{\mathrm{g}\mathrm{r}\mathrm{a}{\mathrm{m}}_{n}\in S}\mathrm{C}\mathrm{o}\mathrm{u}\mathrm{n}{\mathrm{t}}_{\mathrm{m}\mathrm{a}\mathrm{t}\mathrm{c}\mathrm{h}}\left(\mathrm{g}\mathrm{r}\mathrm{a}{\mathrm{m}}_{N}\right)}{\sum\limits _{S\in \left\{\mathrm{R}\mathrm{e}\mathrm{f}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s}\right\}}\sum\limits _{\mathrm{g}\mathrm{r}\mathrm{a}{\mathrm{m}}_{n}\in S}\mathrm{C}\mathrm{o}\mathrm{u}\mathrm{n}\mathrm{t}\left(\mathrm{g}\mathrm{r}\mathrm{a}{\mathrm{m}}_{N}\right)} $ | (21) |
其中:gramN表示文本中长度为N的连续子串;分母为所有参考摘要的所有N-gram的数量。PredSums表示模型预测的摘要,RefSums表示预测摘要与参考摘要共现的N-gram的数量。精确率的计算如式(22),ROUGE-L的计算如式(23)~式(24)所示,LCS函数表示2个序列最长公共子串的长度,len函数为序列总长度,2类指标的F1值如式(25)所示:
$ {P}_{\mathrm{R}\mathrm{O}\mathrm{U}\mathrm{G}\mathrm{E}-N}=\frac{\sum\limits _{S\in \left\{\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{d}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s}\right\}}\sum\limits _{\mathrm{g}\mathrm{r}\mathrm{a}{\mathrm{m}}_{n}\in S}\mathrm{C}\mathrm{o}\mathrm{u}\mathrm{n}{\mathrm{t}}_{\mathrm{m}\mathrm{a}\mathrm{t}\mathrm{c}\mathrm{h}}\left(\mathrm{g}\mathrm{r}\mathrm{a}{\mathrm{m}}_{N}\right)}{\sum\limits _{S\in \left\{\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{d}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s}\right\}}\sum\limits _{\mathrm{g}\mathrm{r}\mathrm{a}{\mathrm{m}}_{n}\in S}\mathrm{C}\mathrm{o}\mathrm{u}\mathrm{n}\mathrm{t}\left(\mathrm{g}\mathrm{r}\mathrm{a}{\mathrm{m}}_{N}\right)} $ | (22) |
$ {R}_{\mathrm{R}\mathrm{O}\mathrm{U}\mathrm{G}\mathrm{E}-L}=\frac{\mathrm{L}\mathrm{C}\mathrm{S}(\mathrm{R}\mathrm{e}\mathrm{f}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s}, \mathrm{P}\mathrm{r}\mathrm{e}\mathrm{d}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s})}{\mathrm{l}\mathrm{e}\mathrm{n}\left(\mathrm{R}\mathrm{e}\mathrm{f}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s}\right)} $ | (23) |
$ {P}_{\mathrm{R}\mathrm{O}\mathrm{U}\mathrm{G}\mathrm{E}-L}=\frac{\mathrm{L}\mathrm{C}\mathrm{S}(\mathrm{R}\mathrm{e}\mathrm{f}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s}, \mathrm{P}\mathrm{r}\mathrm{e}\mathrm{d}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s})}{\mathrm{l}\mathrm{e}\mathrm{n}\left(\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{d}\mathrm{S}\mathrm{u}\mathrm{m}\mathrm{s}\right)} $ | (24) |
$ \mathrm{F}1=\frac{2\times R\times P}{R+P} $ | (25) |
为探究抽取式摘要模型对信息识别准确性及生成结果的影响,本文分别用Z和Z*表示真实集合和预测集合。假设真实抽取结果为{{0},{3,5},{10,12,13}},预测结果为{{0},{4,5},{10,12,13}}。评价指标主要有2个:1)exact_match,评价模型识别完整的句子集合的能力,例如,{0}和{10,12,13}存在于Z和Z*中,TP等于2;2)all,评价模型识别单个句子的能力,分别取Z和Z*中所有集合的并集来替换真实和预测集合,例如,Z={0,3,5,10,12,13},Z*={0,4,5,10,12,13},TP等于5。
4.2.2 生成式摘要模型的结果分析本文采用2.2节的方法处理数据,将原来重要句子的集合分为若干组,其中有2例摘要句子数目少于标有重要标签的数目,因此他们无法处理而舍弃。处理前后语料的ROUGE指标对比如表 2所示。
![]() |
下载CSV 表 2 处理前后语料的ROUGE指标对比 Table 2 ROUGE indexs comparison of the corpus before and after processing |
处理前语料是句子集合拼接的序列和摘要全文的ROUGE指标,处理后语料是计算单句摘要和对应一组句子集合拼接而成序列的指标。处理后语料的召回率比处理前下降比较多,这是由于有些句子划分到错误的一组中或者摘要和文书没按照同一顺序叙述。
为对比序列长度对生成模型的影响,在“句子集合-摘要全文”“句子集合-摘要句子”语料上生成式摘要模型的ROUGE指标如表 3所示。
![]() |
下载CSV 表 3 在“集合-全文”和“集合-句子”语料上生成式摘要模型的ROUGE指标 Table 3 ROUGE indexs of generative summarization model on "collection-full text" and "collection-sentence" corpus |
本文将在“集合-句子”语料上生成来源于同一文书的摘要句子拼在一起后与“集合-全文”上的结果进行对比。从表 3可以看出,在“集合-句子”语料上训练模型的指标均优于“集合-全文”语料,而且在“集合-句子”语料中有一部分参考摘要和原文句子的组合不匹配,因此,在CAIL2020数据集上该模型能够有效缩短生成模型的输入输出序列长度。
4.2.3 流水线模型结果分析抽取式摘要模型的分类指标如表 4所示,不同模型的输出摘要与参考摘要间的ROUGE指标如表 5所示。
![]() |
下载CSV 表 4 抽取式摘要模型的评价指标 Table 4 Evaluation indexs of extractive summarization models |
![]() |
下载CSV 表 5 不同模型的ROUGE指标 Table 5 ROUGE indexs of different models |
本文baseline模型是Lead-3,即取输入文档的前3句作为摘要。“BERT+Trm4(3)”表示使用BERT作为句子嵌入和4层Transformer结构,“3”和“2”分别代表三分类(“bio”标签的形式)和二分类(即是否标有“重要”标签)。“crf”表示引入条件随机场(Conditional Random Field,CRF)[25]。“PG”表示将抽取的结果输入到指针生成器网络中,上标“0”和“1”表示在“集合-全文”和“集合-句子”的语料训练的模型。
在该数据集上Lead-3模型的性能较差,其原因为相比新闻文档,法律文书的关键信息一般在末尾或者分布比较均匀。在“exact_match”指标下,在Lead-3模型上增加CRF,其精确率、召回率及F1下降。在“all”指标下,“BERT+Trm4(2)”的召回率最高,其次是“BERT+Trm4(3)+crf”。BERT+Trm4(2)+PG0模型抽取的句子最全,其ROUGE-1、ROUGE-2、ROUGE-L的平均值为62.40%,而BERT+Trm4(3)+crf+PG1模型ROUGE-1、ROUGE-2、ROUGE-L的平均值为64.11%,比前者提高了1.69个百分点。因此,在抽取过程中ROUGE指标的召回率下降表示在内容过程中部分信息被遗漏,提高召回率,使得流水线模型的总体表现提高。在生成的过程中舍弃部分冗余或者不重要的信息,以提高精确率。
5 结束语本文提出一种基于序列标注的分段式摘要模型。通过将CAIL2020转换成分段式的摘要抽取数据集,将“bio”实体识别标签用于句子抽取和段落划分,缩短生成模型的输入序列长度。实验结果表明,该模型在处理生成句子上ROUGE-1、ROUGE-2和ROUGE-L的F1平均值为64.11%。后续将基于流水线式摘要的架构,不依赖语料本身的结构特点,围绕抽取句子分组问题开展研究。
[1] |
LEBANOFF L, SONG K, DERNONCOURT F, et al. Scoring sentence singletons and pairs for abstractive summarization[EB/OL]. [2021-02-15]. https://arxiv.org/abs/1906.00077.
|
[2] |
SUBRAMANIAN S, LI R, PILAULT J, et al. On extractive and abstractive neural document summarization with transformer language models[EB/OL]. [2021-02-15]. https://arxiv.org/abs/1909.03186.
|
[3] |
VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. NewYork, USA: ACM Press, 2017: 6000-6010.
|
[4] |
SEE A, LIU P J, MANNING C D. Get to the point: summarization with pointer-generator networks[EB/OL]. [2021-02-15]. https://arxiv.org/pdf/1704.04368.pdf.
|
[5] |
LUHN H P. The automatic creation of literature abstracts[J]. IBM Journal of Research and Development, 1958, 2(2): 159-165. |
[6] |
EDMUNDSON H P. New methods in automatic extracting[J]. Journal of the ACM, 1969, 16(2): 264-285. DOI:10.1145/321510.321519 |
[7] |
LIN C Y, HOVY E. Identifying topics by position[EB/OL]. [2021-02-15]. http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=18A483239494376ACA4520EFBD742575?doi=10.1.1.13.8985&rep=rep1&type=pdf.
|
[8] |
KUPIEC J, PEDERSEN J, CHEN F. A trainable document summarizer[C]//Proceedings of the 18th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. New York, USA: ACM Press, 1995: 68-73.
|
[9] |
LIN C Y. Training a selection function for extraction[C]//Proceedings of the 18th International Conference on Information and Knowledge Management. New York, USA: ACM Press, 1999: 55-62.
|
[10] |
MIHALCEA R, TARAU P. Textrank: bringing order into text[EB/OL]. [2021-02-15]. https://www.researchgate.net/profile/Paul-Tarau/publication/200042361_TextRank_Bringing_Order_into_Text/links/0912f508a98af2fe24000000/TextRank-Bringing-Order-into-Text.pdf.
|
[11] |
ERKAN G, RADEV D R. LexRank: graph-based lexical centrality as salience in text summarization[EB/OL]. [2021-02-15]. https://arxiv.org/abs/1109.2128v1.
|
[12] |
NALLAPATI R, ZHAI F, ZHOU B. SummaRuNNer: a recurrent neural network based sequence model for extractive summarization of documents[C]//Proceedings of the 31st AAAI Conference on Artificial Intelligence. [S. l. ]: AAAI Press, 2017: 3075-3081.
|
[13] |
ZHOU Q, YANG N, WEI F, et al. Neural document summarization by jointly learning to score and select sentences[EB/OL]. [2021-02-15]. https://arxiv.org/pdf/1807.02305.pdf.
|
[14] |
DEVLIN J, CHANG M W, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[EB/OL]. [2021-02-15]. https://arxiv.org/pdf/1810.04805.pdf.
|
[15] |
LIU Y, LAPATA M. Text summarization with pretrainedencoders[EB/OL]. [2021-02-15]. https://arxiv.org/abs/1908.08345.
|
[16] |
SUTSKEVER I, VINYALS O, LE Q V. Sequence to sequence learning with neural networks[J]. Advances in Neural Information Processing Systems, 2014, 4(1): 3104-3112. |
[17] |
CHO K, VAN MERRIËNBOER B, GULCEHRE C, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation[C]//Proceedings of Conference on Empirical Methods in Natural Language Processing. [S. l. ]: AAAI Press, 2014: 1724-1734.
|
[18] |
BAHDANAU D, CHO K H, BENGIO Y. Neural machine translation by jointly learning to align and translate[EB/OL]. [2021-02-15]. https://arxiv.org/pdf/1409.0473.pdf.
|
[19] |
VINYALS O, FORTUNATO M, JAITLY N. Pointer networks[EB/OL]. [2021-02-15]. https://arxiv.org/pdf/1506.03134.pdf.
|
[20] |
RUSH A M, CHOPRA S, WESTON J. A neural attention model for abstractive sentence summarization[EB/OL]. [2021-02-15]. https://arxiv.org/pdf/1509.00685.pdf.
|
[21] |
SANKARAN B, MI H, AL-ONAIZAN Y, et al. Temporal attention model for neural machine translation[EB/OL]. [2021-02-15]. https://arxiv.org/abs/1608.02927.
|
[22] |
PAULUS R, XIONG C, SOCHER R. A deep reinforced model for abstractive summarization[EB/OL]. [2021-02-15]. https://arxiv.org/pdf/1705.04304.pdf.
|
[23] |
KINGMA D P, BA J L. Adam: a method for stochastic optimization[EB/OL]. [2021-02-15]. http://de.arxiv.org/pdf/1412.6980.
|
[24] |
LIN C Y. Rouge: a package for automatic evaluation of summaries[EB/OL]. [2021-02-15]. http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=657245BA32160BCB52B6B8972D0FE238?doi=10.1.1.126.4764&rep=rep1&type=pdf.
|
[25] |
LAFFERTY J., MCCALLUM A, PEREIRA F. Conditional random fields: Probabilistic models for segmenting and labeling sequence data[C]//Proceedings of the 18th International Conference on Machine Learning. New York, USA: ACM Press, 2001: 282-289.
|