目前,代码托管平台Github的提交量已达10亿,涉及337种编程语言,但是其中大量代码缺乏可读的自然语言注释[1]。代码注释是软件开发的重要环节,可大幅提高代码的可读性,但是其过程十分耗时[2]。随着深度学习技术的应用,自然语言生成任务得到快速发展,其中典型代表有机器翻译[3-4]和文本摘要生成[5-7]等任务。代码自动注释是自然语言生成中最具挑战性的任务之一,目标是基于输入代码生成相应的可理解的自然语言注释或描述。
早期的研究人员将代码注释生成建模为源代码序列到自然语言注释序列的翻译任务,但是不足之处在于其仅提取源代码中的文本信息而忽略了结构信息。近年来,学者们考虑引入源代码的结构化输入,如抽象语法树(Abstract Syntax Tree,AST),并采用机器学习的方法或模型来提取源代码中结构信息的语义表达。然而,这些研究工作未充分考虑如何从结构化数据输入中复制提取关键信息。代码注释生成的目标注释中通常会出现目标词典中不存在的单词(Out Of Vocabulary,OOV),如数值型、字符型等变量单词,从而导致生成的自然语言注释输出不完整。为解决该问题,研究人员在代码注释生成模型中引入指针网络[8],指针网络通过在单位时间步输出指向输入序列的某一个单词,从而形成一种复制机制。但是,经典的指针网络只支持代码的序列化输入,不支持代码的结构化输入,从而难以利用源代码的结构化信息。同时,源代码的抽象语法树存在复杂多变的语法结构,使得指针网络需花费大量的学习成本来学习复杂语法结构,导致难以准确地提取核心信息。此外,引入复制机制的代码注释生成模型倾向于频繁复制核心词,使得生成的自然语言注释较易出现冗余信息。
本文提出一种用于代码注释自动生成的语法辅助复制机制。将编码器-解码器作为基本框架,编码器为树型长短期记忆网络(Tree-LSTM)[9],解码器为长短期记忆网络(LSTM)[10]。由于经典的指针网络仅支持序列结构网络,无法直接应用于上述框架,因此本文通过改进指针网络结构使其支持源代码的抽象语法树输入。具体地,在编码阶段,编码器网络通过对源代码的抽象语法树进行编码得到结构化的语义信息并存储于节点的隐状态中。在解码阶段,解码器网络在每个时间步通过当前隐状态和输入所有节点的隐状态来计算注意力向量,并输入到二元分类器中以选择复制机制或生成机制。本文所提语法辅助复制机制包含基于语法信息的节点筛选策略和基于时间窗口的去冗余生成策略,前者根据语法节点类型使用掩码向量过滤无关的语法节点,后者在时间窗口内对被复制过的节点进行概率惩罚,从而抑制重复复制该节点的现象。
1 相关工作多数代码注释生成任务主要关注源代码的文本信息。具体地,文献[11]通过主题模型和n-gram技术来生成代码注释,文献[12]提出一种基于长短时记忆网络与注意力机制的语言模型Code-NN,从而生成C#和SQL注释,文献[13]利用卷积神经网络与注意力机制来预测生成代码注释。
近年来,研究人员除考虑源代码的文本信息外,还探究如何提取其抽象语法树中的结构信息。文献[14]提出结合语法结构信息和文本信息的语义表达方法。文献[15]通过遍历Java的语义解析树节点获得序列形式,将其作为输入以捕获语义特征和语法信息。文献[16]提出的Graph2Seq将结构化查询语言(SQL)序列看作有向图,利用图网络学习全局结构信息。本文同样采用树型结构编码器,输入源代码的语义解析树以提取结构化信息。
目前,研究人员普遍采用经典的复制机制解决自然语言注释生成的OOV问题,如文献[17]提出结合复制机制的混合生成网络以进行文本摘要生成,文献[18]利用复制机制复制子句,文献[19]利用复制机制进行代码生成。与上述工作不同,本文建立一种支持树型结构化数据输入的指针网络变体,并基于源代码的语法结构和特性,提出包含节点筛选策略和去冗余生成策略的语法辅助复制机制,以从源代码的语义解析树中提取关键内容信息。
2 代码自动注释模型代码自动注释模型的输入一般是源代码对应的抽象语法树表示,而非源代码本身[20]。抽象语法树省略编程语法上的部分无用细节,只保留语法结构以及与代码内容相关的部分,作为源代码语法结构的抽象化表示。以SQL查询语句为例,其对应的抽象语法树表示如图 1所示。
![]() |
Download:
|
图 1 SQL查询语句对应的抽象语法树表示 Fig. 1 Abstract syntax tree representation of SQL query statement |
本文对代码自动注释任务进行定义:给定一个源代码的抽象语法树
$ p\left(Y\right|X)=\prod\limits_{t=1}^{\left|Y\right|}p({y}_{t}|{y}_{<t}, X) $ | (1) |
为了解决OOV问题,本文将复制机制引入到代码注释生成模型中。复制机制使得生成模型除了从目标词典中选择单词外,还可从源代码输入中提取信息。具备复制机制的代码注释生成模型的目标函数可基于式(1)展开为:
$ \begin{array}{l}p\left(Y\mathrm{ }\right|\mathrm{ }X)=\prod\limits_{t=1}^{\left|Y\right|}p({y}_{t}\mathrm{ }|\mathrm{ }{y}_{<t}\mathrm{ }, X)=\\ \prod\limits_{t=1}^{\left|Y\right|}\left[p\right({y}_{t}\mathrm{ }|\mathrm{ }{a}_{t}=\mathrm{g}\mathrm{e}\mathrm{n}, \mathrm{ }{y}_{<t}\mathrm{ }, \mathrm{ }X)p({a}_{t}=\mathrm{g}\mathrm{e}\mathrm{n}\mathrm{ }|\mathrm{ }{y}_{<t}\mathrm{ }, \mathrm{ }X)+\\ p\left({y}_{t}\mathrm{ }\right|\mathrm{ }{a}_{t}=\mathrm{c}\mathrm{o}\mathrm{p}\mathrm{y}, \mathrm{ }{y}_{<t}\mathrm{ }, \mathrm{ }X\left)p\right({a}_{t}=\mathrm{c}\mathrm{o}\mathrm{p}\mathrm{y}\mathrm{ }|\mathrm{ }{y}_{<t}\mathrm{ }, \mathrm{ }X)]\end{array} $ | (2) |
其中,
为了从源代码的复杂语法结构中提取信息,本文提出一种语法辅助复制机制,该机制包含基于语法信息的节点筛选策略与基于时间窗口的去冗余生成策略。如图 2所示,编码器(Encoder)对源代码的抽象语法树进行编码,将编码后的语义表达(enc.embed)传递到解码器(Decoder)进行解码。解码器使用LSTM在每个时间步进行从源输入复制(CP)或从词典生成(GEN)操作。解码器若选择CP操作,将执行基于语法信息的节点筛选策略(①)和基于时间窗口的去冗余生成策略(②);否则,解码器选择GEN操作,直接从词典中选择单词。长虚线区域内的节点为经过节点筛选策略筛选后的候选语法节点,短虚线框为在时间步
![]() |
Download:
|
图 2 代码自动注释模型整体架构 Fig. 2 Overall architecture of automatic code comment model |
编码阶段的目标是得到抽象语法树的语义编码表达,本节将介绍公式化编码过程。编码阶段分为语法节点向量化和抽象语法树向量化2个过程。
3.1 语法节点向量化抽象语法树
$ \mathit{\boldsymbol e}\mathit{\boldsymbol m}{\mathit{\boldsymbol b}}^{\left(e\right)}\left({\omega }_{ij}\right)={\mathit{\boldsymbol W}}_{e}^{\mathrm{T}}\times \mathrm{i}\mathrm{d}\left({\omega }_{ij}\right) $ | (3) |
通过式(3)可以得到节点中每个单词的词嵌入向量,为了得到节点的向量化表示,需要获得节点中的单词序列表达。本文采用LSTM[10]作为序列学习网络,在每个时间步循环地输入序列中每个单词
$ {\mathit{\boldsymbol h}}_{ij}=\mathrm{L}\mathrm{S}\mathrm{T}\mathrm{M}\left(\mathit{\boldsymbol e}\mathit{\boldsymbol m}{\mathit{\boldsymbol b}}^{e}\left({\omega }_{ij}\right), {\mathit{\boldsymbol h}}_{ij-1}\right) $ | (4) |
因此,最后一个时间步的隐含层状态
$ {\mathit{\boldsymbol v}}_{i}={\mathit{\boldsymbol h}}_{i\left|{x}_{i}\right|} $ | (5) |
通过3.1节获得抽象语法树的节点向量化,编码器需进一步将节点的表达通过抽象语法树的结构聚合成抽象语法树的整体表达。为了捕捉抽象语法树的语法结构,将Tree-LSTM[9]作为编码器,进一步对抽象语法树进行编码。Tree-LSTM自下而上递归式和结构化地输入抽象语法树数据,将信息更新至节点隐状态。与经典的LSTM网络相同,Tree-LSTM同样包含输入门、遗忘门和输出门,每个门都是基于节点的向量表示及其孩子节点的隐状态。当抽象语法树是N-ary树时,语法树的非叶子节点最多存在
$\boldsymbol{i}_{j}=\sigma\left(\boldsymbol{W}^{(i)} \boldsymbol{v}_{j}+\sum\limits_{l=1}^{N} \boldsymbol{U}_{l}^{(i)} \boldsymbol{s}_{j l}+\boldsymbol{b}^{(i)}\right) $ | (6) |
$ \boldsymbol{f}_{j k}=\sigma\left(\boldsymbol{W}^{(f)} \boldsymbol{v}_{j}+\sum\limits_{l=1}^{N} \boldsymbol{U}_{k l}^{(f)} \boldsymbol{s}_{j l}+\boldsymbol{b}^{(f)}\right) $ | (7) |
$\boldsymbol{o}_{j}=\sigma\left(\boldsymbol{W}^{(o)} \boldsymbol{v}_{j}+\sum\limits_{l=1}^{N} \boldsymbol{U}_{l}^{(o)} \boldsymbol{s}_{j l}+\boldsymbol{b}^{(o)}\right) $ | (8) |
$ \boldsymbol{u}_{j}=\tanh \left(\boldsymbol{W}^{(u)} \boldsymbol{v}_{j}+\sum\limits_{l=1}^{N} \boldsymbol{U}_{l}^{(u)} \boldsymbol{s}_{j l}+\boldsymbol{b}^{(u)}\right) $ | (9) |
$\boldsymbol{c}_{j}=\boldsymbol{i}_{j} \odot \boldsymbol{u}_{j}+\sum\limits_{l=1}^{N} \boldsymbol{f}_{j l} \odot \boldsymbol{c}_{j l}$ | (10) |
$ \boldsymbol{s}_{j}=\boldsymbol{o}_{j} \odot \tanh \left(\boldsymbol{c}_{j}\right)$ | (11) |
其中,
Tree-LSTM编码器递归式地计算抽象语法树以更新各节点的隐含层信息,根节点的隐含层状态含有其他所有节点的语义结构信息,因此,本文将根节点的隐含层状态作为抽象语法树的语义结构表达,用于解码器更新。
4 自然语言注释 4.1 基于注意力的解码过程模型的解码器负责将从编码器得到的抽象语法树结构语义表达迭代式地生成自然语言注释。本文解码器采用LSTM[10],以结构语义表达作为初始化隐状态,按单位时间步更新输出新的隐状态,且解码器输出的隐状态用于构造注意力向量。具体地,对于任意时间步
$ \boldsymbol{r}_{t j}=\boldsymbol{s}_{j} \times \boldsymbol{o}_{t} $ | (12) |
$ \boldsymbol{\alpha}_{t}=\operatorname{softmax}\left(\boldsymbol{r}_{t}\right) $ | (13) |
$ \boldsymbol{z}_{t}=\sum\limits_{j=1}^{n} \boldsymbol{\alpha}_{t j} \boldsymbol{s}_{j} $ | (14) |
$ \boldsymbol{q}_{t}=\tanh \left(\boldsymbol{W}_{\mathrm{attn}}\left[\boldsymbol{z}_{t} ; \boldsymbol{o}_{t}\right]\right)$ | (15) |
从上述公式可知,在解码器阶段,根据当前时间步
为了解决自然语言生成的OOV问题,本文模型引入复制机制,使其具备从源输入中提取关键信息的能力。本文模型存在2种生成来源,分别是从目标词典中预测和从源输入中复制提取。因此,该模型需要一种机制来选择生成来源,本文构造基于注意力向量输入的分类器,以选择生成来源。构造参数为
$ p\left({a}_{t}|{y}_{<t}, X\right)=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({\mathit{\boldsymbol W}}_{gc}\times {\mathit{\boldsymbol q}}_{t}\right) $ | (16) |
当预测概率大于复制概率时,解码器选择从目标词典中生成。具体地,构造参数为
$ p\left({y}_{t}\right|{a}_{t}=\mathrm{g}\mathrm{e}\mathrm{n}, {y}_{<t}, X)=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}({\mathit{\boldsymbol W}}_{\mathrm{g}\mathrm{e}\mathrm{n}}\times {\mathit{\boldsymbol q}}_{t}) $ | (17) |
4.1节介绍了解码器生成来源为目标词典下的解码过程,本节将重点阐述当生成来源为源输入信息时的解码过程,并通过语法辅助来提高复制提取的准确率。
当生成来源分类器输出的复制概率大于预测概率时,解码器将从输入信息中进行复制提取。具体地,对时间步
$ {\mathit{\boldsymbol g}}_{tj}={\mathit{\boldsymbol s}}_{j}\times {\mathit{\boldsymbol q}}_{t} $ | (18) |
$ p\left({y}_{t}|{a}_{t}=\mathrm{c}\mathrm{o}\mathrm{p}\mathrm{y}, {y}_{<t}, X\right)=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({\mathit{\boldsymbol g}}_{t}\right) $ | (19) |
从上述过程可以看出,复制机制与注意力机制实现过程相似,但是复制机制依赖于注意力机制的注意力向量并进行二次计算。
4.2.1 基于语法信息的节点筛选策略代码自动注释任务的输入是程序代码的抽象语法树,其具有复杂多变的结构信息。现有的复制机制多为非结构化输入数据而设计,模型需要花费大量的时间学习如何从复杂结构中提取有用的信息,且提取效果通常不佳。本文利用语法辅助复制机制从抽象语法树中提取关键信息。对于代码自动注释任务而言,关键信息一般为抽象语法树上的数值型节点和字符型节点。因此,本文将复制过程的搜索范围从语法树所有类型的节点压缩至这两类节点,该过程可以降低搜索空间,也能够减少抽象语法树结构变化所带来的干扰以及神经网络的学习成本。
本文通过引入掩盖变量来过滤无效候选节点。假设时间步
$ {p}_{\mathrm{m}\mathrm{a}\mathrm{s}\mathrm{k}}\left({y}_{t}|{a}_{t}=\mathrm{c}\mathrm{o}\mathrm{p}\mathrm{y}, {y}_{<t}, X\right)=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({\mathit{\boldsymbol g}}_{t}+{\mathit{\boldsymbol d}}_{t}\right) $ | (20) |
由上述过程可得到复制机制下当前时间步对应的损失函数为:
$ {L}_{t}=-\mathrm{l}\mathrm{o}{\mathrm{g}}_{a}{p}_{\mathrm{m}\mathrm{a}\mathrm{s}\mathrm{k}}\left({y}_{t}|{a}_{t}=\mathrm{c}\mathrm{o}\mathrm{p}\mathrm{y}, {y}_{<t}, X\right) $ | (21) |
一方面,通过掩盖向量可以剔除无效节点,使得无效节点集概率恒等于0,正确节点掩盖后的概率大于等于原始概率,当前时间步的损失下降,神经网络的整体成本函数也会下降;另一方面,从候选节点集合中过滤无效候选节点,可以使得当前时间步搜索空间得到一定的压缩。因此,节点筛选策略在一定程度上可以加速神经网络的学习。
4.2.2 基于时间窗口的去冗余生成策略现有代码自动注释方法生成的自然语言注释存在主要关键词冗余与部分关键词缺失的现象,造成该现象的原因是复制机制与注意力机制原理相近,导致指针网络倾向于重复指向最具注意力的少数节点,而忽略了其他有用节点。为解决上述问题,本文提出一种基于时间窗口的去冗余生成策略,通过在时间窗口内对已被复制的语法节点的复制概率进行衰减,从而提高候选集合中其他有用且未被复制的节点被初次复制的概率。具体地,对于一个已被复制的语法节点
$ {\lambda }_{it}=\left\{\begin{array}{l}0, {x}_{i} \mathrm{未}\mathrm{被}\mathrm{复}\mathrm{制}\\ 1, {x}_{i} \mathrm{在}t\mathrm{时}\mathrm{刻}\mathrm{被}\mathrm{复}\mathrm{制}\\ \gamma {\lambda }_{it-1}, {x}_{i} \mathrm{在}t\mathrm{时}\mathrm{刻}\mathrm{前}\mathrm{被}\mathrm{复}\mathrm{制}\end{array}\right. $ | (22) |
在时间步
$ {p}_{\mathrm{f}\mathrm{i}\mathrm{n}\mathrm{a}\mathrm{l}}\left({y}_{t}\right|{a}_{t}=\mathrm{c}\mathrm{o}\mathrm{p}\mathrm{y}, {y}_{<t}, X)=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}({\mathit{\boldsymbol g}}_{t}+{\mathit{\boldsymbol d}}_{t})\times (1-{\lambda }_{t}) $ | (23) |
本文采用结构化查询语言(SQL)和逻辑表达式(Lambda)2种不同编程语言的源代码数据进行测试,源代码数据分别来自WikiSQL[22]和ATIS[23]数据集。WikiSQL数据集数据来源于维基百科,含有24 241个小规模数据表格,基于以上数据表格产生80 654个结构化查询语句-自然语言对。ATIS数据集数据来源于现实航空业务数据库,含有25个真实数据表,基于以上数据表格产生5 373个逻辑表达-自然语言对。为了验证各方法的有效性,将WikiSQL数据集进一步划分为分别含有56 355个样本的训练集、8 421个样本的验证集和15 878个样本的测试集。同样地,将ATIS数据集划分为分别含4 434个样本的训练集、491个样本的验证集和448个样本的测试集。上述数据集涉及的2种编程语言均可通过抽象语法描述语言(Abstract Syntax Description Language,ASDL)来获得对应的抽象语法树。其中,SQL结构化查询语言和Lambda逻辑表达式的ASDL语法分别在文献[24]和文献[25]中有所定义。
5.2 基准方法本文将具有代表性的两类结构性方法作为实验的基准方法,其中包括树至序列(Tree to Sequence,Tree2Seq)模型[26]和图至序列(Graph to Sequence,Graph2Seq)模型[16],以上基准方法均采用注意力机制。需要注意的是,Tree2Seq模型输入结构为源代码的抽象语法树,而Graph2Seq模型的原文输入结构是专为SQL查询语句设计的图结构,其无法支持Lambda逻辑表达式,而且原文没有提供为SQL查询语句转换的预处理代码。因此,本文将统一采用抽象语法树作为Graph2Seq模型的输入结构。编程语言的抽象语法树表示具有普遍性,可应用于大部分编程语言。具体地,本文将源代码的抽象语法树看作一个无向图,父、子节点之间的连接看作图节点的边。此外,为了更好地验证语法辅助复制机制的性能,本文在Tree2Seq模型中引入一种传统的复制机制。
5.3 评价指标本文采用BLEU[27]和ROUGE[28]作为自然语言注释生成的评价指标。BLEU是自然语言处理任务常用的评价指标,其通常从字符或单词级别来评价2个文本或2个文本集合的相似度。ROUGE指标评价所生成文本句子的充分性和忠实性,为了提高所生成文本的连贯性,本文使用考虑文本上下文的ROUGE指标,分别为ROUGE-2和ROUGE-L。
5.4 实验设置实验参数设置如下:词向量、编码器和解码器的隐状态维度大小均为128维,批量大小均设置为32个,梯度优化器选择Adam优化器[29],学习率设置为0.001。此外,为了降低词典大小,源词典和目标词典只记录词频不低于4的单词。实验没有采用由其他语料库预训练的词向量,如Word2Vec[30]和Glove[31]等,而是使用xavier初始化器[32]随机初始化词向量。本文所提复制机制中基于时间窗口的去冗余生成策略的衰减持有率,在WikiSQL和ATIS数据集中分别设置为80%和90%时系统性能达到最优,5.5.3节将对该参数进行详细的敏感性分析。
5.5 结果分析 5.5.1 模型性能分析实验表 1和表 2所示分别为本文模型和基线模型在WikiSQL和ATIS 2个数据集上进行代码自动生成的实验结果,其中最优结果加粗表示。从中可以看出,本文模型在WikiSQL数据集中的性能表现明显优于2个基线模型,与最佳基线模型Tree2Seq+copy相比,本文模型的BLEU提升14.5%,ROUGE-2和ROUGE-L分别提升10.3%和5.5%。在ATIS数据集上,与最佳基线模型Tree2Seq+copy相比,本文模型的BLEU提升2.8%,ROUGE-2和ROUG-L分别提升6.6%和2.5%。上述结果表明,本文模型相比现有代码注释生成方法有显著的性能提升,其能生成更加准确的代码自然语言注释。
![]() |
下载CSV 表 1 3种模型在WikiSQL数据集上的性能对比结果 Table 1 Performance comparison results of three models on WikiSQL dataset |
![]() |
下载CSV 表 2 3种模型在ATIS数据集上的性能对比结果 Table 2 Performance comparison results of three models on ATIS dataset |
为了量化节点筛选策略在压缩搜索空间方面的性能,本文统计WikiSQL和ATIS数据集单位时间步内的平均候选节点个数,结果如表 3所示。从表 3可以看出,通过节点筛选策略过滤无效的语法节点,在WikiSQL数据集中候选节点空间的压缩比例超过60%,在ATIS数据集中压缩比例超过50%,即节点筛选策略能大幅降低代码注释生成的搜索空间。
![]() |
下载CSV 表 3 种数据集在单位时间步内的平均候选节点数 Table 3 The average number of candidate nodes per unit time step of two datasets |
为了验证节点筛选策略在收敛速度方面的性能,本文在WikiSQL的验证集下测试BLEU指标的收敛趋势。为了公平有效地对比,在本文模型中去除去冗余生成策略,仅保留节点筛选策略,并与结合复制机制的Tree2Seq模型进行对比,结果如图 3所示。从图 3可以看出,相比基线模型,仅保留节点筛选策略的本文模型收敛速度有所提升,即节点筛选策略能在一定程度上加速神经网络的学习。
![]() |
Download:
|
图 3 2种模型在WikiSQL验证集上的收敛速度对比 Fig. 3 Convergence rate comparison of two models on WikiSQL verification set |
为了验证去冗余生成策略中的衰减持有率对模型影响的敏感程度,本文在WikiSQL和ATIS数据集上设计针对衰减持有率的敏感性实验,结果如图 4和图 5所示。从图 4可以看出,在WikiSQL数据集上,当衰减持有率为80%时,模型达到该数据集上的最高BLEU值。从图 5可以看出,在ATIS数据集上,当衰减持有率为90%时,模型达到该数据集上的最高BLEU值。衰减持有率能够直观反映自然语言注释中一个字或词重复出现的间距,图 4和图 5的实验结果表明,在2个数据集上重复字词出现的间距均较大。
![]() |
Download:
|
图 4 WikiSQL测试集上的衰减持有率敏感性实验结果 Fig. 4 Sensitivity experimental results of decay keeping probability on WikiSQL test set |
![]() |
Download:
|
图 5 ATIS测试集上的衰减持有率敏感性实验结果 Fig. 5 Sensitivity experimental results of decay keeping probability on ATIS test set |
为了更好地体现基于语法信息的节点筛选策略和基于时间窗口的去冗余生成策略在模型中的重要性,本文设计分离实验以验证去除其中一种策略后的模型性能,测量不同的变种模型在WikiSQL和ATIS验证集上的BLEU值变化。本文定义如下的变种模型:
1)Ours-SA:只去除基于语法信息的节点筛选策略的模型,其他保持不变。
2)Ours-CD:只去除基于时间窗口的去冗余生成策略的模型,其他保持不变。
分离实验结果如表 4所示,从表 4可以看出,与原始模型相比,Ours-SA和Ours-CD的BLEU值在2个数据集上均出现明显下降,验证了本文所提2种策略的有效性。此外,基于时间窗口的去冗余生成策略对WikiSQL影响较大,去除该策略后模型的BLEU值降低超过10%,而2种策略对ATIS数据集的影响相差不大。
![]() |
下载CSV 表 4 2种数据集上的分离实验结果 Table 4 Results of separation experiments on two datasets |
本文提出一种用于代码注释自动生成的语法辅助复制机制,其中主要包括节点筛选策略和去冗余生成策略2个部分。实验结果表明,与Tree2Seq+copy和Graph2Seq模型相比,该机制的BLEU和ROUGE指标值均较高。下一步将在代码注释生成模型框架中引入语法信息,以提升模型对复杂语法的学习效果。
[1] |
BEN-NUN T, JAKOBOVITS A S, HOEFLER T. Neural code comprehension: a learnable representation of code semantics[C]//Proceedings of the 32nd International Con-ference on Neural Information Processing Systems. New York, USA: ACM Press, 2018: 3585-3597.
|
[2] |
ALLAMANIS M, TARLOW D, GORDON A, et al. Bimodal modelling of source code and natural language[C]//Proceedings of the 32nd International Conference on Machine Learning. New York, USA: ACM Press, 2015: 2123-2132.
|
[3] |
LIU Yang. Recent advances in neural machine translation[J]. Journal of Computer Research and Development, 2017, 54(6): 1144-1149. (in Chinese) 刘洋. 神经机器翻译前沿进展[J]. 计算机研究与发展, 2017, 54(6): 1144-1149. |
[4] |
SUTSKEVER I, VINYALS O, LE Q V. Sequence to sequence learning with neural networks[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems. New York, USA: ACM Press, 2014: 3104-3112.
|
[5] |
WU Renshou, WANG Hongling, WANG Zhongqing, et al. Short text summary generation with global self-matching mechanism[J]. Journal of Software, 2019, 30(9): 2705-2717. (in Chinese) 吴仁守, 王红玲, 王中卿, 等. 全局自匹配机制的短文本摘要生成方法[J]. 软件学报, 2019, 30(9): 2705-2717. |
[6] |
MING Tuosiyu, CHEN Hongchang, HUANG Ruiyang, et al. Semantic subgraph predictive summary algorithm based on weighted AMR graph[J]. Computer Engineering, 2018, 44(10): 292-297, 302. (in Chinese) 明拓思宇, 陈鸿昶, 黄瑞阳, 等. 基于加权AMR图的语义子图预测摘要算法[J]. 计算机工程, 2018, 44(10): 292-297, 302. |
[7] |
GAMBHIR M, GUPTA V. Recent automatic text summariza-tion techniques: a survey[J]. Artificial Intelligence Review, 2017, 47(1): 1-66. DOI:10.1007/s10462-016-9475-9 |
[8] |
VINYALS O, FORTUNATO M, JAITLY N. Pointer networks[EB/OL]. [2019-12-20]. https://arxiv.org/pdf/1506.03134.pdf.
|
[9] |
TAI K S, SOCHER R, MANNING C D. Improved semantic representations from tree-structured long short-term memory networks[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. New York, USA: ACM Press, 2015: 1556-1566.
|
[10] |
HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735 |
[11] |
MOVSHOVITZ-ATTIAS D, COHEN W. Natural language models for predicting programming comments[C]//Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2013: 35-40.
|
[12] |
IYER S, KONSTAS I, CHEUNG A, et al. Summarizing source code using a neural attention model[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2016: 2073-2083.
|
[13] |
ALLAMANIS M, PENG H, SUTTON C. A convolu-tional attention network for extreme summarization of source code[C]//Proceedings of International Conference on Machine Learning. New York, USA: ACM Press, 2016: 2091-2100.
|
[14] |
WAN Yao, ZHAO Zhou, YANG Min, et al. Improving auto-matic source code summarization via deep reinforcement learning[C]//Proceedings of the 33rd ACM/IEEE Inter-national Conference on Automated Software Engineering. New York, USA: ACM Press, 2018: 397-407.
|
[15] |
HU Xing, LI Ge, XIA Xin, et al. Deep code comment generation[C]//Proceedings of the 26th Conference on Program Comprehension. New York, USA: ACM Press, 2018: 200-210.
|
[16] |
XU Kun, WU Lingfei, WANG Zhiguo, et al. Graph2Seq: graph to sequence learning with attention-based neural networks[EB/OL]. [2019-12-20]. https://arxiv.org/pdf/1804.00823.pdf.
|
[17] |
SEE A, LIU P J, MANNING C D. Get to the point: summarization with pointer-generator networks[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2017: 1073-1083.
|
[18] |
GU Jiatao, LU Zhengdong, LI Hang, et al. Incorporating copying mechanism in sequence-to-sequence learning[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2016: 1631-1640.
|
[19] |
WANG L, BLUNSOM P, GREFENSTETTE E, et al. Latent predictor networks for code generation[C]//Proceedings of the 54th Annual Meeting of the Association for Computa-tional Linguistics. New York, USA: ACM Press, 2016: 599-609.
|
[20] |
LIANG Y D, ZHU K Q. Automatic generation of text descriptive comments for code blocks[EB/OL]. [2019-12-20]. http://www.cs.sjtu.edu.cn/~kzhu/papers/kzhu-aaai18-code.pdf.
|
[21] |
LUONG M T, PHAM H, MANNING C D. Effective approaches to attention-based neural machine translation[C]//Proceedings of 2015 Conference on Empirical Methods in Natural Language Processing. Washington D.C., USA: IEEE Press, 2015: 1412-1421.
|
[22] |
ZHONG V, XIONG C M, SOCHER R. Seq2SQL: generating structured queries from natural language using reinforcement learning[EB/OL]. [2019-12-20]. https://arxiv.org/pdf/1709.00103.pdf.
|
[23] |
DONG L, LAPATA M. Language to logical form with neural attention[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2016: 33-47.
|
[24] |
YIN P C, NEUBIG G. A syntactic neural model for general-purpose code generation[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2017: 440-458.
|
[25] |
RABINOVICH M, STERN M, KLEIN D. Abstract syntax networks for code generation and semantic parsing[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2017: 1139-1153.
|
[26] |
ERIGUCHI A, HASHIMOTO K, TSURUOKA Y. Tree-to-sequence attentional neural machine translation[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2016: 823-846.
|
[27] |
PAPINENI K, ROUKOS S, WARD T, et al. BLEU: a method for automatic evaluation of machine translation[C]//Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics. New York, USA: ACM Press, 2002: 311-318.
|
[28] |
LIN C Y. Rouge: a package for automatic evaluation of summaries[EB/OL]. [2019-12-20]. https://www.aclweb.org/anthology/W04-1013.pdf.
|
[29] |
KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. [2019-12-20]. https://arxiv.org/pdf/1412.6980.pdf.
|
[30] |
MIKOLOV T, CHEN K, CORRADO G, et al. Efficient estimation of word representations in vector space[EB/OL]. [2019-12-20]. https://arxiv.org/pdf/1301.3781.pdf.
|
[31] |
PENNINGTON J, SOCHER R, MANNING C. Glove: global vectors for word representation[EB/OL]. [2019-12-20]. https://nlp.stanford.edu/pubs/glove.pdf.
|
[32] |
GLOROT X, BENGIO Y. Understanding the difficulty of training deep feedforward neural networks[C]//Proceedings of the 13th International Conference on Artificial Intelligence and Statistics. New York, USA: ACM Press, 2010: 249-256.
|