开放科学(资源服务)标志码(OSID):
随着智能信息服务应用的不断发展,知识图谱(Knowledge Graph,KG)已被广泛应用于智能问答[1]、智能信息处理[2-3]、个性化推荐[4]等领域。近年来,越来越多的知识图谱被构造以提供针对不同领域的知识,如DBpedia[5]、YAGO[6]、ConceptNet[7]、NELL[8]。研究人员发现,这些知识图谱通常不完整,相互之间包含着互补的事实,需要将不同的知识图谱整合到统一的知识图谱中,为不同的应用提供结构知识。然而,将来自不同知识图谱的实体链接到相同的真实世界知识并非易事,因为不同的知识图谱基于不同的数据源所构造,所以同一实体在不同的知识库中也有着不同的表述。
在多语言知识图谱中查找等效实体,对于集成多源知识图谱起到重要的作用。实体对齐(Entity Alignment,EA)旨在从来自多个来源构成的知识图谱中找到表示真实世界知识的同一实体。目前,比较流行的实体对齐方法是基于知识图谱嵌入的方法,此方法主要是利用知识图谱的表示学习,克服了依靠人工创建规则或特征[9]的问题。该类方法假定基于不同数据源构造的知识图谱具有相似的结构,在向量空间中具有相对相似位置的实体为对齐实体,使用TransE等一系列模型[10-15]表示每个知识图谱中的实体和关系,然后将预对齐的实体投影至统一的向量空间。然而,基于知识图谱嵌入的实体对齐需要足够数量的种子序列,并且受不同知识图谱间不完整性和异质性的影响,对齐精确度往往不高。
图神经网络(Graph Neural Network,GNN)是学习图结构化数据的矢量表示和解决图上各种监督预测问题的强大模型[16-18]。GNN遵循递归邻域聚合方法,每个节点聚合其邻居的特征向量以计算新的特征向量[16, 18]。在聚合k次迭代之后,节点由其变换后的特征向量表示,该特征向量可以捕获节点多跳邻居附近的结构信息,然后通过合并来获得整个图的表示[19]。文献[20]证明,GNN在识别同构子图方面具有与Weisfeiler-Leman(WL)检测[21]相同的表达能力。相似实体通常具有相似的邻域,这是GNN实现不同知识图谱之间实体对齐的理论基础。
然而,现有基于GNN的实体对齐模型依然面临着一个关键问题:由于不同的知识图谱具有结构异质性[22],因此对应实体通常具有不同的邻域结构。解决此问题的关键在于要减小不同知识图谱实体邻域结构的异质性。本文提出一种邻域聚合匹配网络(Neighborhood Aggregation Matching Network,NAMN)模型,旨在从实体邻域角度对图结构信息进行编码以实现实体对齐,缓解结构异质性带来的影响。
1 相关工作 1.1 基于知识图谱嵌入的实体对齐近年来,知识图谱嵌入学习已成功应用于实体对齐领域。当前的处理方法是将不同的知识图谱表示为嵌入,投影至同一向量空间,然后通过测量嵌入之间的相似性来进行实体对齐。MTransE[10]是基于嵌入的多语言实体对齐模型,其使用TransE模型学习两个知识图谱中实体的嵌入,然后学习连接两个嵌入空间之间的映射函数,以实现实体对齐。IPTransE[11]和BootEA[12]是通过联合嵌入进行迭代的自我训练方法,其使用预对齐的实体种子对来进行计算,并将迭代过程中新发现的实体对添加到训练数据集中,优化对齐效果。JAPE[13]使用Skip-Gram方法,利用种子对齐方式将两个知识图谱的实体嵌入到统一的向量空间中,将结构嵌入和属性嵌入结合在一起找到相似实体。文献[14]提出了一种RSN方法,结合递归神经网络(Recurrent Neural Network,RNN)和残差学习,以有效地捕获知识图谱内部和知识图谱之间的长期关系依赖性,优化实体对齐效果。MultiKE[15]分别从名称、属性和结构视图中学习实体的表示形式,集成3个特定的视图嵌入组合策略以提高实体对齐性能,并使用预先训练好的词嵌入来完善属性值的学习。但是,以上方法需要足够数量的种子对,成本较高,并且不同知识图谱的结构异质性对知识图谱的嵌入质量也产生了很大的负面影响,导致对齐效果变差。
1.2 基于GNN的实体对齐与上述基于知识图谱嵌入的方法不同,图神经网络(GNN)使用图结构和节点特征来学习节点或整个图的表示向量,遵循邻域聚合策略,在图学习方面取得了显著进步。因此,一些工作试图将GNN应用在实体对齐方面以取得更好的对齐性能。GCN-Align[16]是一种基于GCN的实体对齐模型,其利用GCN将每个知识图谱的实体嵌入统一的向量空间,传播来自邻居的信息,通过结构知识进行实体对齐。然而,GCN-Align在训练过程中仅考虑实体之间的等效关系,没有在知识图谱中使用丰富的关系来区分共享邻居的实体。R-GCN[17]模型考虑到节点之间的关系,解决了GCN处理图结构中关系对节点的影响,其通过为每个关系设置转换矩阵来进一步合并关系类型信息,提高对齐效果。RDGCN[18]是一种新的关系感知双图卷积网络,其通过构建用于嵌入学习的对偶关系图,使用门控机制捕获邻域结构,缓解知识图之间的异构性,以学习更好的实体表示。R-GCN模型和RDGCN模型将预先对齐的实体和关系作为训练数据,这可能会导致昂贵的开销。AliNet[23]模型将门控机制和注意力机制结合在一起,以聚合多跳邻域来整合GCN,从而减少图异构性对实体对齐的影响,达到更好的对齐效果。然而,AliNet在汇总信息时将实体的所有一跳邻居同等对待,在没有仔细选择的情况下引入了噪声,影响了实体对齐性能。
2 NAMN模型设计 2.1 基础知识 2.1.1 知识图谱的实体对齐本文将知识图谱形式表示为
GNN通过递归聚合其邻居的特征向量来学习节点表示,不同的聚合策略产生了GNN的不同变体,其中的一种变体vanilla GCN[24]在第l(l≥1)层处的节点i的隐藏表示为
$ {h}_{i}^{\left(l\right)}=\sigma \left(\sum\limits_{a\in N\left(i\right)\bigcup \left\{i\right\}}\frac{1}{{\varepsilon }_{i}}{W}_{1}^{\left(l\right)}{h}_{a}^{(l-1)}\right) $ | (1) |
其中:
为了减少邻域信息所带来的非同构影响,本文方法引入远距离邻居。如图 1所示,两个中心实体对(a,A)的一跳邻居不同,只包含对等实体对(b,B)和(c,C),而a的一跳邻居d和A的远距离邻居D对应,A的一跳邻居E和F与a的远距离邻居e和f对应。如果可以将远距离邻居e和f包含在a的邻域聚合中,并且也将A的远距离邻居D考虑在内,那么GNN将会学习到更多关于a和A的相似表示。但是,并非所有的远距离邻居都有积极贡献,因此,本文引入注意力机制,旨在找到对中心实体有积极贡献的远距离邻域。
![]() |
Download:
|
图 1 远距离邻居选择示例 Fig. 1 Example of selecting long-distance neighbors |
通过图的结构信息来度量两个图的相似性,进而估计
对于不同实体之间的相似性,通常采用计算实体之间的距离来度量,而计算距离的方法会直接关系到对齐的效果。表 1中列举了一些常见的距离函数。
![]() |
下载CSV 表 1 常见的距离函数 Table 1 Common distance functions |
为了缓解邻域异质性对实体对齐产生的影响,NAMN模型利用GNN对图结构信息进行建模,采用分层的思想对邻域信息进行区别处理。首先,对于一跳邻居进行全部采样,对于二跳及以上邻居,采用注意力机制进行局部采样;然后,引入门控机制对实体的k-hop邻居信息进行聚合,以挖掘图结构的隐藏信息;在此基础上,考虑到实体一跳邻居结构异质性的影响,为每个实体提取一个可区分的邻域,构建邻域局部子图进行跨图邻域匹配,将匹配阶段的输出与通过门控机制所学习的图结构表示进行联合编码,以生成面向匹配的实体表示;最后,对于面向匹配的实体表示,使用距离函数进行实体的对齐预测。NAMN模型框架如图 2所示,在不失一般性的情况下,该图展示了一跳和二跳邻居信息的情况。NAMN遵循3个阶段的处理流程,即门控邻域聚合、邻域匹配和对齐预测。
![]() |
Download:
|
图 2 NAMN模型框架 Fig. 2 NAMN model framework |
按照每跳邻居对中心实体的重要性可知,实体的一跳邻居是最重要的邻域。本文使用vanilla GCN聚合实体的邻居信息,学习知识图谱结构嵌入。首先,使用预训练的词嵌入[26]来初始化GCN的方法。将两个知识图谱
对于二跳邻居,若再直接采用GNN层来聚合,会导致更多的噪声信息。为找到对中心实体有积极贡献的远距离邻域,本文引入注意力机制[23]来计算实体
$ {h}_{i-2}^{\left(l\right)}=\mathrm{R}\mathrm{e}\mathrm{L}\mathrm{U}\left(\sum\limits_{a\in {N}_{2}\left(i\right)\bigcup \left\{i\right\}}{\beta }_{ia}^{}{\mathit{\boldsymbol{W}}}_{2}{h}_{a}^{(l-1)}\right) $ | (2) |
其中:
为进一步聚合邻域信息,使用门控机制将邻域信息结合在一起,以挖掘实体
$ g\left({h}_{i}^{\left(l\right)}\right)=\mathrm{R}\mathrm{e}\mathrm{L}\mathrm{U}(\mathit{\boldsymbol{M}}{h}_{i}^{\left(l\right)}+\mathit{\boldsymbol{b}}) $ | (3) |
$ {h}_{i}^{\left(l\right)}=g\left({h}_{i-2}^{\left(l\right)}\right)\cdot {h}_{i-1}^{\left(l\right)}+\left(1-g\left({h}_{i-2}^{\left(l\right)}\right)\right)\cdot {h}_{i-2}^{\left(l\right)} $ | (4) |
其中:
对于two-hop邻域聚合,本文引入注意力权重
$ \begin{array}{l}{c}_{ia}^{}=\mathrm{a}\mathrm{t}\mathrm{t}\mathrm{n}({\mathit{\boldsymbol{M}}}_{1}{h}_{i}^{\left(l\right)}, {\mathit{\boldsymbol{M}}}_{2}{h}_{a}^{\left(l\right)})=\\ \;\;\;\; {}_{}{}_{}{}_{}{}_{}{}_{}\mathrm{L}\mathrm{e}\mathrm{a}\mathrm{k}\mathrm{y}\mathrm{R}\mathrm{e}\mathrm{L}\mathrm{U}\left(p\right[{\mathit{\boldsymbol{M}}}_{1}{h}_{i}^{\left(l\right)}\left|\right|{\mathit{\boldsymbol{M}}}_{2}{h}_{a}^{\left(l\right)}\left]\right)\end{array} $ | (5) |
其中:p、
$ {\beta }_{ia}^{}=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({c}_{ia}^{}\right)=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left({c}_{ia}^{}\right)}{\sum\limits_{k\in {N}_{2}\left(i\right)\bigcup \left\{i\right\}}\mathrm{e}\mathrm{x}\mathrm{p}\left({c}_{ik}^{}\right)} $ | (6) |
将两个知识图谱
实体的一跳邻居是决定该实体与其他实体是否对齐的关键,但是并非所有的一跳邻居都对实体对齐有着积极的影响。为此,本文引入局部子图,应用向下采样过程(down-sampling process),旨在选择对中心实体信息量最大的一跳邻居。对于每个实体对
为了选择合适的邻居,采用邻里采样策略[29]。给定实体
$ p\left({h}_{i\_1}\right|{h}_{i})=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({h}_{i}{\mathit{\boldsymbol{W}}}_{3}{h}_{i\_1}^{\mathrm{T}}\right)=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left({h}_{i}{\mathit{\boldsymbol{W}}}_{3}{h}_{i\_1}^{\mathrm{T}}\right)}{\sum\limits_{n\in {N}_{i}}\mathrm{e}\mathrm{x}\mathrm{p}\left({h}_{i}{\mathit{\boldsymbol{W}}}_{3}{h}_{i\_n}^{\mathrm{T}}\right)} $ | (7) |
其中:
确定对中心实体应考虑的邻居之后,也即产生了邻域局部子图。在跨图邻域匹配过程中,为减少匹配开销,首先进行的为候选人的选择。计算
$ {\alpha }_{ij}={s}_{h}({h}_{i}, {h}_{j}), \;j\in \{\mathrm{1, 2}, \cdots , |{E}_{2}\left|\right\} $ | (8) |
$ p\left({h}_{i}\right|{h}_{j})=\frac{\sum\limits_{j=1}^{\left|{E}_{2}\right|}{\alpha }_{ij}\cdot {h}_{j}}{\sum\limits_{j=1}^{\left|{E}_{2}\right|}{\alpha }_{ij}} $ | (9) |
其中:
在邻域匹配模块中,
$ {\alpha }_{xy}=\frac{\mathrm{e}\mathrm{x}\mathrm{p}({h}_{x}\cdot {h}_{y})}{\sum\limits_{y{{'}}\in {N}_{{i}_{k}}^{s}}\mathrm{e}\mathrm{x}\mathrm{p}({h}_{x}\cdot {h}_{y{{'}}})} $ | (10) |
$ {\mathit{\boldsymbol{m}}}_{x}=\sum\limits_{y\in {N}_{{i}_{k}}^{s}}{\alpha }_{xy}({h}_{x}-{h}_{y})={h}_{x}-\sum\limits_{y\in {N}_{{i}_{k}}^{s}}{h}_{y} $ | (11) |
其中:
然后,将邻居x的输出嵌入与匹配向量相结合:
$ {\widehat{h}}_{x}=\left[{h}_{x}\right||{m}_{x}\cdot \tau ] $ | (12) |
其中:
最后,汇总其采样的邻居表示集为
$ {g}_{i\_1}=\left(\sum\limits_{x\in {N}_{i}^{s}}\mathrm{R}\mathrm{e}\mathrm{L}\mathrm{U}\left({\widehat{h}}_{x}{\mathit{\boldsymbol{W}}}_{\mathrm{g}\mathrm{a}\mathrm{t}\mathrm{e}}\right)\cdot {\widehat{h}}_{x}\right){\mathit{\boldsymbol{W}}}_{N} $ | (13) |
其中:
在此基础上,将式(4)所计算的实体的隐藏表示
$ {h}_{i}^{\mathrm{m}\mathrm{a}\mathrm{t}\mathrm{c}\mathrm{h}}=\left[{\mathrm{g}}_{i\_1}\right|\left|{h}_{i}^{\left(l\right)}\right] $ | (14) |
对于最终生成的面向匹配的实体表示
$ d({e}_{i}, {e}_{j})=\pi ({e}_{i}, {e}_{j})={||{h}_{i}^{\mathrm{m}\mathrm{a}\mathrm{t}\mathrm{c}\mathrm{h}}-{h}_{j}^{\mathrm{m}\mathrm{a}\mathrm{t}\mathrm{c}\mathrm{h}}||}_{1} $ | (15) |
其中:
$ O=\sum\limits_{(c, v)\in Z}d(c, v)+\sum\limits_{(c{'}, v\left.{'}\right)\in R}\alpha [\lambda -d(c{'}, v{'}\left)\right] $ | (16) |
其中:c和v、
此外,使用Adam优化器[31]对目标进行优化,通过Xavier初始化[11]对所有可学习的参数(包括实体的输入特征向量)进行初始化。
3 实验 3.1 数据集为了评估NAMN模型性能,参考最近的研究[12, 32],本文使用大型数据集DBpedia[33]下的子集DBP15K作为实验数据进行验证。这些数据集包括3个跨语言数据集,分别是英语、中文、日语和法语的不同语言版本,即DBP15KZH-EN(中文-英语)、DBP15KJA-EN(日语-英语)、DBP15KFR-EN(法语-英语),每个数据集由15 000个对齐的实体对和约40万个三元组组成。3个数据集的详细信息如表 2所示。
![]() |
下载CSV 表 2 数据集统计 Table 2 Data set statistics |
按照惯例,将数据集的30%作为训练数据,剩下的70%用作测试数据。在以下超参数中进行搜索:学习率
![]() |
下载CSV 表 3 参数设置 Table 3 Parameters setting |
对于评估指标,使用Hits@K和平均倒数排名(Mean Reciprocal Rank,MMR)评估对齐性能。Hits@K通过排名在前K个的正确对齐实体的比例来进行计算,MRR是指所有正确实体的平均倒数排名。这两个指标值越高,表明实体对齐模型效果越好。
3.3 对比方法与实验结果本文将NAMN模型与最近提出的基于嵌入的实体对齐模型进行比较,并将其分为2类:1)基于嵌入的模型,如MTransE、IPTransE、JAPE、BootEA和RSN;2)基于图的模型,如GCN-Align和RDGCN。同时,引入近期考虑到知识图谱邻域异质性的两个最新成果进行比较,即MuGNN和AliNet模型。
表 4列出了在DBP15K数据集上所有方法的实体对齐性能。实验结果表明,NAMN明显优于3个数据集上的所有基线模型。NAMN模型可以实现Hits@1的所有值均高于75%,Hits@10的所有值均高于85%,MRR的所有值均不低于80%,这进一步证实了本文方法的有效性。具体来说,在基于嵌入模型中,BootEA模型表现最佳,通过引导过程可以从更多训练实例中受益。对于仅考虑结构信息的基于GNN的模型,RDGCN明显优于其他模型,这是因为RDGCN模型考虑从邻域结构入手,缓解了结构异质性所带来的影响,体现出解决结构异质性的重要性。
![]() |
下载CSV 表 4 不同实体对齐方法性能比较 Table 4 Performance comparison of different entity alignment methods |
为进一步证明NAMN模型的有效性,在DBP15K的另外3个数据集上进行对比实验。这3个数据集分别是DBP15KEN-ZH(英语-中文),DBP15KEN-JA(英语-日语),DBP15KEN-FR(英语-法语),实体对齐的结果比对如表 5所示。可以看出,所有模型的性能都有所下降,但NAMN模型明显优于另外3个模型,NAMN模型的Hits@1的值要高于另外3个模型约30%以上,其中,在DBP15KEN-FR数据集中Hits@1达到了最高,充分证明了NAMN模型的有效性和鲁棒性。
![]() |
下载CSV 表 5 实体对齐结果比较 Table 5 Comparison of entity alignment results |
为更直观地表现NAMN模型的性能,在DBP15K数据集上,采用Hits@1到Hits@50以10为步长的多个基准进行比较,选择JAPE、GCN-Align和AliNet作为对比模型,具体如图 3所示,其中横坐标为Hits@K。可以看出:NAMN模型的Hits@K值均高于其他模型,在DBP15KJA-EN和DBP15KFR-EN上都取得了最高的得分;AliNet模型的Hits@K值在K取20之后,得分接近NAMN模型,说明缓解实体邻域结构的异质性有利于实体对齐,但AliNet模型的Hits@1明显低于NAMN模型,说明NAMN模型具有更好的对齐性能。
![]() |
Download:
|
图 3 DBP15K数据集上Hits@K得分结果比较 Fig. 3 Comparison of Hits@K score results on DBP15K dataset |
NAMN模型使用门控机制和邻域采样策略来实现实体对齐,因此,分别对这两个策略进行分析。
将NAMN模型在DBP15K数据集上采用随机采样策略来进行比较,具体结果如图 4所示。可以看出,NAMN模型可以提供更好的结果,本文的采样策略可以有效地选择信息量更大的邻居。对DBP15K数据集,两个模型均可达到性能平稳状态,当采样大小为3时,两个模型的性能更高。但随着采样大小的增大,性能会有所下降,说明较大的采样会引入更多的噪声。
![]() |
Download:
|
图 4 DBP15K数据集上邻域抽样策略与随机采样策略的结果比较 Fig. 4 Result comparison of neighborhood sampling strategy and random sampling strategy on DBP15K dataset |
在聚合多跳邻居方面,本文使用不同的策略来设计NAMA的不同变体。变体1(NAMN-1)将实体的一跳和二跳邻居平等对待,使用GNN层直接聚合邻居信息;变体2(NAMN-2)用加法运算符替换门控机制;变体3(NAMN-3)用GAT来替换本文所用的注意力机制。由表 6可以看出:NAMN-1的实验结果很差,这表明使用GNN层来直接聚合二跳邻居会引入很多的噪声信息,严重影响对齐性能;NAMN-2的实验结果较差,这表明加法机制只是简单的将邻居信息结合,并不会像门控机制那样选择性地组合各个维度上的邻居信息表示;NAMN-3的实验结果比NAMN略差,这表明本文所用注意力机制能够优化对齐效果。因此,对于远距离邻居选择,门控机制和注意力机制至关重要。
![]() |
下载CSV 表 6 NAMN不同变体对齐结果比较 Table 6 Comparison of alignment results of different variants of NAMN |
在DBP15K数据集上1~4层的AliNet实验结果如图 5所示,其中横坐标为AliNet的层数。可以看出:当AliNet的层数为2时,所有指标达到了最佳性能;当AliNet具有更多层时,其性能也会下降。
![]() |
Download:
|
图 5 DBP15K数据集上不同AliNet层数的实验结果比较 Fig. 5 Experimental result comparison of different AliNet layers on DBP15K dataset |
为提高实体对齐的准确性,本文提出邻域聚合匹配网络(NAMN)模型。从实体邻域角度出发,通过门控邻域聚合、邻域匹配和对齐预测3个阶段判定实体是否对齐,解决知识图谱间普遍存在的结构异质性问题。实验结果表明,在DBP15K数据集上,该模型的Hits@K指标达到75%以上。后续将利用实体的语义信息和关系的映射属性提高实体对齐的准确度,并进一步改进邻域的匹配策略,降低模型的复杂度,从而扩大模型的应用范围。
[1] |
孟明明, 张坤, 论兵, 等. 一种面向知识图谱问答的语义查询扩展方法[J]. 计算机工程, 2019, 45(9): 276-283, 290. MENG M M, ZHANG K, LUN B, et al. A semantic query expansion method for question answering based on knowledge graph[J]. Computer Engineering, 2019, 45(9): 276-283, 290. (in Chinese) |
[2] |
王辉, 郁波, 洪宇, 等. 基于知识图谱的Web信息抽取系统[J]. 计算机工程, 2017, 43(6): 118-124. WANG H, YU B, HONG Y, et al. Web information extraction system based on knowledge graph[J]. Computer Engineering, 2017, 43(6): 118-124. (in Chinese) |
[3] |
CAO Y X, HOU L, LI J Z, et al. Joint representation learning of cross-lingual words and entities via attentive distant supervision[C]//Proceedings of 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, USA: Association for Computational Linguistics, 2018: 1-11.
|
[4] |
CAO Y X, WANG X, HE X N, et al. Unifying knowledge graph learning and recommendation: towards a better understanding of user preferences[C]//Proceedings of World Wide Web Conference. Washington D. C., USA: IEEE Press, 2019: 151-161.
|
[5] |
BIZER C, LEHMANN J, KOBILAROV G, et al. DBpedia—a crystallization point for the Web of data[J]. Journal of Web Semantics, 2009, 7(3): 154-165. DOI:10.1016/j.websem.2009.07.002 |
[6] |
SUCHANEK F M, KASNECI G, WEIKUM G. YAGO: a large ontology from Wikipedia and WordNet[J]. Journal of Web Semantics, 2008, 6(3): 203-217. DOI:10.1016/j.websem.2008.06.001 |
[7] |
SPEER R, CHIN J, HAVASI C. ConceptNet 5.5: an open multilingual graph of general knowledge[C]//Proceedings of the 31st AAAI Conference on Artificial Intelligence. [S. l.]: AAAI, 2017: 4444-4451.
|
[8] |
CARLSON A, BETTERIDGE J, KISIEL B, et al. Toward an arcHitsecture for never-ending language learning[C]//Proceedings of AAAI Conference on Artificial Intelligence. [S. l.]: AAAI, 2010: 1-10.
|
[9] |
MAHDISOLTANI F, BIEGA J, SUCHANEK F. YAGO3: a knowledge base from multilingual Wikipedias[C]//Proceedings of the 7th Biennial Conference on Innovative Data Systems Research. Asilomar, USA: [s. n.], 2014: 4-7.
|
[10] |
CHEN M H, TIAN Y T, YANG M H, et al. Multi-lingual knowledge graph embeddings for cross-lingual knowledge alignment[EB/OL]. [2021-05-05]. https://arxiv.org/abs/1611.03954.
|
[11] |
GLOROT X, BENGIO Y. Understanding the difficulty of training deep feedforward neural networks[C]//Proceedings of the 13th International Conference on Artificial Intelligence and Statistics. [S. l.]: JMLR, 2010: 249-256.
|
[12] |
SUN Z, HU W, ZHANG Q, et al. Bootstrapping entity alignment with knowledge graph embedding[C]// Proceedings of the 27th International Joint Conference on Artificial Intelligence. Washington D. C., USA: IEEE Press, 2018: 4396-4402.
|
[13] |
SUN Z, HU W, LI C. Cross-lingual entity alignment via joint attribute-preserving embedding[C]//Proceedings of International Semantic Web Conference. Berlin, Germany: Springer, 2017: 628-644.
|
[14] |
GUO L, SUN Z, HU W. Learning to exploit long-term relational dependencies in knowledge graphs[C]//Proceedings of International Conference on Machine Learning. [S. l.]: PMLR, 2019: 2505-2514.
|
[15] |
ZHANG Q H, SUN Z Q, HU W, et al. Multi-view knowledge graph embedding for entity alignment[EB/OL]. [2021-05-05]. https://arxiv.org/abs/1906.02390.
|
[16] |
WANG Z C, LV Q S, LAN X H, et al. Cross-lingual knowledge graph alignment via graph convolutional networks[C]//Proceedings of 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, USA: Association for Computational Linguistics, 2018: 349-357.
|
[17] |
SCHLICHTKRULL M, KIPF T N, BLOEM P, et al. Modeling relational data with graph convolutional networks[C]//Proceedings of European Semantic Web Conference. Berlin, Germany: Springer, 2018: 593-607.
|
[18] |
WU Y, LIU X, FENG Y, et al. Relation-aware entity alignment for heterogeneous knowledge graphs[EB/OL]. [2021-04-10]. https://arxiv.org/abs/1908.08210.
|
[19] |
YING R, YOU J, MORRIS C, et al. Hierarchical graph representation learning with differentiable pooling[EB/OL]. [2021-05-05]. https://proceedings.neurips.cc/paper/2018/hash/e77dbaf6759253c7c6d0efc5690369c7-Abstract.html.
|
[20] |
MORRIS C, RITZERT M, FEY M, et al. Weisfeiler and leman go neural: higher-order graph neural networks[C]//Proceedings of 2019 AAAI Conference on Artificial Intelligence. [S. l.]: AAAI, 2019: 4602-4609.
|
[21] |
LEMAN A A, WEISFEILER B. A reduction of a graph to a canonical form and an algebra arising during this reduction[J]. Nauchno-Technicheskaya Informatsiya, 1968, 2(9): 12-16. |
[22] |
PUJARA J, MIAO H, GETOOR L, et al. Knowledge graph identification[C]//Proceedings of International Semantic Web Conference. Berlin, Germany: Springer, 2013: 542-557.
|
[23] |
SUN Z, WANG C, HU W, et al. Knowledge graph alignment network with gated multi-hop neighborhood aggregation[C]//Proceedings of 2020 AAAI Conference on Artificial Intelligence. [S. l.]: AAAI, 2020: 222-229.
|
[24] |
KIPF T N, WELLING M. Semi-supervised classification with graph convolutional networks[EB/OL]. [2021-05-05]. https://arxiv.53yu.com/abs/1609.02907.
|
[25] |
LI Y, GU C, DULLIEN T, et al. Graph matching networks for learning the similarity of graph structured objects[C]//Proceedings of International Conference on Machine Learning. [S. l.]: PMLR, 2019: 3835-3845.
|
[26] |
XU K, WANG L, YU M, et al. Cross-lingual knowledge graph alignment via graph matching neural network[EB/OL]. [2021-05-05]. https://arxiv.53yu.com/abs/1905.11605.
|
[27] |
SRIVASTAVA R K, GREFF K, SCHMIDHUBER J. Highway networks[EB/OL]. [2021-05-05]. https://arxiv.53yu.com/abs/1505.00387.
|
[28] |
VELIČKOVIĆ P, CUCURULL G, CASANOVA A, et al. Graph attention networks[EB/OL]. [2021-05-05]. https://arxiv.53yu.com/abs/1710.10903.
|
[29] |
WU Y, LIU X, FENG Y, et al. Neighborhood matching network for entity alignment[EB/OL]. [2021-05-05]. https://arxiv.53yu.com/abs/2005.05607.
|
[30] |
LI Y J, TARLOW D, BROCKSCHMIDT M, et al. Gated graph sequence neural networks[EB/OL]. [2021-05-05]. https://arxiv.org/abs/1511.05493.
|
[31] |
KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. [2021-05-05]. https://arxiv.53yu.com/abs/1412.6980.
|
[32] |
CAO Y, LIU Z, LI C, et al. Multi-channel graph neural network for entity alignment[EB/OL]. [2021-05-05]. https://arxiv.org/abs/1905.11605.
|
[33] |
LEHMANN J, ISELE R, JAKOB M, et al. DBpedia-a large-scale, multilingual knowledge base extracted from Wikipedia[J]. Semantic Web, 2015, 6(2): 167-195. DOI:10.3233/SW-140134 |