2. 陕西省信息通信网络及安全重点实验室, 西安 710121;
3. 陕西省能源大数据智能处理省市共建重点实验室, 陕西 延安 716000
2. Shaanxi Key Laboratory of Information Communication Network and Security, Xi'an 710121, China;
3. Shaanxi Key Laboratory of Intelligent Processing for Big Energy Data, Yan'an, Shaanxi 716000, China
开放科学(资源服务)标志码(OSID):
复杂网络[1-3]作为一种特殊的数据类型在现实世界中随处可见,例如由社交平台上用户好友关系抽象得到的社交网络、由论文之间引用关系抽象得到的引文网络、由蛋白质之间的相互作用关系抽象得到的蛋白质网络、由网页间链接关系抽象得到的Web网络等。这些网络结构复杂,其中蕴含着一些值得深入探索和挖掘的信息及规律。
网络的表现形式很大程度上决定了能否对网络进行有效分析。早期,人们用邻接矩阵来进行网络的存储和表达,但邻接矩阵只能体现节点之间的链接关系,并不能体现网络的高阶关系[2]。此外,随着网络规模的增大,邻接矩阵还面临着存储成本高、计算效率低、数据稀疏等问题[4]。因此,研究人员转而研究将节点表示为低维、稠密的实值向量形式,即网络嵌入[5](又称为网络表示学习)。将网络节点表示为低维、稠密向量就能够进行后续的网络分析任务,如节点分类[6]、链接预测[7]、社区发现[8]、可视化[9]等,还可以作为边信息应用到推荐系统[10]等其他任务中。
从算法所使用的工具角度,可将现有的网络嵌入算法分为基于矩阵特征向量的方法、基于矩阵分解的方法、基于简单神经网络的方法和基于深度神经网络的方法4类。基于矩阵特征向量的方法是早期的网络嵌入算法,包括局部线性嵌入[11](Locally Linear Embedding,LLE)、拉普拉斯特征映射[12](Laplacian Eigenmap,LE)等,该类算法通过提取网络的关系矩阵(如邻接矩阵或拉普拉斯矩阵),然后计算得到关系矩阵的特征向量,继而得到节点的表示向量。基于矩阵分解的方法包括GraRep[13]、HOPE[14]、NEU[15]等,该类算法通过对描述网络的关系矩阵进行矩阵分解,达到降维的目的,从而得到节点的低维表示向量。基于简单神经网络的方法包括DeepWalk[16]、Node2vec[17]和LINE[18]等,该类算法对网络进行概率建模,通过最大化概率来保留网络的拓扑结构信息,从而得到节点的表示向量。基于深度神经网络的方法包括SDNE[19]、DNGR[20]等,该类算法通过深度自编码捕获网络的非线性关系,进而得到节点的表示。
虽然上述方法保留了网络中的微观结构信息并取得了较好的表示结果,但却都忽略了网络结构中普遍存在的社区结构信息[1]。社区结构是网络所具有的宏观结构信息,同一社区内的节点通常具有密集的链接关系以及相似的特性,而不同社区节点间的链接则相对稀疏[21]。社区结构普遍存在于现实网络中,如社交网络、生物网络、Web网络、引文网络等[21-22],其对刻画网络节点关系和完成后续网络分析任务具有重要作用。鉴于此,本文提出一种保留社区结构信息的网络嵌入算法PCNE。通过构造社区结构嵌入矩阵和社区隶属度矩阵得到原始网络中的宏观社区结构信息,并通过融合一阶相似性和二阶相似性得到网络中的微观结构信息。在此基础上,以迭代优化的方式对微观结构信息、宏观社区结构嵌入矩阵和社区隶属度矩阵进行联合优化,得到同时包含网络微观一阶、二阶结构信息和宏观社区结构信息的网络嵌入向量。
1 本文方法表 1列出了本文PCNE算法使用的符号及定义。
![]() |
下载CSV 表 1 符号定义 Table 1 Definition of symbols |
本小节给出本文工作相关的一些基本概念及定义。
定义1(社区结构[23]) 社区结构是网络中存在的一些连接密集的群落(也称为簇)结构。同一社区内的节点彼此连接紧密,而各个不同社区中的节点间连接相对稀疏。
定义2(网络嵌入[5]) 网络嵌入又称网络表示学习或图嵌入。给定一个无向网络
给定网络
PCNE算法框架如图 1所示,其中主要包含两部分内容,即保留网络微观结构信息的模型和保留社区结构信息的模型。具体而言,首先通过节点间的链接关系得到包含一阶相似性和二阶相似性的微观结构相似性矩阵F,借助对称非负矩阵分解模型得到保留网络微观结构信息的损失函数;然后引入社区结构嵌入矩阵P,通过联合非负矩阵分解模型得到保留网络社区结构信息的损失函数;最后通过联合优化两部分损失函数,得到同时保留网络微观结构信息和网络社区结构信息的节点表示。
![]() |
Download:
|
图 1 PCNE模型框架 Fig. 1 Framework of PCNE model |
本文通过保留网络中每对节点的一阶相似性和二阶相似性刻画网络的微观结构信息。具体地,如果在原始网络中一对节点之间存在边,那么它们就具有一阶相似性;如果一对节点在原始网络中没有边连接,那么它们之间的一阶相似性为0。在现实世界网络中,有边相连的两个节点之间通常具有相近的性质。以社交网络为例,如果一个节点和另一个节点相连(即有好友关系),那么这两个用户大概率具有相似的兴趣爱好或职业。这表明,在原始网络中直接相连的两个节点在嵌入空间中也应该彼此接近。本文将网络的邻接矩阵A作为节点间网络结构一阶相似性的描述。
现实网络中存在的边通常是稀疏的[24],没有连边的节点对并不代表它们在低维空间的表示向量不相似。一种补充一阶相似性缺陷的解决方案是考虑他们的共同邻居,通过共同邻居来衡量两个节点之间的相似性,即二阶相似性。此外,现实中的网络经常会由于观测手段的不足导致丢失一些网络中本该存在的链接关系,因此保留节点间的二阶相似性就更有必要。本文定义矩阵
$ {s}_{ij}=\frac{{\boldsymbol{a}}_{i}{\boldsymbol{a}}_{j}}{‖{\boldsymbol{a}}_{i}‖‖{\boldsymbol{a}}_{j}‖} $ | (1) |
其中:
为同时保留网络结构的一阶相似性和二阶相似性,本文将两种相似性的加权和作为网络最终的微观结构相似性,用矩阵F来表示,并命名为微观结构相似度矩阵。F计算公式如式(2)所示:
$ \boldsymbol{F}=\boldsymbol{A}+\alpha \boldsymbol{S} $ | (2) |
其中: 参数
由于本文针对的是无向网络,因此微观结构相似度矩阵F是一个非负的对称矩阵。为使所得到的节点表示能够保留网络的微观结构信息,本文基于对称非负矩阵分解[23]提出式(3)所示的损失函数来最小化节点之间的嵌入差异:
$ \mathrm{m}\mathrm{i}\mathrm{n}{‖\boldsymbol{F}-\boldsymbol{Y}{\boldsymbol{Y}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2} $ | (3) |
其中: 符号
网络的邻接矩阵反映的是网络节点之间的链接关系,文献[23]通过非负矩阵分解的方式提取网络中的社区结构信息。假设网络由k个社区组成,则其目标函数如式(4)所示:
$ \begin{array}{l}\mathrm{m}\mathrm{i}\mathrm{n}{‖\boldsymbol{A}-\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2}\\ \mathrm{s}.\mathrm{t}.\boldsymbol{U}\ge 0\end{array} $ | (4) |
其中: 矩阵A为网络的邻接矩阵;
$ \begin{array}{l}\mathrm{m}\mathrm{i}\mathrm{n}{J}_{\mathrm{C}}={‖\boldsymbol{P}-\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2}\\ \mathrm{s}.\mathrm{t}.\boldsymbol{U}\ge 0\end{array} $ | (5) |
下面介绍社区结构嵌入矩阵P的具体构造方法。
由于社区内部的节点彼此之间连接紧密,因此每个具有链接关系的节点对都有落入同一社区内的可能性,定义这种可能性为社区成员相似性。对于网络中的节点i和节点j,它们之间社区成员相似度的计算公式如式(6)所示:
$ f(i, j)=2\sigma \left({\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}}\right)-1=\frac{2}{1+{\mathrm{e}}^{-{\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}}}}-1 $ | (6) |
现实世界中的大多数网络都比较稀疏,在网络中任意选择两个节点,他们之间存在边的可能性几乎为零。为了最大化具有链接关系的节点对的社区成员相似性,同时最小化随机采样的节点对之间的社区成员相似性,本文采用负采样的方式,设计如式(7)所示的损失函数:
$ l(i, j)={\boldsymbol{A}}_{ij}\left(\mathrm{l}\mathrm{n}\sigma \right({\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}})+{n}_{s}{E}_{{j}_{\mathrm{N}}~{P}_{\mathrm{V}}}[\mathrm{l}\mathrm{n}\sigma (-{\boldsymbol{u}}_{i}{\boldsymbol{u}}_{{j}_{\mathrm{N}}}^{\mathrm{T}})\left]\right) $ | (7) |
其中:
$ l(i, j)={\boldsymbol{A}}_{ij}\mathrm{l}\mathrm{n}\sigma \left({\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}}\right)+{n}_{s}\frac{{d}_{i}{d}_{j}}{D}\mathrm{l}\mathrm{n}\sigma (-{\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}}) $ | (8) |
对式(8)求偏导,得到:
$ \frac{\partial l(i, j)}{\partial \left({\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}}\right)}={\boldsymbol{A}}_{ij}\sigma (-{\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}})-{n}_{\mathrm{s}}\frac{{d}_{i}{d}_{j}}{D}\sigma \left({\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}}\right) $ | (9) |
令偏导
$ {\boldsymbol{u}}_{i}{\boldsymbol{u}}_{j}^{\mathrm{T}}=\mathrm{l}\mathrm{n}\frac{{\boldsymbol{A}}_{ij}D}{{n}_{\mathrm{s}}{d}_{i}{d}_{j}} $ | (10) |
基于以上分析,社区结构嵌入矩阵P可由式(11)进行构造:
$ {p}_{ij}=\mathrm{m}\mathrm{a}\mathrm{x}\left\{\mathrm{l}\mathrm{n}\frac{{\boldsymbol{A}}_{ij}D}{{n}_{\mathrm{s}}{d}_{i}{d}_{j}}, 0\right\} $ | (11) |
为了将网络的社区结构信息融入网络嵌入的过程中,利用得到的社区隶属度矩阵U对网络表示学习进行约束,使所得节点表示能够反映出网络的社区结构信息,从而在一定程度上提高网络表示学习的质量。本文引入一个非负矩阵
$ \mathrm{m}\mathrm{i}\mathrm{n}{‖\boldsymbol{U}-\boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2} $ | (12) |
基于上述分析,本文在网络的微观结构模型和社区发现模型之间建立了纽带,进而挖掘网络表示学习的过程中的社区结构信息。最终目标函数如式(13)所示:
$ \mathrm{m}\mathrm{i}\mathrm{n}J={‖\boldsymbol{F}-\boldsymbol{Y}{\boldsymbol{Y}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2}+\beta {‖\boldsymbol{P}-\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2}+\gamma {‖\boldsymbol{U}-\boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2} $ | (13) |
其中: 参数
由于式(13)所示的目标函数是非凸的,因此几乎不可能找到全局最优解。为解决该最优化问题,本文基于文献[26]提出一个能够保证收敛到局部最优解的迭代更新过程。在保持其他参数不变的情况下,迭代更新每一个参数,具体过程如下:
更新H: 保持Y、U不变,式(13)中只有最后一项与矩阵H有关。由文献[27]所提非负矩阵分解模型的乘法更新规则,得到式(14):
$ {h}_{ij}\leftarrow {h}_{ij}\frac{({\boldsymbol{U}}^{\mathrm{T}}{\boldsymbol{Y})}_{ij}}{(\boldsymbol{H}{\boldsymbol{Y}}^{\mathrm{T}}{\boldsymbol{Y})}_{ij}} $ | (14) |
更新U: 保持Y、H不变,为更新矩阵U,本文需要解决一个联合矩阵分解问题。由于式(13)中只有最后两项与矩阵U有关,因此只需要最小化式(15)所示的损失函数:
$ \underset{\boldsymbol{U}\ge 0}{\mathrm{m}\mathrm{i}\mathrm{n}}J\left(\boldsymbol{U}\right)=\beta {‖\boldsymbol{P}-\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2}+\gamma {‖\boldsymbol{U}-\boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2} $ | (15) |
由矩阵的F范数和迹(trace)之间的关系
$ \begin{array}{l}\underset{\boldsymbol{U}\ge 0}{\mathrm{m}\mathrm{i}\mathrm{n}}J\left(\boldsymbol{U}\right)=\beta \mathrm{t}\mathrm{r}({\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{P}-2{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}+\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}})+\\ {}_{}\gamma \mathrm{t}\mathrm{r}({\boldsymbol{U}}^{\mathrm{T}}\boldsymbol{U}-2{\boldsymbol{U}}^{\mathrm{T}}\boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}}+\boldsymbol{H}{\boldsymbol{Y}}^{\mathrm{T}}\boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}})\end{array} $ | (16) |
该约束优化问题可以通过引入矩阵U的拉格朗日乘数矩阵
$ L\left(\boldsymbol{U}\right)=\beta {‖\boldsymbol{P}-\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2}+\gamma {‖\boldsymbol{U}-\boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}}‖}_{\mathrm{F}}^{2}-\mathrm{t}\mathrm{r}\left(\boldsymbol{\varTheta }{\boldsymbol{U}}^{\mathrm{T}}\right) $ | (17) |
对矩阵U求偏导,得到:
$ \frac{\partial L\left(\boldsymbol{U}\right)}{\partial \boldsymbol{U}}=\beta (4\boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}\boldsymbol{U}-4{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{U})+\gamma (2\boldsymbol{U}-2\boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}})-\boldsymbol{\varTheta } $ | (18) |
令
$ {u}_{ij}\leftarrow {u}_{ij}{\left(\frac{(2\beta {\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{U}+\gamma \boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}}{)}_{ij}}{(2\beta \boldsymbol{U}{\boldsymbol{U}}^{\mathrm{T}}{\boldsymbol{U}+\gamma \boldsymbol{U})}_{ij}}\right)}^{\frac{1}{4}} $ | (19) |
同理,固定矩阵U和H,可得到矩阵Y的更新规则,如式(20)所示:
$ {y}_{ij}\leftarrow {y}_{ij}{\left(\frac{{(2\boldsymbol{F}\boldsymbol{Y}+\gamma \boldsymbol{U}\boldsymbol{H})}_{ij}}{(2\boldsymbol{Y}{\boldsymbol{Y}}^{\mathrm{T}}\boldsymbol{Y}+\gamma \boldsymbol{Y}{\boldsymbol{H}}^{\mathrm{T}}{\boldsymbol{H})}_{ij}}\right)}^{\frac{1}{4}} $ | (20) |
上述更新规则均具有收敛性,通过迭代交替更新矩阵U、H、Y,可以得到网络的节点表示矩阵Y。
PCNE算法的伪代码如下所示:
算法1 PCNE算法
输入 属性网络
输出 网络节点表示矩阵
1.计算邻接矩阵A
2.根据式(1)计算二阶相似度矩阵S
3.根据式(2)计算微观结构相似度矩阵F
4.根据式(11)计算社区结构嵌入矩阵P
5.初始化矩阵H、U和Y
6.J=0
7.for iter=1 to i
8.根据式(13)计算损失函数J
9.if相邻两次损失函数J的差值小于阈值
10.end for
11.else
12.根据式(14)更新H
13.根据式(19)更新U
14.根据式(20)更新Y
15.end
16.return Y
1.7 复杂度分析PCNE算法的时间复杂度主要取决于式(14)、式(19)和式(20)的矩阵乘法运算,它们的时间复杂度分别为
本文实验选取公开的真实网络Karate[28]和WebKB网络[29]的4个子网络(Cornell、Texas、Washington、Wisconsin)作为数据集进行实验,如表 2所示。Karate[30]数据集是描述美国一所大学空手道俱乐部中34个成员之间社会关系的网络,由34个节点和78条边组成,包含2个类别标签;Cornell、Texas、Washington、Wisconsin是WebKB[31]数据集的4个子网络,均包含5个类别标签,分别是由美国4所大学的网页之间的链接关系构建的,Cornell数据集由195个节点和283条边组成,Texas数据集由187个节点和289条边组成,Washington数据集由230个节点和366条边组成,Wisconsin数据集由265个节点和469条边组成。
![]() |
下载CSV 表 2 实验数据集信息 Table 2 Information of datasets for experiment |
为验证本文PCNE算法的有效性,将其与以下5个具有代表性的网络表示学习算法进行对比。
1) DeepWalk[16]算法。该算法通过随机游走模型将获取的节点序列看作文本中的单词,作为Word2vec算法的输入,通过Skip-Gram模型训练得到各节点的表示。实验中参数设置: 每个节点采样的序列数量为40,节点序列长度为40,窗口大小为10。
2) LINE[18]算法。实验中用LINE1和LINE2分别表示基于一阶结构相似性的模型和基于二阶结构相似性的模型,用LINE表示基于一阶和二阶结构相似性的模型。这3个算法的参数设置为: 负采样的样本数设为5,学习率的初值设为0.025。
3) Node2vec[17]算法。该算法在DeepWalk算法的基础上引入2个超参数p、q以平衡基于深度的随机游走策略和基于广度的随机游走策略。Node2vec算法的参数设置为
为保证实验的公平性,节点的表示向量维度都设置为20维。本文PCNE算法的参数设置为:
本文利用节点分类任务评估PCNE算法的性能。为了执行该任务,将所得到的节点嵌入向量视为网络中每个节点的特征作为分类器的输入,以预测节点的标签。在实验中,本文采用scikit-learn包中的一对多SVM分类器,在分类器的训练过程中,训练集百分比即训练率A设置为{10%,15%,20%,25%,30%},其余部分作为测试集。为确保实验结果的稳定性和可靠性,对每个数据集分别进行10次独立重复实验,最终实验结果取10次实验的Micro-F1值和Macro-F1值的均值。表 3~表 7列出了PCNE和其他5个算法在5个数据集不同训练比例下的实验结果,其中加粗数据表示最优。可以看出,在Karate、Texas和Washington数据集上,PCNE算法明显优于其他算法,无论是以Micro-F1还是以Macro-F1为评价标准,其在各训练比例下均取得了最高的评价得分: 节点分类性能在Micro-F1上分别比第2名提高了0.96%~9.36%(Karate)、0.77%~3.51%(Texas)和9.95%~13.01%(Washington),在Macro-F1上分别比第2名提高了3.02%~11.44%(Karate)、0.4%~5.66%(Texas)和3.82%~5.93%(Washington)。在Cornell和Wisconsin数据集上,PCNE虽然没有在所有数据上体现出优势,但在大部分情况下的表现依然具有一定竞争力。例如: 在Cornell数据集上,PCNE在节点分类任务上得到了最高的Micro-F1,虽在Macro-F1分数表现略差,但比最高得分仅低了1%左右;而在Wisconsin数据集上,其节点分类性能指标Micro-F1也在各训练率下均取得了最高评价得分。因此,从综合性能上看,PCNE算法在节点分类任务中的表现仍具有较强的竞争力。
![]() |
下载CSV 表 3 Karate数据集上的节点分类性能 Table 3 Node classification performance on Karate dataset |
![]() |
下载CSV 表 4 Cornell数据集上的节点分类性能 Table 4 Node classification performance on Cornell dataset |
![]() |
下载CSV 表 5 Texas数据集上的节点分类性能 Table 5 Node classification performance on Texas dataset |
![]() |
下载CSV 表 6 Washington数据集上的节点分类性能 Table 6 Node classification performance on Washington dataset |
![]() |
下载CSV 表 7 Wisconsin数据集上的节点分类性能 Table 7 Node classification performance on Wisconsin dataset |
本文PCNE算法主要包含
1) 在固定向量表示维数d=100的情况下,对其余2个参数的敏感性进行实验分析。实验中将训练比例固定为30%,并设置参数
![]() |
Download:
|
图 2 Cornell数据集上参数β和γ的敏感性 Fig. 2 Susceptibility of parameters β and γ on Cornell dataset |
![]() |
Download:
|
图 3 Texas数据集上参数β和γ的敏感性 Fig. 3 Susceptibility of parameters β and γ on Texas dataset |
![]() |
Download:
|
图 4 Washington数据集上参数β和γ的敏感性 Fig. 4 Susceptibility of parameters β and γ on Washington dataset |
![]() |
Download:
|
图 5 Wisconsin数据集上参数β和γ的敏感性 Fig. 5 Susceptibility of parameters β and γ on Wisconsin dataset |
2) 在固定参数
![]() |
Download:
|
图 6 表示向量维数d的敏感性 Fig. 6 Susceptibility of dimension d for representation vector |
本文提出一种保留社区结构信息的网络表示学习算法PCNE。定义网络结构的一阶相似性和二阶相似性,将其作为网络的微观结构信息进行建模。同时对网络中蕴含的社区结构信息进行建模,通过非负矩阵分解的方式得到社区隶属度矩阵,基于此提取网络中的社区结构信息。将两者放在一个统一的框架下进行联合优化,从而得到保留社区结构信息及微观结构信息的节点表示向量。在真实数据集上的节点分类对比实验结果验证了PCNE算法的有效性。该算法与DeepWalk、Node2vec、LINE等算法都是针对同质网络进行研究(即网络中的节点为同一类型),虽然同质网络在现实世界中更广泛和普遍,但现实世界中还存在大量的异质网络(即在同一个网络中存在多种类型的节点,如评价网络、购物网络等)。因此,如何合理高效地将网络结构信息融入异质网络的表示学习,将是后续深入研究的课题。
[1] |
PENG C, XIAO W, JIAN P, et al. A survey on network embedding[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 31(5): 833-852. |
[2] |
BENSON A R, GLEICH D F, LESKOVEC J. Higher-order organization of complex networks[J]. Science, 2016, 353(6295): 163-166. DOI:10.1126/science.aad9029 |
[3] |
CAI H, ZHENG V W, CHANG K C C. A comprehensive survey of graph embedding: problems, techniques, and applications[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 30(9): 1616-1637. DOI:10.1109/TKDE.2018.2807452 |
[4] |
涂存超, 杨成, 刘知远, 等. 网络表示学习综述[J]. 中国科学: 信息科学, 2017, 47(8): 980-996. TU C, YANG C, LIU Z, et al. Network representation learning: an overview[J]. SCIENTIA SINCA Informationic, 2017, 47(8): 980-996. (in Chinese) |
[5] |
陈维政, 张岩, 李晓明. 网络表示学习[J]. 大数据, 2015, 1(3): 8-22. CHEN W, ZHANG Y, LI X. Network representation learning[J]. Big Data, 2015, 1(3): 8-22. (in Chinese) |
[6] |
BHAGAT S, CORMODE G, MUTHUKRISHNAN S. Node classification in social networks[M]. Berlin, Germany: Springer, 2011.
|
[7] |
LÜ L, ZHOU T. Link prediction in complex networks: a survey[J]. Physica A: Statistical Mechanics and Its Applications, 2011, 390(6): 1150-1170. DOI:10.1016/j.physa.2010.11.027 |
[8] |
FORTUNATO S. Community detection in graphs[J]. Physics Reports, 2010, 486(3/4/5): 75-174. |
[9] |
MAATEN L, HINTON G. Visualizing data using t-SNE[J]. Journal of Machine Learning Research, 2008, 9: 2579-2605. |
[10] |
CHEN J, WU Y, FAN L, et al. N2VSCDNNR: a local recommender system based on Node2vec and rich information network[J]. IEEE Transactions on Computational Social Systems, 2019, 6(3): 456-466. DOI:10.1109/TCSS.2019.2906181 |
[11] |
ROWEIS S T, SAUL L K. Nonlinear dimensionality reduction by locally linear embedding[J]. Science, 2000, 290(5500): 2323-2326. DOI:10.1126/science.290.5500.2323 |
[12] |
BELKIN M, NIYOGI P. Laplacian eigenmaps and spectral techniques for embedding and clustering[C]//Proceedings of Advances in Neural Information Processing Systems. Cambridge, USA: MIT Press, 2001: 585-591.
|
[13] |
CAO S, LU W, XU Q. GraRep: learning graph representations with global structural information[C]//Proceedings of the 24th ACM International Conference on Information and Knowledge Management. New York, USA: ACM Press, 2015: 891-900.
|
[14] |
OU M, CUI P, PEI J, et al. Asymmetric transitivity preserving graph embedding[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2016: 1105-1114.
|
[15] |
YANG C, SUN M, LIU Z, et al. Fast network embedding enhancement via high order proximity approximation[C]//Proceedings of International Joint Conference on Artificial Intelligence. Palo Alto, USA: AAAI Press, 2017: 3894-3900.
|
[16] |
PEROZZI B, AL-RFOU R, SKIENA S. DeepWalk: online learning of social representations[C]//Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2014: 701-710.
|
[17] |
GROVER A, LESKOVEC J. Node2vec: scalable feature learning for networks[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2016: 855-864.
|
[18] |
TANG J, QU M, WANG M, et al. LINE: large-scale information network embedding[C]//Proceedings of the 24th International Conference on World Wide Web. New York, USA: ACM Press, 2015: 1067-1077.
|
[19] |
WANG D, CUI P, ZHU W. Structural deep network embedding[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2016: 1225-1234.
|
[20] |
CAO S, LU W, XU Q. Deep neural networks for learning graph representations[C]//Proceedings of the 30th AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI Press, 2016: 1145-1152.
|
[21] |
GIRVAN M, NEWMAN M E J. Community structure in social and biological networks[J]. PNAS, 2001, 99: 7821-7826. |
[22] |
CHERIFI H, PALLA G, SZYMANSKI B, et al. On community structure in complex networks: challenges and opportunities[J]. Applied Network Science, 2019, 4: 1-5. DOI:10.1007/s41109-018-0108-x |
[23] |
NEWMAN M E J. Finding community structure in networks using the eigenvectors of matrices[J]. Physical Review E, 2006, 74(3): 1-5. |
[24] |
TU K, CUI P, WANG X, et al. Structural deep embedding for hyper-networks[C]//Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI Press, 2018: 426-433.
|
[25] |
LI Y, SHA C, HUANG X, et al. Community detection in attributed graphs: an embedding approach[C]//Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI Press, 2018: 1-5.
|
[26] |
LEVY O, GOLDBERG Y. Neural word embedding as implicit matrix factorization[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems. New York, USA: ACM Press, 2014: 2177-2185.
|
[27] |
LEE D D, SEUNG H S. Algorithms for non-negative matrix factorization[C]//Proceedings of the 13th International Conference on Neural Information Processing Systems. New York, USA: ACM Press, 2000: 535-541.
|
[28] |
Karate[EB/OL]. [2020-08-10]. http://networkrepository.com/soc-karate.php.
|
[29] |
WebKB[EB/OL]. [2020-08-10]. http://www.cs.cmu.edu/afs/cs.cmu.edu/project/theo-20/www/data/.
|
[30] |
ZACHARY W. An information flow model for conflict and fission in small groups[J]. Journal of Anthropological Research, 1977, 33(4): 452-473. DOI:10.1086/jar.33.4.3629752 |
[31] |
CRAVEN M, DIPASQUO D, FREITAG D, et al. Learning to extract symbolic knowledge from the World Wide Web[C]//Proceedings of the 15th AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI Press, 1998: 1134-1142.
|