2. 安徽大学 互联网学院, 合肥 230039
2. School of Internet, Anhui University, Hefei 230039, China
开放科学(资源服务)标志码(OSID):
社团检测的目的是对复杂网络中的节点进行划分,使同类节点属于相同的社团。通过社团检测可以更好地理解复杂网络的拓扑结构和功能特性,因此其对网络分析与数据挖掘至关重要,目前被广泛应用于机器学习[1]、计算机视觉[2]、图像处理[3-4]等领域中。
近年来,已出现较多针对社团检测问题的研究,如文献[5]提出一种基于网络拓扑与节点元数据的社团检测算法,文献[6]进行了局部优先的动态网络重叠社团及其演变模式检测,文献[7]基于网络社团检测实现了电信客户细分,文献[8]提出了带偏置信号传播随机游走的社团检测算法,但这些工作主要集中于单层网络,即网络节点之间只存在一种关系的情况。然而在现实环境中,网络可能同时具备多种连接类型,例如:在通信网络中,存在用户之间不同的通信方式,如电话、微信、微博等;在贸易网络中,国家之间会有不同商品的贸易往来,如食品、衣服等。如果不考虑连接的多种形式而将这些网络简化为单一类型的交互,将无法捕获系统、丰富而全面的内部结构。为了涵盖这些关系的多类型特性,利用相同的节点集合分层描述不同连接,以形成多层网络(也称为多重网络或复合网络),并对其进行社团检测显然具有更强的科学意义。因此,此项技术引起了广泛关注[9-11]。
多层网络具有维度高、结构复杂、层间差异大的特点,许多算法无法有效地检测其社团结构。随着稀疏学习研究的不断深入,各种子空间表示方法不断涌现。2009年,ELHAMIFAR等[12]提出了稀疏子空间聚类模型,该模型的解具有块对角结构,同一个块的数据属于同一子空间。然而,该方法单独考虑每个数据的稀疏表示,缺乏对数据集全局结构的描述。2010年,LIU等[13]提出了基于低秩表示的子空间聚类方法(LRR),以捕获数据集的全局结构。2018年,FANG等[14]通过将高斯场与调和函数合并到LRR框架中,提出一种非负低秩表示方法,其在一个优化步骤中同时完成了相似度矩阵构建和子空间聚类。同年,WANG等[15]提出一种局部与结构正则化的低秩表示方法(LSLRR),同时考虑了数据的局部几何结构和全局块对角线结构,改进了经典LRR方法。2020年,陶洋等[16]提出将对称约束和结构约束融合到高维数据表示的低秩属性中,同时捕获高维数据的全局对称结构和子空间的加权局部线性结构,以提高聚类性能。
子空间表示方法能够准确描述数据分布,并通过子空间聚类自适应地将数据划分到不同的子空间中,在网络嵌入与聚类中体现出重要的应用价值。但现有的子空间聚类模型大多只适用于单层网络,亟需将其推广到多层网络,深入挖掘层间的互补信息,实现多层融合与协同聚类。本文针对多层网络的社团检测问题,提出一种多层网络稀疏子空间聚类方法。引入结构化的稀疏约束
如图 1所示,本文研究的多层网络是M个单层网络的集合,表示为
![]() |
Download:
|
图 1 多层网络示意图 Fig. 1 Schematic diagram of multi-layer network |
与现有方法不同,本文提出的子空间聚类方法不直接作用在邻接矩阵上,而是通过计算每个节点相对于网络中所有其他节点的测地距离矢量来表示该节点。对于未加权的网络,测地距离是沿最短路径的2个节点之间的链路数;对于加权图,测地距离是沿最短路径的链路的权重的总和。这样就可以将每个节点都嵌入到高维几何空间中。由于社团定义为具有更多组内链接和更少组间链接的节点组,因此同一社团中2个节点之间的测地距离的期望值将小于2个不同社团中2个节点的测地距离的期望值。所以,在映射的几何空间中,每个社团将分布于一个独立的子空间中。尽管节点的嵌入维度与网络中的节点数相同,但由于数据聚类的低秩特性,实际维度却要小得多,具体取决于节点所在社团的大小。例如对于一个包含2个社团的未加权无向网络,节点标记为{1,2,3}和{4,5,6},每个社团内部的3个节点两两相连。在此网络中,每个节点由测地距离矩阵P的1列表示,如式(1)所示:
$ \boldsymbol{P}=\left[\begin{array}{cccccc}0& 1& 1& {\rm{\infty }}& {\rm{\infty }}& {\rm{\infty }}\\ 1& 0& 1& {\rm{\infty }}& {\rm{\infty }}& {\rm{\infty }}\\ 1& 1& 0& {\rm{\infty }}& {\rm{\infty }}& {\rm{\infty }}\\ {\rm{\infty }}& {\rm{\infty }}& {\rm{\infty }}& 0& 1& 1\\ {\rm{\infty }}& {\rm{\infty }}& {\rm{\infty }}& 1& 0& 1\\ {\rm{\infty }}& {\rm{\infty }}& {\rm{\infty }}& 1& 1& 0\end{array}\right] $ | (1) |
令
$ \boldsymbol{S}={\rm{e}}{\rm{x}}{\rm{p}}\left(-\frac{\boldsymbol{P}\circ \boldsymbol{P}}{2{\sigma }_{{\rm{s}}}^{2}}\right) $ | (2) |
其中:
基于上述表示形式,本文提出如下的联合稀疏表示模型。受到稀疏聚类算法[12, 19]的启发,相同社团的节点在相同的稀疏子空间中,因此,每个节点都可以由剩余节点的线性组合稀疏地表示,即
$\mathop {{\rm{min}}}\limits_{{\boldsymbol{Z}}, {\boldsymbol{E}}} \sum\limits_{m = 1}^M {\left\| {{{\boldsymbol{S}}^m} - {{\boldsymbol{S}}^m}{{\boldsymbol{Z}}^m} - {{\boldsymbol{E}}^m}} \right\|_{\rm{F}}^2} + \lambda {\left\| {{{\boldsymbol{E}}^m}} \right\|_{{\rm{2}}, {\rm{1}}}} + \gamma {\left\| {\boldsymbol{Z}} \right\|_{{\rm{2}}, {\rm{1}}}} $ | (3) |
其中:
在现实世界中,通常不同层具有不同的信息量,因此,为每层分配一个自适应权重,从而使得本文方法能够自适应地整合不同层的节点数据。将这些层权加到式(3)中,自适应权重的多层网络联合稀疏表示模型如式(4)所示:
$ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{E}, \boldsymbol{r}}{{\rm{m}}{\rm{i}}{\rm{n}}}\sum\limits _{m=1}^{{\rm M}}\left(\frac{{\left({r}^{m}\right)}^{2}}{2}{‖{\boldsymbol{S}}^{m}-{\boldsymbol{S}}^{m}{\boldsymbol{Z}}^{m}-{\boldsymbol{E}}^{m}‖}_{{\rm{F}}}^{2}+\lambda {‖{\boldsymbol{E}}^{m}‖}_{{\rm{2, 1}}}\right)+\\ \gamma {‖\boldsymbol{Z}‖}_{{\rm{2, 1}}}+\varGamma {‖1-\boldsymbol{r}‖}_{{\rm{F}}}^{2}\end{array} $ | (4) |
其中:
现有多数方法使用表示系数矩阵来定义图的亲和性:
$ \begin{array}{l}\underset{\boldsymbol{G}}{{\rm{m}}{\rm{i}}{\rm{n}}}\delta \sum\limits _{i, j=1}^{n}{‖{\boldsymbol{Z}}_{i}-{\boldsymbol{Z}}_{j}‖}_{{\rm{F}}}^{2}{\boldsymbol{G}}_{ij}+\frac{\omega }{2}{‖\boldsymbol{G}‖}_{{\rm{F}}}^{2}{\rm{ }}{\rm{ }}\\ {\rm{s}}.{\rm{t}}.{\rm{ }}{\rm{ }}{\boldsymbol{G}}^{{\rm{T}}}1=1, \boldsymbol{G}\ge 0\end{array} $ | (5) |
在式(5)中:
结合式(4)和式(5)可得到本文最终的模型,如式(6)所示。该模型框架如图 2所示。
$ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{E}, \boldsymbol{G}, \boldsymbol{r}}{{\rm{m}}{\rm{i}}{\rm{n}}}\sum\limits _{m=1}^{M}\left(\frac{{\left({r}^{m}\right)}^{2}}{2}{‖{\boldsymbol{S}}^{m}-{\boldsymbol{S}}^{m}{\boldsymbol{Z}}^{m}-{\boldsymbol{E}}^{m}‖}_{{\rm{F}}}^{2}+\lambda {‖{\boldsymbol{E}}^{m}‖}_{{\rm{2, 1}}}\right)+\\ \gamma {‖\boldsymbol{Z}‖}_{{\rm{2, 1}}}+\varGamma {‖\boldsymbol{1}-\boldsymbol{r}‖}_{{\rm{F}}}^{2}+\delta \sum\limits _{i, j=1}^{n}{‖{\boldsymbol{Z}}_{i}-{\boldsymbol{Z}}_{j}‖}_{F}^{2}{G}_{ij}+\frac{\omega }{2}{‖\boldsymbol{G}‖}_{{\rm{F}}}^{2}\\ {\rm{s}}.{\rm{t}}.{\rm{ }}{\rm{ }}{\boldsymbol{G}}^{{\rm{T}}}\boldsymbol{1}=\boldsymbol{1}, \boldsymbol{G}\ge \boldsymbol{0}\end{array} $ | (6) |
![]() |
Download:
|
图 2 本文模型框架 Fig. 2 Framework of the proposed model |
针对式(6)所示模型,本文设计了如下的优化求解算法。虽然式(6)具有较多变量,整体上非凸的,但是固定其他变量时,其每个变量的子问题都是凸的,并且具有闭合解。因此,本文使用交替方向乘子算法(ADMM)[17]将模型函数分离成具有闭合解的独立子问题。引入辅助变量
$ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{P}, \boldsymbol{Q}, \boldsymbol{E}, \boldsymbol{r}, \boldsymbol{G}}{{\rm{m}}{\rm{i}}{\rm{n}}}\sum\limits _{m=1}^{M}\left(\frac{{\left({r}^{m}\right)}^{2}}{2}{‖{\boldsymbol{S}}^{m}-{\boldsymbol{S}}^{m}{\boldsymbol{Z}}^{m}-{\boldsymbol{E}}^{m}‖}_{{\rm{F}}}^{2}+\lambda {‖{\boldsymbol{E}}^{m}‖}_{{\rm{2, 1}}}\right)+\\ \gamma {‖\boldsymbol{Q}‖}_{{\rm{2, 1}}}+\delta \sum\limits _{i, j=1}^{n}{‖{\boldsymbol{P}}_{i}-{\boldsymbol{P}}_{j}‖}_{F}^{2}{G}_{ij}+\varGamma {‖\boldsymbol{1}-\boldsymbol{r}‖}_{{\rm{F}}}^{2}+\frac{\omega }{2}{‖\boldsymbol{G}‖}_{{\rm{F}}}^{2}\\ {\rm{s}}.{\rm{t}}.{\rm{ }}{\rm{ }}{\boldsymbol{Z}}^{m}={\boldsymbol{P}}^{m}, {\boldsymbol{Z}}^{m}={\boldsymbol{Q}}^{m}, {\boldsymbol{G}}^{{\rm{T}}}\boldsymbol{1}=\boldsymbol{1}, \boldsymbol{G}\ge \boldsymbol{0}\end{array} $ | (7) |
其中:
$ \begin{array}{l}{l}_{({\boldsymbol{G}}^{{\rm{T}}}\boldsymbol{1}=\boldsymbol{1}, \boldsymbol{G}\ge \boldsymbol{0})}(\boldsymbol{Z}, \boldsymbol{P}, \boldsymbol{Q}, \boldsymbol{E}, \boldsymbol{r}, \boldsymbol{G})=\\ \sum\limits _{m=1}^{M}\left(\frac{{\left({r}^{m}\right)}^{2}}{2}{‖{\boldsymbol{S}}^{m}-{\boldsymbol{S}}^{m}{\boldsymbol{Z}}^{m}-{\boldsymbol{E}}^{m}‖}_{{\rm{F}}}^{2}+\lambda {‖{\boldsymbol{E}}^{m}‖}_{{\rm{2, 1}}}\right)+\\ \gamma {‖\boldsymbol{Q}‖}_{{\rm{2, 1}}}+\delta \sum\limits _{i, j=1}^{n}{‖{\boldsymbol{P}}_{i}-{\boldsymbol{P}}_{j}‖}_{{\rm{F}}}^{2}{G}_{ij}+\varGamma {‖\boldsymbol{1}-\boldsymbol{r}‖}_{{\rm{F}}}^{2}+\\ \frac{\omega }{2}{‖\boldsymbol{G}‖}_{{\rm{F}}}^{2}+f(\boldsymbol{Z}, \boldsymbol{P}, \boldsymbol{Q}, {\boldsymbol{Y}}_{1}, {\boldsymbol{Y}}_{2}, \mu )\end{array} $ | (8) |
其中:
$ \begin{array}{l}{\boldsymbol{Z}}^{m, k+1}={\left({\left({\boldsymbol{S}}^{m}\right)}^{{\rm{{\rm T}}}}{\boldsymbol{S}}^{m}+2\mu I/{\left({r}^{m, k}\right)}^{2}\right)}^{-1}\\ \left({\left({\boldsymbol{S}}^{m}\right)}^{{\rm{{\rm T}}}}\left({\boldsymbol{S}}^{m}-{\boldsymbol{E}}^{m, k}\right)+\frac{\mu \left({P}^{m, k}+{Q}^{m, k}\right)-{Y}_{1}^{m, k}-{Y}_{2}^{m, k}}{{\left({r}^{m, k}\right)}^{2}}\right)\end{array} $ |
$ {\boldsymbol{P}}^{k+1}=\left(\mu {\boldsymbol{Z}}^{k+1}+{Y}_{1}^{k}\right){\left(4\delta {\boldsymbol{L}}_{{G}^{k}}+{\mu }_{k}I\right)}^{-1} $ |
$ {\boldsymbol{Q}}^{k+1}={\varTheta }_{\frac{\gamma }{{\mu }_{k}}}\left({\boldsymbol{Z}}^{k+1}+{Y}_{2}^{k}/{\mu }_{k}\right) $ |
$ {\boldsymbol{E}}^{m, k+1}={\varTheta }_{\frac{\lambda }{({r}^{m, k}{)}^{2}}}\left({\boldsymbol{S}}^{m}-{\boldsymbol{S}}^{m}{\boldsymbol{Z}}^{m, k+1}\right) $ |
$ {r}^{m, k+1}=\frac{2\varGamma }{{‖{\boldsymbol{S}}^{m}-{\boldsymbol{S}}^{m}{\boldsymbol{Z}}^{m, k+1}-{\boldsymbol{E}}^{m, k+1}‖}_{{\rm{F}}}^{2}+2\varGamma } $ |
$ {G}_{i}^{k+1}=\frac{1+\sum\limits _{j=1}^{\xi }{\widehat{u}}_{ij}}{\xi }(1-{u}_{i}{)}_{+} $ |
其中:
算法1 式(8)所示模型优化过程
输入 多层网络的邻接矩阵
输出
初始化
$ {\mu }_{0}={10}^{‒3}, {\mu }_{{\rm{m}}{\rm{a}}{\rm{x}}}={10}^{10}, \rho =1.5, \tau ={10}^{‒4}, \varGamma =1, $ |
$ {\rm{m}}{\rm{a}}{\rm{x}}{\rm{I}}{\rm{t}}{\rm{e}}{\rm{r}}=100, k=0 $ |
For i=1∶n do
$ {{\rm{S}}}^{{\rm{i}}}={\rm{e}}{\rm{x}}{\rm{p}}\left(-\frac{{{\rm{P}}}^{{\rm{i}}}\circ {{\rm{P}}}^{{\rm{i}}}}{2{{\rm{ \mathsf{ σ} }}}_{{\rm{s}}}^{2}}\right)\text{;} $ |
end for
While不收敛do
更新
If
Where
End if
更新拉格朗日乘子:
$ {{\rm{Y}}}_{1}^{{\rm{m}}, {\rm{k}}+1}={{\rm{Y}}}_{1}^{{\rm{m}}, {\rm{k}}}+{{\rm{ \mathsf{ μ} }}}_{{\rm{k}}}({{\rm{Z}}}^{{\rm{m}}, {\rm{k}}+1}-{{\rm{P}}}^{{\rm{m}}, {\rm{k}}+1}); $ |
$ {{\rm{Y}}}_{2}^{{\rm{m}}, {\rm{k}}+1}={{\rm{Y}}}_{2}^{{\rm{m}}, {\rm{k}}}+{{\rm{ \mathsf{ μ} }}}_{{\rm{k}}}({{\rm{Z}}}^{{\rm{m}}, {\rm{k}}+1}-{{\rm{Q}}}^{{\rm{m}}, {\rm{k}}+1}); $ |
更新
更新
更新迭代次数
检查收敛条件:Z、P、Q、E、G、r在连续2次迭代的差值小于
End while
对G进行谱聚类,得到最终的聚类结果;
3 实验与结果分析为验证本文方法的有效性,采用多种数据集设计实验。
3.1 数据集在10个现实世界的网络上测试本文方法,以证明其在广泛领域中的适用性。这些数据集的相关信息如下:
1)引文数据集,包括Citeseer、CoRA数据集,分别有6类3 312份论文和7类2 708份论文。这2个数据集都使用同样的方法构建为两层网络,其中引文层表示论文之间的引用关系,相似层表示论文之间的文本相似性。
2)推特数据集,包括Football、Olympics、Politics数据集。Football数据由推特上活跃的248个足球运动员数据组成,根据所属俱乐部划为20个类,这些球员的社交网络被分为3层,分别代表推特用户之间的3种交互方式;Olympics数据涵盖了参与2012年伦敦夏季奥运会的464位运动员和组织数据,按28个大项分类,本文使用与Football数据集相同的方法来构造3层;Politics数据集为419位来自英国的国会议员数据,依据政党划分为5类,同样构建3层。
3)手机数据集MPD,由3层组成,代表麻省理工学院中87个用户之间不同的联系,包括物理位置、蓝牙扫描和电话。
4)社交网络数据集SND,由律师事务所的71个员工数据组成,3层网络表示他们之间的3种交互方式。
5)脑虫网络WBN,由代表神经元的279个节点组成,通过5种不同类型的链接相连,代表 5种不同类型的突触,本文使用神经元类型作为真实标签。
6)世界贸易网络WTN,包含214个国家之间的贸易关系,分别使用地理区域和经济贸易类别作为标签,因此产生WTN(reg)和WTN(cat)2种网络。
实验中使用的数据集的节点数目、层数目和真实类数目如表 1所示。
![]() |
下载CSV 表 1 多层网络数据集 Table 1 Multi-layer network datasets |
由于式(8)中的参数较多,并且对于不同的数据集各参数都会相应变化,因此在实验中反复调整力求结果较优,不同数据集中的参数设置如表 2所示。为了便于调参,在实验中将
![]() |
下载CSV 表 2 各数据集中的参数设置 Table 2 Parameter settings in each dataset |
选取单层网络和多层网络2类方法进行比较。
1)单层网络方法。为了与已有的子空间聚类方法进行比较,选择最具有代表性的SSC[12]、LRR[13]、和SSCF[22]方法,但是子空间聚类方法目前仅应用于单层网络中,为了将它们应用于多层网络,首先将所有网络层合并为一个由以下邻接矩阵描述的单层网络:
2)多层网络方法。将本文方法与当前具有代表性的多层网络社团检测方法进行比较,分别是基于矩阵分解的CSNMF方法[24]和LMF方法[25]、基于信息融合的SNF方法[26]、基于谱聚类的SC-ML方法[27],为了展现公平性,所有的实验以最佳结果进行对比。
3.4 评估指标采用以下3种广泛使用的评估指标:纯度(Purity)[28],规一化互信息(NMI)[29],准确性(ACC)[30]。这3个指标都提供了一种定量方法来比较计算的社团聚类
正确分类的节点数的百分比如式(9)所示:
$ {P}_{{\rm{P}}{\rm{u}}{\rm{r}}{\rm{i}}{\rm{t}}{\rm{y}}}(\varOmega , C)=\frac{1}{n}\sum\limits _{k}\underset{j}{{\rm{m}}{\rm{a}}{\rm{x}}}\left|{\varphi }_{k}\bigcap {c}_{j}\right| $ | (9) |
其中:
为了平衡社团聚类的质量与数量,使用NMI指标,其定义如式(10)所示:
$ {N}_{{\rm{N}}{\rm{M}}{\rm{I}}}(\varOmega , C)=\frac{I(\varOmega , C)}{\frac{\left|H\left(\varOmega \right)+H\left(C\right)\right|}{2}} $ | (10) |
其中:
给定一个包含
$ {A}_{{\rm{A}}{\rm{C}}{\rm{C}}}=\frac{\sum\limits _{i=1}^{n}\delta ({\zeta }_{i}, {\rm{m}}{\rm{a}}{\rm{p}}({\psi }_{i}\left)\right)}{n} $ | (11) |
其中:
利用O标记简要分析本文模型的计算复杂度。在算法1中,当不考虑基本的矩阵运算,如矩阵相加、矩阵相乘时,最大的计算成本是矩阵的逆运算,对于大小为n×n的矩阵,逆运算的计算复杂度为O(n3),由于在Z和P的更新过程中存在逆运算,因此算法1的总计算复杂度约为
此外,本文采用ADMM算法求解所提出的多层网络联合稀疏表示模型。由于目标函数较为复杂,因此基于梯度的方法不能保证找到最佳解。为验证所得优化路径,在多层网络上进行收敛性实验。对于每一个网络,在每次迭代后保存目标函数l的值,并将其绘制为波形图。SND、Football、Olympics和WTN网络上的实验结果如图 3所示,从波形图中可以发现,目标函数l快速收敛并趋于稳定。因此,实验结果验证了本文方法的收敛性。在其他网络中也具有类似的结果。
![]() |
Download:
|
图 3 收敛性对比 Fig. 3 Comparison of convergence |
本文方法的参数
![]() |
Download:
|
图 4 不同参数对实验结果的影响 Fig. 4 Influence of different parameters on experimental results |
本文方法和其他8种方法在Purity、NMI、ACC 3种指标下的实验结果如表 3~表 5所示,最优结果用黑体表示。可以看出,本文方法在大部分数据集中都能达到最优。值得注意的是,在推特数据集的3个网络中(Football、Olympics、Politics),所有方法的结果都很理想,这是因为该数据集中网络层的社团内部连接较为紧密,社团结构较为清晰,有利于进行社团检测。本文方法无规律地略低于某些方法,这源于优化过程中的参数设置与迭代次数导致的精度误差。但是,在网络社团结构较差的Citeseer和CoRA中,本文方法明显优于其他所有比较方法,说明本文方法可以挖掘不同层的互补信息,得到更为准确的一致性联合稀疏表示。此外,从与单层的子空间分割算法(LRR、SSC、SSCF)的比较可以看出,本文方法中加入的距离正则项和自适应权重对子空间分割产生了积极的作用,大幅提高了聚类性能。
![]() |
下载CSV 表 3 不同方法检测精度比较(Purity) Table 3 Accuracy comparison of different methods(Purity) |
![]() |
下载CSV 表 4 不同方法检测精度比较(NMI) Table 4 Accuracy comparison of different methods(NMI) |
![]() |
下载CSV 表 5 不同方法检测精度比较(ACC) Table 5 Accuracy comparison of different methods(ACC) |
为解决多层网络中的社团检测问题,本文提出一种基于子空间分割的多层网络联合稀疏表示方法。不同于传统的单层网络分割与平均叠加的思路,本文将距离正则项和非负约束条件共同集成到SSC框架中,同时利用数据的全局和局部信息进行图学习,并且在模型中引入
[1] |
AGRAWAL R, GEHRKE J, GUNOPULOS D, et al. Automatic subspace clustering of high dimensional data[J]. Data Mining and Knowledge Discovery, 2005, 11(1): 5-33. DOI:10.1007/s10618-005-1396-1 |
[2] |
LU L, VIDAL R. Combined central and subspace clustering for computer vision applications[C]//Proceedings of the 23rd International Conference on Machine Learning. New York, USA: ACM Press, 2006: 593-600.
|
[3] |
HONG W, WRIGHT J, HUANG K, et al. Multiscale hybrid linear models for lossy image representation[J]. IEEE Transactions on Image Processing, 2006, 15(12): 3655-3671. DOI:10.1109/TIP.2006.882016 |
[4] |
YANG A Y, WRIGHT J, MA Y, et al. Unsupervised segmentation of natural images via lossy data compression[J]. Computer Vision and Image Understanding, 2008, 110(2): 212-225. DOI:10.1016/j.cviu.2007.07.005 |
[5] |
LIU Y T, BI H B, GUO Q, et al. Community detection algorithm based on network topology and node metadata[J]. Computer Engineering, 2018, 44(11): 178-183. (in Chinese) 刘宇廷, 毕海滨, 郭强, 等. 基于网络拓扑与节点元数据的社团检测算法[J]. 计算机工程, 2018, 44(11): 178-183. DOI:10.3778/j.issn.1002-8331.1701-0073 |
[6] |
PENG Y, XI L Y. Local-first detection of overlapping community and its evolution pattern in dynamic networks[J]. Computer Engineering, 2016, 42(12): 188-195, 203. (in Chinese) 彭焱, 溪利亚. 局部优先的动态网络重叠社团及其演变模式检测[J]. 计算机工程, 2016, 42(12): 188-195, 203. DOI:10.3969/j.issn.1000-3428.2016.12.033 |
[7] |
JIANG S Y, WU M L, YANG B H. Telecom customer segmentation based on network community detection[J]. Computer Engineering, 2014, 40(7): 312-316. (in Chinese) 蒋盛益, 吴美玲, 杨博泓. 基于网络社团检测的电信客户细分[J]. 计算机工程, 2014, 40(7): 312-316. DOI:10.3969/j.issn.1000-3428.2014.07.064 |
[8] |
YIN X H, ZHAO S Y, CHEN X Y. Random walk community detection algorithm with biased signal propagation[J]. Computer Science, 2019, 46(12): 45-55. (in Chinese) 尹欣红, 赵世燕, 陈晓云. 带偏置的信号传播的随机游走的社团检测算法[J]. 计算机科学, 2019, 46(12): 45-55. DOI:10.11896/jsjkx.190700051 |
[9] |
DOMENICO M, SOLÉ-RIBALTA A, COZZO E, et al. Mathematical formulation of multi-layer networks[J]. Physical Review X, 2014, 3(4): 4192-4195. |
[10] |
JIA Z L, GU L, GAO Z Y, et al. Weighted complex network BGLL community detection method based on node similarity[J]. Computer System Applications, 2019, 28(2): 201-206. (in Chinese) 贾郑磊, 谷林, 高智勇, 等. 基于节点相似性的加权复杂网络BGLL社团检测方法[J]. 计算机系统应用, 2019, 28(2): 201-206. |
[11] |
LIU D Y, ZHANG Z, ZHANG J. Robust optimization strategy for complex networks based on community structure[J]. Computer Engineering, 2021, 47(8): 84-92. (in Chinese) 刘迪洋, 张震, 张进. 基于社区结构的复杂网络鲁棒性优化策略[J]. 计算机工程, 2021, 47(8): 84-92. |
[12] |
ELHAMIFAR E, VIDAL R. Sparse subspace clustering: algorithm, theory, and applications[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2013, 35(11): 2765-2781. DOI:10.1109/TPAMI.2013.57 |
[13] |
LIU G, LIN Z, YU Y. Robust subspace segmentation by low-rank representation[C]//Proceedings of International Conference on Machine Learning. New York, USA: ACM Press, 2010: 663-670.
|
[14] |
FANG X Z, HAN N, WU J G, et al. Approximate low-rank projection learning for feature extraction[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(11): 5228-5241. DOI:10.1109/TNNLS.2018.2796133 |
[15] |
WANG Q, HE X, LI X D. Locality and structure regularized low rank representation for hyperspectral image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 57(2): 911-923. |
[16] |
TAO Y, BAO L L, HU H. Structure-constrained symmetric low-rank representation subspace clustering method[J]. Computer Engineering, 2021, 47(4): 56-61, 67. (in Chinese) 陶洋, 鲍灵浪, 胡昊. 结构约束的对称低秩表示子空间聚类方法[J]. 计算机工程, 2021, 47(4): 56-61, 67. |
[17] |
BOYD S, PARIKH N, CHU E, et al. Distributed optimization and statistical learning via the alternating direction method of multipliers[J]. Foundations and Trends in Machine Learning, 2011, 3(1): 1-122. |
[18] |
ZHANG S, ZHAO H, NG M K. Functional module analysis for Gene coexpression networks with network integration[J]. IEEE/ACM Transactions on Computational Biology & Bioinformatics, 2015, 12(5): 1146-1160. DOI:10.1109/TCBB.2015.2396073 |
[19] |
YAN S, WANG H. Semi-supervised learning by sparse representation[C]//Proceedings of 2009 SIAM International Conference on Data Mining. [S. l. ]: DBLP, 2009: 1-5.
|
[20] |
GUO X. Robust subspace segmentation by simultaneously learning data representations and their affinity matrix[C]//Proceedings of the 24th International Joint Conference on Artificial Intelligence. Washington D.C., USA: IEEE Press, 2015: 1-5.
|
[21] |
XU Y, YIN W. A block coordinate descent method for regularized multiconvex optimization with applications to nonnegative tensor factorization and completion[J]. SIAM Journal on Imaging Sciences, 2015, 6(3): 1758-1789. |
[22] |
MAHMOOD A, SMALL M. Subspace based network community detection using sparse linear coding[J]. IEEE Transactions on Knowledge & Data Engineering, 2016, 28(3): 801-812. |
[23] |
SHI J B, MALIK J. Normalized cuts and image segmentation[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2000, 22(8): 888-905. DOI:10.1109/34.868688 |
[24] |
GLIGORIJEVIĆ V, PANAGAKIS Y, ZAFEIRIOU S. Non-negative matrix factorizations for multiplex network analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 41(4): 928-940. |
[25] |
TANG W, LU Z, DHILLON I S. Clustering with multiple graphs[C]//Proceedings of 2009 IEEE International Conference on Data Mining. Washington D.C., USA: IEEE Press, 2009: 1016-1021.
|
[26] |
WANG B, MEZLINI A M, DEMIR F, et al. Similarity network fusion for aggregating data types on a genomic scale[J]. Nature Methods, 2014, 11(3): 333. DOI:10.1038/nmeth.2810 |
[27] |
DONG X, FROSSARD P, VANDERGHEYNST P, et al. Clustering on multi-layer graphs via subspace analysis on Grassmann manifolds[J]. IEEE Transactions on Signal Processing, 2013, 62(4): 905-918. DOI:10.1109/TSP.2013.2295553 |
[28] |
ZHAO Y, KARYPIS G. Empirical and theoretical comparisons of selected criterion functions for document clustering[J]. Machine Learning, 2004, 55(3): 311-331. DOI:10.1023/B:MACH.0000027785.44527.d6 |
[29] |
MANNING C D, RAGHAVAN P, SCHÜTZE H. Text classification and naive Bayes[J]. Introduction to Information Retrieval, 2008, 1(6): 1-5. |
[30] |
LIU H, WU Z, LI X, et al. Constrained nonnegative matrix factorization for image representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 34(7): 1299-1311. |