2. 盲信号处理国家级重点实验室, 成都 610041
2. National Key Laboratory of Science and Technology on Blind Signal Processing, Chengdu 610041, China
开放科学(资源服务)标志码(OSID):
复杂网络是对现实世界中复杂系统的抽象表示,复杂系统的各组成部分及其相互之间的关联关系分别用节点和节点之间的边来表示。对复杂网络中的节点开展分类问题研究,有利于加深对复杂系统内部组成的理解。传统网络节点分类主要针对静态网络,即不考虑网络随时间发生演变,网络节点和节点之间的边始终保持不变。在实际情况中,网络的动态特征明显,节点和节点之间的边可能随时间发生变化。为使研究更贴近实际情况,在静态网络的基础上充分考虑时间要素,研究人员提出动态网络概念并进一步开展网络相关研究。本文基于经典的网络节点分类方法,在考虑时间要素的前提下,根据连续时间动态网络(Continuous-Time Dynamic Network,CTDN)的信息传播特征,结合网络表示学习方法进行网络节点分类研究,提出基于信息传播节点集的连续时间动态网络节点分类算法CTDNN-IPNS。
1 相关工作基于网络表示学习的节点分类方法是研究网络节点分类问题的一类重要方法[1-3]。这类方法将网络节点表示为低维空间向量,通过对向量的分类实现节点的分类。结合网络表示学习方法,在分类过程中根据是否考虑节点或连边随时间变化的情况,形成静态网络节点分类和动态网络节点分类方法。
根据网络表示学习模型的使用情况,静态网络节点分类方法[4]大致可分为基于矩阵分解[5-6]、随机游走[7-8]和深度神经网络[9-10]三类。基于随机游走的网络表示学习方法将随机游走与自然语言处理领域的Skip-Gram词向量生成模型相结合,形成节点采样+Skip-Gram的网络表示学习框架,将网络节点和通过在网络节点之间随机游走采样获取的节点序列分别视作自然语言中的词和语句,对节点序列加以处理后实现网络节点的向量表示,并利用经典分类算法实现网络节点的最终分类。DeepWalk[7]算法是经典的基于随机游走的网络表示学习算法,具有网络表示能力强和计算复杂度低的特点。在此基础上,通过改进节点序列采样策略,衍生出Node2Vec[8]、Walklets[11]、Metapath2Vec[12]等众多网络表示学习算法。这类算法针对静态网络展开研究,未能对网络中的时间信息加以利用,即未考虑节点或连边随时间的变化情况对网络表示学习结果的影响,不适用于动态网络节点分类。
在动态网络节点分类方面,文献[13-14]利用LSTM、AutoEncoder等深度学习模型对网络快照进行处理,较好地表示出网络节点类别随时间的演化过程,但是如果节点在不同的快照中表现出不同的类别,则这类方法不能给出节点的全局类别属性。文献[15-17]以改进节点序列采样策略为突破口,分别设计出基于随机游走的动态网络表示学习算法CTDNE、STWalk和RWR-STNE,其中,STWalk和RWR-STNE算法在静态网络的基础上增加时间要素,在不同时刻网络快照上构造节点时空图,进而在其上完成随机游走并实现节点采样,但是上述算法存在时间粒度过大、时间信息利用不充分的问题。CTDNE算法针对连续时间动态网络,严格依照事件发生的时间顺序进行节点采样,但容易受噪声影响,导致网络表示学习结果与现实情况存在较大偏差,分类结果精度也会随之降低。
2 相关定义定义1(连续时间动态网络) 连续时间动态网络[15, 18-19]表示为图
连续时间动态网络的定义在传统静态网络的基础上充分考虑了动态网络中边的时序信息,同时克服了以网络快照形式表示动态网络过程中时间信息损失的问题。针对连续时间动态网络进行节点分类的3个主要步骤如图 1所示。首先,按照定义1,利用实际数据构造连续时间动态网络;其次,使用网络表示学习方法,将连续时间动态网络中的节点映射至低维空间,采用保有节点原始关系的向量加以表示;最后,利用分类算法,通过对低维空间节点向量的分类,实现连续时间动态网络的节点分类。鉴于分类算法已经相对成熟,本文将网络表示学习环节作为研究重点,开展连续时间动态网络节点分类研究。
![]() |
Download:
|
图 1 连续时间动态网络节点分类流程 Fig. 1 Procedure of node classification for CTDN |
定义2(连续时间动态网络表示学习) 在连续时间动态网络中,学习得到的映射函数
在通常情况下,映射函数
在网络信息传播动力学研究中,DALEY等人[20]提出了经典的DK谣言传播模型。该模型将网络内节点分为与谣言传播无关者、传播谣言者和知道谣言但不继续传播者、谣言通过传播者之间的直接接触进行传播三类。在谣言传播过程中,节点间因接触范围不同,形成谣言传播群组,群组内因节点传播能力的不同,会产生不同的传播模式。
在实际网络信息传播过程中,信息通过节点间通联在不同类型节点之间传播。因此,在DK谣言传播模型的基础上,本文结合实际通信网络数据特点及其时间维度属性,得出连续时间动态网络具有以下特点:
1)信息传播流程多数在一定时间内完成,传播范围在大小不等的节点集内。
2)信息传播包括一对一、一对多和多对多等多种模式。
3)类别相同或相似节点之间存在一定的周期性关联关系。
电话通信网络是典型的连续时间动态网络。表 1是某电话通信网络的部分通话记录,在时间戳值为316 999 s~317 344 s的345 s时间内,其中方括号标注的用户171、180、186、188共同完成一次信息传播,而其他用户与其没有任何通联。图 2为信息传播过程示例,其中连边上的数字表示通联发生的时间顺序。
![]() |
下载CSV 表 1 某电话通信网络部分通话记录 Table 1 Partial call records of a telephone communication network |
![]() |
Download:
|
图 2 用户171、180、186和188之间的信息传播过程 Fig. 2 Information dissemination process among users 171, 180, 186 and 188 |
由此可以推测,对于连续时间动态网络的节点分类,若在网络表示学习环节的节点序列采样过程中对上述特征加以利用,其网络表示学习结果将更好地保留节点在原始网络结构上的内在相似性,在此基础上得到的分类结果精度也将大幅提高。具体而言:一是将节点采样范围、时间范围加以限制,提高节点集内成员共现概率;二是增加采样过程的灵活性,从逐个节点顺序采样转变为从节点集内成员发起的随机采样;三是信息传播周期性的存在,使得同类节点共现概率会在一定范围内随采样次数的提高而增加。
定义3(信息传播节点集) 给定连续时间动态网络
基于上述分析,本文提出针对连续时间动态网络节点分类的CTDNN-IPNS算法,该算法基于信息传播节点集的概念,对网络表示学习环节的节点序列采样策略进行改进,形成突显节点之间关联关系的节点向量表示,在此基础上进行类别划分,最终实现对连续时间动态网络节点的分类。
3.1 节点序列采样节点序列采样的具体步骤如下:
步骤1 构造连续时间动态网络
步骤2 从
步骤3 与
步骤4 若
步骤5 若
步骤6 重复步骤2~步骤5,当
步骤7 重复步骤2~步骤6共c次,输出
算法1 CTDNN-IPNS算法
输入 连续时间动态网络
输出 节点序列
1.初始化信息传播节点集M、备选边集
2.for 1 to n
3.随机选择起始边
4.while
5.将
6.for与M中节点相连的所有边
7.获取边的时间戳
8.if
9.将该边添加至
10.if
11.从
12.else
13.在
14.if
15.退出本次while循环
16.将M添加至
17.return
在算法1中,输入参数
定义4(节点邻居序列) 对于网络中的节点
基于节点采样+Skip-Gram的网络表示学习框架,可将网络表示学习问题转化为使
$ \underset{f}{\mathrm{m}\mathrm{a}\mathrm{x}}\mathrm{l}\mathrm{n}P\left({N}_{S}\left(v\right)\left|f\left(v\right)\right.\right) $ | (1) |
为简化计算过程进行以下假设:
1)假设不同节点之间的采样过程相互独立,则如式(1)所示的条件概率可表示为
$ P\left({N}_{S}\left(v\right)\left|f\left(v\right)\right.\right)=P\left({n}_{i}\left|f\left(v\right)\right.\right) $ | (2) |
2)假设同一条边的两端节点彼此作用对称,利用softmax函数表示式(2)中的条件概率,计算公式为:
$ P\left({n}_{i}\left|f\left(v\right)\right.\right)=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left(f\right({n}_{i})\cdot f(v\left)\right)}{\sum\limits_{u\in V}\mathrm{e}\mathrm{x}\mathrm{p}\left(f\right(u)\cdot f(v\left)\right)} $ | (3) |
基于上述假设,式(1)可简化为:
$ \underset{f}{\mathrm{m}\mathrm{a}\mathrm{x}}\sum\limits_{v\in V}\left[-\mathrm{l}\mathrm{n}{Z}_{v}+\sum\limits_{{n}_{i}\in {N}_{S}\left(v\right)}f\left({n}_{i}\right)f\left(v\right)\right] $ | (4) |
其中,
由上述公式可知,网络表示学习的目标函数求解的关键为构造
CTDNN-IPNS算法采用LogicRegression分类器对网络表示学习环节生成的节点向量进行分类,并依据F1_macro和F1_micro值量化评价分类结果。F1_macro和F1_micro的求解过程为:设数据集中的数据共分为
$ {P}_{\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{i}\mathrm{s}\mathrm{i}\mathrm{o}\mathrm{n}}=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{P}}} $ | (5) |
$ {R}_{\mathrm{R}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}}=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{N}}} $ | (6) |
$ F=\frac{2\cdot {P}_{\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{i}\mathrm{s}\mathrm{i}\mathrm{o}\mathrm{n}}\cdot {R}_{\mathrm{R}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}}}{{P}_{\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{i}\mathrm{s}\mathrm{i}\mathrm{o}\mathrm{n}}+{R}_{\mathrm{R}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}}} $ | (7) |
$ {F}_{\mathrm{F}1\_\mathrm{m}\mathrm{a}\mathrm{c}\mathrm{r}\mathrm{o}}=\frac{\sum\limits_{{c}_{i}\in C}F}{\left|C\right|} $ | (8) |
$ {P}_{\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{i}\mathrm{s}\mathrm{i}\mathrm{o}\mathrm{n}}=\frac{\sum\limits_{{c}_{i}\in C}{T}_{\mathrm{T}\mathrm{P}}}{\sum\limits_{{c}_{i}\in C}({T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{P}})} $ | (9) |
$ {R}_{\mathrm{R}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}}=\frac{\sum\limits_{{c}_{i}\in C}{T}_{\mathrm{T}\mathrm{P}}}{\sum\limits_{{c}_{i}\in C}({T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{N}})} $ | (10) |
$ {F}_{\mathrm{F}1\_\mathrm{m}\mathrm{i}\mathrm{c}\mathrm{r}\mathrm{o}}=\frac{2\cdot {P}_{\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{i}\mathrm{s}\mathrm{i}\mathrm{o}\mathrm{n}}\cdot {R}_{\mathrm{R}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}}}{{P}_{\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{i}\mathrm{s}\mathrm{i}\mathrm{o}\mathrm{n}}+{R}_{\mathrm{R}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}}} $ | (11) |
本文选用网络表示学习研究领域常用的DBLP和AMiner论文合作数据集,以及根据实际电话通联记录自制的Reality-Call数据集,从连续时间动态网络的二维可视化展示效果及其节点分类结果两方面,对CTDNN-IPNS算法的性能进行实验验证,数据集信息如表 2所示。DBLP和AMiner数据集中的网络节点是文章作者,若两位作者共同发表过论文,则两者之间存在一条连边,边的时间戳为论文发表年份,节点类别是论文作者的所属研究领域。类似地,Reality-Call数据集中的用户号码被视为网络节点,若两位用户有过通话,则其对应的节点之间存在一条连边,边的时间戳为通话发起时间,节点类别为号码所属部门。实验环境设置如表 3所示。
![]() |
下载CSV 表 2 实验数据集 Table 2 Experimental dataset |
![]() |
下载CSV 表 3 实验环境 Table 3 Experiment environment |
CTDNN-IPNS算法涉及参数较多,具体设置如下:
1)网络节点向量表示维度
2)随机游走步长
3)节点子序列截取考查范围
4)信息传播时间范围
5)训练数据使用率
6)总游走次数:由于CTDNN-IPNS和CTDNE算法采用从随机选取的节点出发且依据指定规则进行随机游走的采样策略,而STWalk算法采取以网络快照内的每个节点为起点且依次开始随机游走的策略,为便于比较,在实验中将总游走次数设置为网络节点数的整数倍。
在实验中以总游走次数为变量开展算法性能测试,其中随机游走步长
为横向验证CTDNN-IPNS算法的性能,基于相同测试数据集,本文将CTDNN-IPNS算法与STWalk[16]和CTDNE[15]算法进行比较,对比算法采用清华大学发布的OpenNE框架内的相关函数进行实现。在测试过程中,网络节点向量表示维度
以DBLP数据集为例,CTDNN-IPNS、STWalk和CTDNE算法的动态网络表示学习结果经t-SNE算法[22]降维后的二维可视化效果如图 3所示。可以看出,与STWalk和CTDNE算法相比,基于本文提出的节点采样策略,CTDNN-IPNS算法生成的动态网络表示学习结果能够更好地保持原有网络节点之间的内在相似性,数据集的6个类别在二维空间中的分布更集中,数量较少的黑色类别数据的聚集效果也更明显且各个类别的界限清晰,能够更好地支持后续节点的分类任务。
![]() |
Download:
|
图 3 3种算法的二维可视化效果 Fig. 3 2D visualized effect of three algorithms |
在总游走次数下,CTDNN-IPNS、CTDNE和STWalk算法对不同数据集的分类结果评价指标值(F1_micro和F1_macro)如表 4~表 6所示。上述分类结果评价指标值对应的曲线如图 4~图 6所示。根据上述分类结果的评价指标值可知,针对DBLP、AMiner和Reality-Call数据集,CTDNN-IPNS算法整体上优于STWalk和CTDNE算法。具体而言,在3组实验中,CTDNE算法分类结果的F1_micro和F1_macro值随节点采样次数的增加而呈现出上升趋势,但上升速度较慢。在对DBLP数据集和Aminer数据集进行节点分类时,CTDNN-IPNS算法分类结果的F1_micro和F1_macro值均为最高值,且在总游走次数较少时,其优势更为明显。在对Reality-Call数据集进行分类时,3种算法均在总游走次数达到750以上时获得较好的分类效果,但CTDNN-IPNS算法的分类效果更佳,且在总游走次数低于750时,CTDNN-IPNS算法具有更好的分类性能,其F1_micro和F1_macro值更高且增速更快。
![]() |
下载CSV 表 4 CTDNN-IPNS、STWalk和CTDNE算法对DBLP数据集的分类结果评价指标值 Table 4 The evaluation index values of classification results on the DBLP dataset by CTDNN-IPNS, STWalk, CTDNE algorithm |
![]() |
下载CSV 表 5 CTDNN-IPNS、STWalk和CTDNE算法对AMiner数据集的分类结果评价指标值 Table 5 The evaluation index values of classification results on the AMiner dataset by CTDNN-IPNS, STWalk, CTDNE algorithm |
![]() |
下载CSV 表 6 CTDNN-IPNS、STWalk和CTDNE算法对Reality-Call数据集的分类结果评价指标值 Table 6 The evaluation index values of classification results on the Reality-Call dataset by CTDNN-IPNS, STWalk, CTDNE algorithm |
![]() |
Download:
|
图 4 3种算法对DBLP数据集的分类结果评价曲线 Fig. 4 The evaluation curves of classification results on the DBLP dataset by three algorithms |
![]() |
Download:
|
图 5 3种算法对AMiner数据集的分类结果评价曲线 Fig. 5 The evaluation curves of classification results on the AMiner dataset by three algorithms |
![]() |
Download:
|
图 6 3种算法对Reality-Call数据集的分类结果评价曲线 Fig. 6 The evaluation curves of classification results on the Reality-Call dataset by three algorithms |
随机游走步长
![]() |
Download:
|
图 7 CTDNN-IPNS算法分类性能随参数l的变化曲线 Fig. 7 The change curves of classification performance of CTDNN-IPNS algorithm with parameter l |
![]() |
Download:
|
图 8 CTDNN-IPNS算法分类性能随参数w的变化曲线 Fig. 8 The change curves of classification performance of CTDNN-IPNS algorithm with parameter w |
如图 9、图 10所示,在DBLP数据集和Reality-Call数据集的节点分类实验中,当
![]() |
Download:
|
图 9 CTDNN-IPNS算法在DBLP数据集上的分类性能随参数Δt的变化曲线 Fig. 9 The change curves of classification performance of CTDNN-IPNS algorithm on the DBLP dataset with parameter Δt |
![]() |
Download:
|
图 10 CTDNN-IPNS算法在Reality-Call数据集上的分类性能随参数Δt的变化曲线 Fig. 10 The change curves of classification performance of CTDNN-IPNS algorithm on the Reality-Call dataset with parameter Δt |
实验结果表明,在随机游走次数较少时,CTDNE算法因采用严格依照时间先后顺序的游走策略,在网络学习表示过程中受噪声影响较大,不能较好地捕捉到节点与同类别其他节点之间的关系,随着游走次数的增加,同类别节点的共现次数逐渐增加,其分类精度也随之提高。由于STWalk算法和CTDNN-IPNS算法在随机游走过程中,分别以节点历史邻居和信息传播集内节点为采样对象,因此在随机游走次数较少时表现出较好的分类性能,随着游走次数的增加,采集节点数逐渐增多,采样序列反而可能受到不同类别节点的干扰,导致分类性能略有下降,但总体表现基本平稳。
随着总游走次数的增加,CTDNE和CTDNN-IPNS算法的性能曲线逐渐趋同,这表明在总游走次数足够大的情况下,不同的随机游走策略最终反映出的图信息基本趋于一致,且对网络的整体表示学习能力相近,而STWalk算法侧重于关注单个网络快照上的节点,因此相比其他算法,整体分类性能相对较差。
5 结束语本文提出一种新的连续时间动态网络节点分类算法,定义信息传播节点集,改进网络表示学习方法的节点序列采样策略,利用其生成的节点低维向量和LogicRegression分类器实现对连续时间动态网络的节点分类。实验结果表明,针对论文合作网络的作者分类和电话通信网络的用户分类问题,相比CTDNE和STWalk算法,该算法的网络表示学习结果能够更好地保留节点在原始网络结构上的内在相似性,且最终分类结果也更优。后续将结合节点属性、连边权重等信息,研究针对连续时间动态网络的分类算法,进一步提升其分类效果和适用范围。
[1] |
TU Cunchao, YANG Cheng, LIU Zhiyuan, et al. Network representation learning: an overview[J]. Scientia Sinica Informationis, 2017, 47(8): 980-996. (in Chinese) 涂存超, 杨成, 刘知远, 等. 网络表示学习综述[J]. 中国科学(信息科学), 2017, 47(8): 980-996. |
[2] |
BHAGAT S, CORMODE G, MUTHUKRISHNAN S. Node classification in social networks[J]. Computer Science, 2011, 16(3): 115-148. |
[3] |
GOYAL P, FERRARA E. Graph embedding techniques, applications, and performance: a survey[EB/OL]. [2020-05-14]. https://arxiv.org/abs/1705.02801.
|
[4] |
CUI Peng, WANG Xiao, PEI Jian, et al. A survey on network embedding[J]. IEEE Transactions on Knowledge and Data Engineering, 2019, 31(5): 833-852. DOI:10.1109/TKDE.2018.2849727 |
[5] |
OU Mingdong, CUI Peng, PEI Jian, et al. Asymmetric transitivity preserving graph embedding[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2016: 1105-1114.
|
[6] |
WANG Xiao, CUI Peng, WANG Jing, et al. Community preserving network embedding[C]//Proceedings of the 31st AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI Press, 2017: 203-209.
|
[7] |
PEROZZI B, AL-RFOU R, SKIENA S. DeepWalk: online learning of social representations[C]//Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2014: 701-710.
|
[8] |
GROVER A, LESKOVEC J. Node2Vec: scalable feature learning for networks[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2016: 855-864.
|
[9] |
WANG Daixin, CUI Peng, ZHU Wenwu. Structural deep network embedding[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2016: 1225-1234.
|
[10] |
CAO Shaosheng, LU Wei, XU Qiongkai. Deep neural networks for learning graph representations[C]//Proceedings of the 30th AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI Press, 2016: 1145-1152.
|
[11] |
PEROZZI B, KULKARNI V, SKIENA S. Walklets: multiscale graph embeddings for interpretable network classification[EB/OL]. [2020-05-14]. https://arxiv.org/abs/1605.02115.
|
[12] |
DONG Y, CHAWLA N V, SWAMI A. Metapath2Vec: scalable representation learning for heterogeneous networks[C]//Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM Press, 2017: 135-144.
|
[13] |
KHOSHRAFTAR S, MAHDAVI S, AN A, et al. Dynamic graph embedding via LSTM history tracking[C]//Proceedings of 2019 IEEE International Conference on Data Science and Advanced Analytics. Washington D.C., USA: IEEE Press, 2019: 119-127.
|
[14] |
GOYAL P, KAMRA N, HE X R, et al. DynGEM: deep embedding method for dynamic graphs[EB/OL]. [2020-05-14]. https://arxiv.org/abs/1805.11273.
|
[15] |
NGUYEN G H, LEE J B, ROSSI R A, et al. Continuous-time dynamic network embeddings[C]//Proceedings of International Conferences on World Wide Web. Geneva, Switzerland: International World Wide Web Conferences Steering Committee, 2018: 969-976.
|
[16] |
PANDHRE S, MITTAL H, GUPTA M, et al. STWalk: learning trajectory representations in temporal graphs[C]//Proceedings of ACM India Joint International Conference on Data Science and Management of Data. New York, USA: ACM Press, 2018: 210-219.
|
[17] |
CHENG X, JI L, YIN Y, et al. Network representation learning method based on spatial-temporal graph in dynamic network[C]//Proceedings of IEEE International Conference on Electronics Information and Emergency Communication. Washington D.C., USA: IEEE Press, 2019: 196-200.
|
[18] |
LEE J B, NGUYEN G, ROSSI R A, et al. Temporal network representation learning[EB/OL]. [2020-05-14]. https://arxiv.org/abs/1904.06449.
|
[19] |
NGUYEN G H, LEE J B, ROSSI R A, et al. Dynamic network embeddings: from random walks to temporal random walks[C]//Proceedings of IEEE International Conference on Big Data. Washington D.C., USA: IEEE Press, 2018: 1085-1092.
|
[20] |
DALEY D J, KENDALL D G. Epidemics and rumours[J]. Nature, 1964, 204(4963): 1118. DOI:10.1038/2041118a0 |
[21] |
MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality[C]//Proceedings of the 26th International Conference on Neural Information Processing Systems. New York, USA: ACM Press, 2013: 3111-3119.
|
[22] |
MAATEN L J, HINTON G E. Visualizing high-dimensional data using t-SNE[J]. Journal of Machine Learning Research, 2008, 9(2): 2579-2605. |