2. 北京工商大学 食品安全大数据技术北京重点实验室, 北京 100048
2. Beijing Key Lab of Big Data Technology for Food Safety, Beijing Technology and Business University, Beijing 100048, China
开放科学(资源服务)标志码(OSID):
在现实世界中,社交网络已经与人们日常工作和生活密不可分,人们不仅通过网络获取各种信息,同时也参与到信息内容的创作中。社交网络中的信息传播具有速度快、范围广、即时性强等特点。然而,由于在发布信息时缺乏有效监管手段,导致社交网络平台成为谣言传播的温床[1]。网络谣言不仅会影响人们的日常生活,而且会带来严重的社会问题。例如,2016年美国大选期间,有益的谣言信息倾向于支持唐纳德·特朗普而非希拉里·克林顿,直接影响选举结果[2]。因此,研究自动高效的谣言检测方法意义重大,尤其是在信息传播早期阶段。
传统检测方法主要利用文本内容、用户特征通过手工提取特征,然后再利用分类器分类,如决策树[3]、随机森林[4]、支持向量机[5]。随着近年来深度学习的发展,越来越多的研究采用深度学习方法。除上述内容特征外,谣言的传播还存在结构特性,传播图中的节点会因为邻居及更远邻居而影响自己,关系越亲近的邻居影响更大,因此转发关系的谣言之间存在结构影响力,这将有助于对谣言的分类。虽然现有研究已经取得了部分成就,但是鉴于社交媒体下谣言检测任务的复杂性,其还存在以下问题:谣言文本包含了语义信息和传播结构信息,以往方法利用树结构学习结构影响力并不完善,谣言传播结构应是一个错综复杂的图结构;用户属性可以丰富谣言检测特征,但在传播早期很难获取大量用户信息,因此无法利用用户的关注关系描绘传播网络,但可以通过早期谣言的转发关系构建用户传播图;消息在传播过程中会受到不同用户的影响,以往方法忽略了未直接转发或评论用户存在的间接影响,而这些潜在关系可以丰富谣言检测特征。
本文提出一种基于多传递影响力(Multi-Transmit Influence,MTI)的谣言检测方法。使用转发关系对用户节点构图,根据图神经网络学习文本的结构影响力,以避免使用大规模用户信息,在此基础上通过构造基于用户传递影响力的节点表示,学习用户之间在传播过程中不同的影响力,以增强用户特征信息。
1 研究现状目前,研究人员将谣言检测任务看作是一种分类,即判断某个消息是“虚假信息”还是“非虚假信息”,亦或是其他类别。其中一类方法为基于传统机器学习的方法,例如,文献[6]通过提取单词或短语的频率特征,选出对谣言或者是非谣言比较有代表性的词进行谣言检测。文献[7]首先按照主题分类提取用户特征,然后利用机器学习的方法进行分类。文献[8]使用了多种不同类型的特征,并通过梯度提升决策树来进行谣言检测。文献[9]提出一种基于动态时间序列的谣言检测模型,利用时间序列为谣言的社会情境特征变化进行建模,在传统机器学习中取得了较好的效果。
随着深度学习技术的快速发展,许多研究人员尝试利用深度学习来解决文本分类问题[10]。文献[11]应用递归神经网络,通过学习传播序列中的信息进行谣言检测。研究人员通过引入注意力机制的模型[12-14]和利用对抗生成网络的模型[15]都取得了一定的效果。文献[16]通过递归神经网络对谣言信息以树结构的形式,捕获自上而下和自下而上的结构信息,但是树结构学习结构影响力并不完善,谣言传播结构应是一个错综复杂的图网络,因此丢失了一些结构信息。文献[17]则分别使用了循环神经网络和卷积神经网络学习传播路径上的不同信息,但未考虑到用户间的影响力。
2 基于多传递影响力的谣言检测方法 2.1 模型整体架构基于多传递影响力的谣言检测方法整体架构如图 1所示。
![]() |
Download:
|
图 1 谣言检测模型整体架构 Fig. 1 Overall architecture of the rumor detection model |
模型由文本特征学习模块和用户特征学习模块两部分构成。其中文本特征学习模块包括:1)文本特征提取,首先利用Word2Vec[18]获取词向量,将微博句子表示为一个微博词特征矩阵,再利用多头注意力机制和卷积神经网络作用于微博词特征矩阵得到微博句子特征;2)文本传播特征提取,首先构建微博文本之间的转发或评论关系图,再利用图卷积神经网络获取传播特征。用户特征学习模块包括:1)用户影响力计算,利用转发关系将微博对应的用户进行构图,获取用户向量表示,再引入注意力机制获取用户影响力;2)用户传递影响力计算,通过构造基于用户传递影响力的节点表示方法,学习用户之间在传播过程中的不同影响力。将更新后的文本特征和用户特征融合,并由分类器进行分类输出,来预测微博信息的类别。
2.2 文本特征学习模块源谣言集合用
![]() |
Download:
|
图 2 微博词特征矩阵 Fig. 2 Weibo word feature matrix |
在谣言检测问题中,文本信息十分重要,本文模型中文本特征提取过程如图 3所示。
![]() |
Download:
|
图 3 文本特征提取过程 Fig. 3 Text feature extraction process |
本文将微博词特征矩阵作为输入,通过多头自注意力机制更新该矩阵,把更新后的微博词特征矩阵输入到卷积神经网络层和池化层提取特征,得到每条微博的句子特征,最后将不同句子特征拼接,得到源微博及相关微博的特征矩阵。
1)多头自注意力机制。在多头自注意力机制计算过程中,使句子中所有词相互影响,提取内部相关特性,获取词间依赖关系。
多头自主意力机制过程如图 4所示,输入Q=K=V,即微博句子的词特征矩阵。
![]() |
Download:
|
图 4 多头自注意力机制过程 Fig. 4 Multi-head self-attention mechanism process |
线性层将Q、K、V映射为h个不同部分,各部分进行缩放点击注意力,计算公式如式(1)所示,得到输出如式(2)所示:
$ \mathrm{A}\mathrm{t}\mathrm{t}\mathrm{e}\mathrm{n}\mathrm{t}\mathrm{i}\mathrm{o}\mathrm{n}(\boldsymbol{Q}, \boldsymbol{K}, \boldsymbol{V})=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left(\frac{\boldsymbol{Q}{\boldsymbol{K}}^{\mathrm{T}}}{\sqrt[]{d}}\right)\boldsymbol{V} $ | (1) |
$ {Z}_{i}=\mathrm{ }\mathrm{A}\mathrm{t}\mathrm{t}\mathrm{e}\mathrm{n}\mathrm{t}\mathrm{i}\mathrm{o}\mathrm{n}({W}_{i}^{\boldsymbol{Q}}, {W}_{i}^{\boldsymbol{K}}, {W}_{i}^{\boldsymbol{V}}) $ | (2) |
其中
$ \boldsymbol{Z}={\boldsymbol{W}}_{0}\left(\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{c}\mathrm{a}\mathrm{t}\left({Z}_{1}, {Z}_{2}, \cdots , {Z}_{h}\right)\right) $ | (3) |
其中:
2)卷积池化层。通过卷积层和最大池化层捕获微博句子级的特征。将
$ {e}_{i}=\sigma \left(\boldsymbol{W}\times \mathrm{W}\mathrm{o}\mathrm{r}{\mathrm{d}}_{i:i+h-1}^{\left(\cdot \right)}+b\right) $ | (4) |
其中:
$ \hat{\boldsymbol{e}}=\mathrm{ }\mathrm{m}\mathrm{a}\mathrm{x}\left(\boldsymbol{e}\right) $ | (5) |
在卷积层中设置不同大小的卷积核,每种卷积核的数量为
对于谣言事件相关的信息
$ {a}_{ij}=\left\{\begin{array}{l}1, {a}_{ij}\in E\\ 0, \mathrm{其}\mathrm{他}\end{array}\right. $ | (6) |
![]() |
Download:
|
图 5 微博文本传播图 Fig. 5 Weibo text spread graph |
利用图卷积神经网络[19]学习传播特征,将微博特征矩阵
$ \mathrm{C}\mathrm{o}\mathrm{n}{\mathrm{v}}_{x}=\sigma \left({\hat{\boldsymbol{D}}}^{-\frac{1}{2}}\hat{\boldsymbol{A}}{\hat{\boldsymbol{D}}}^{-\frac{1}{2}}\boldsymbol{M}\boldsymbol{\theta }\right) $ | (7) |
其中:
源谣言相关的信息用
如图 6所示,图中节点
![]() |
Download:
|
图 6 用户传播图 Fig. 6 User communication graph |
在转发序列构成的用户传播图中,从该网络中学习得到序列中所有用户的嵌入表示:
$ {s}_{ij}=\mathrm{L}\mathrm{e}\mathrm{a}\mathrm{k}\mathrm{y}\mathrm{R}\mathrm{e}\mathrm{L}\mathrm{U}({\overrightarrow{\boldsymbol{a}}}^{\mathrm{T}}\left[\boldsymbol{W}\overrightarrow{{\boldsymbol{u}}_{i}}|\left|\boldsymbol{W}\overrightarrow{{\boldsymbol{u}}_{j}}\right|\right) $ | (8) |
其中:
$ {e}_{ij}=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({s}_{ij}\right)=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left({s}_{ij}\right)}{\sum\limits _{k\in {N}_{i}}\mathrm{e}\mathrm{x}\mathrm{p}\left({s}_{ik}\right)} $ | (9) |
$ \overrightarrow{{\boldsymbol{u}}_{i}}=\sigma \left(\sum\limits _{j\in {N}_{i}}{e}_{ij}{}_{}\boldsymbol{W}\overrightarrow{{\boldsymbol{u}}_{j}}\right) $ | (10) |
其中
上文计算只考虑了在转发关系路径中直接转发用户的影响关系,而社交网络十分复杂,在一个真实的社交网络转发序列中,未直接转发的用户(其他用户作为中间节点,间接转发)之间存在一种传递影响力,即存在一种多跳的潜在关系,这种影响力是用户信息中很重要的一部分。
通过相关性矩阵
$ {s}_{ij}^{\mathrm{\text{'}}}=\sum\limits _{C}{s}_{ic}\times {s}_{cj} $ | (11) |
其中:c表示节点
$ {e}_{ij}^{'}=\mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({s}_{ij}^{'}\right) $ | (12) |
$ {\overrightarrow{\boldsymbol{u}}}_{i}^{'}=\sigma \left(\sum\limits _{j\in {N}_{i}}{e}_{ij}^{'}{}_{}\boldsymbol{W}\overrightarrow{{\boldsymbol{u}}_{j}}\right) $ | (13) |
其中:W为可学习的参数矩阵;
$ {\boldsymbol{u}}_{\boldsymbol{i}}^{″}=\mathrm{c}\mathrm{o}\mathrm{n}\mathrm{c}\mathrm{a}\mathrm{t}\left({\overrightarrow{\boldsymbol{u}}}_{i}^{'}, {\overrightarrow{\boldsymbol{u}}}_{i}\right) $ | (14) |
基于多传递影响力的谣言检测方法如图 7所示。模型由2个部分组成:1)在文本特征学习模块,首先学习谣言文本词嵌入,通过多头注意力机制和卷积神经网络提取句子级别特征,通过图卷积神经网络学习文本结构信息最终得到节点的文本特征
![]() |
Download:
|
图 7 基于多传递影响力的谣言检测 Fig. 7 Rumor detection based on multi-transmit influence model |
最后将两部分特征进行拼接得到最终的分类特征
$ {\hat{y}}_{i}\left(\mathrm{c}\mathrm{l}\mathrm{a}\mathrm{s}\mathrm{s}|{\overrightarrow{\boldsymbol{u}}}_{\boldsymbol{i}}^{\boldsymbol{l}}, {m}_{i};\boldsymbol{\theta }\right) = \mathrm{s}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left({\boldsymbol{W}}^{T}[{m}_{i};{\overrightarrow{\boldsymbol{u}}}_{\boldsymbol{i}}^{"}]+b\right) $ | (15) |
其中
$ L\left(\mathrm{c}\mathrm{l}\mathrm{a}\mathrm{s}{\mathrm{s}}^{\left(i\right)}|\boldsymbol{\theta }\right)= -\sum\limits _{i}{y}_{i}\mathrm{l}\mathrm{o}{\mathrm{g}}_{\mathrm{a}}{\hat{y}}_{i}\left(\mathrm{c}\mathrm{l}\mathrm{a}\mathrm{s}\mathrm{s}\right|{\overrightarrow{\boldsymbol{u}}}_{\boldsymbol{i}}^{"}, {m}_{i};\boldsymbol{\theta }) $ | (16) |
本文实验采用3个真实社交媒体公共数据集,分别是Weibo谣言数据集[11]、Twitter15谣言数据集[17]和Twitter16谣言数据集[17]。Weibo数据集包含两类标签:谣言(Falserumor)和非谣言(Non-rumors),分别是2 351条和2 313条。Twitter15和Twitter16数据集包含4类标签,即谣言(FalseRumor,FR)、非谣言(Non-Rumors,NR)、未经核实的谣言(Un-verified Rumors,UR)和辟谣的谣言(True Rumors,TR),数据集内容如表 1所示。
![]() |
下载CSV 表 1 实验中使用的数据集 Table 1 Datasets used in the experiment |
为了验证本文提出的基于多传递影响力的谣言检测方法(MTI)的有效性,选用近年来在谣言检测任务中表现优越的模型作为对比模型与本文模型进行实验对比。
1)DTC[3]:采用决策树分类算法,利用虚假消息特征进行建模,判定数据集信息的真实性。
2)SVM-RBF[5]:采用带有RBF核的支持向量机模型算法,利用虚假消息特征进行建模,判定数据集信息的真实性。
3)SVM-TS[9]:一种线性的基于支持向量机(SVM)的分类模型,采用时间序列为虚假信息的社会情境特征变化进行建模。
4)DTR[20]:一种基于决策树(Decision Tree,DT)的算法,通过搜索判别一些有争议性的言论来识别虚假信息。
5)GRU-RNN[11]:一种基于循环神经网络的方法,通过学习随时间变化的评论特征来进行虚假信息检测。
6)PTK[21]:采用基于传播树核的方式,通过将消息传播构建为树型结构,利用支持向量机分类算法来进行虚假信息检测。
7)RvNN[16]:一种基于递归神经网络的虚假消息识别模型,通过捕获自下而上和自上而下的树结构信息实现虚假消息检测。
8)RFC[4]:一种利用随机森林(Random Forest,RF)算法构建的分类模型,采用用户、语言和结构等特征实现虚假消息检测。
9)PPC_RNN+CNN[17]:基于传播路径的虚假信息检测模型,使用了RNN和CNN来联合捕获用户特征的全局和局部信息。
10)MTI(ours):本文提出的基于多传递影响力的谣言检测方法。
本文选用准确率(Accuracy)和F1评测值作为检测模型性能的评价指标,具体公式如式(17)和式(18)所示:
$ {A}_{\mathrm{A}\mathrm{c}\mathrm{c}\mathrm{u}\mathrm{r}\mathrm{a}\mathrm{c}\mathrm{y}}=\frac{{T}_{\mathrm{T}\mathrm{P}}+{T}_{\mathrm{T}\mathrm{N}}}{{T}_{\mathrm{T}\mathrm{P}}+{T}_{\mathrm{T}\mathrm{N}}+{F}_{\mathrm{F}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{N}}} $ | (17) |
$ \mathrm{F}1=\frac{2·{T}_{\mathrm{T}\mathrm{P}}}{2·{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{N}}} $ | (18) |
其中:TTP表示正例预测为正例;FFN表示正例错分为负例;TTN表示负例预测为负例;FFP表示负例错分为正例。
3.3 实验设置在本文实验中,使用的编程语言为Python,运用深度学习框架Pytorch实现提出的模型架构,版本为1.2.0。采用Adam[22-23]算法进行参数更新,参数设置β1和β2分别为0.9和0.999,学习率初始化为1e-3。使用Word2Vec中的Skip-Gram网络训练得到词嵌入向量,维度为300维。在文本特征学习模块中,多头自注意力机制设置K为8,即在8个部分各自进行自注意力学习。卷积层设置一维卷积核的大小为[3, 4, 5],每种卷积核的个数为100个。在节点用户信息表示中,将节点的用户信息初始化为300维,将训练的批量大小设置为64,dropout为0.5。
3.4 结果分析 3.4.1 对比实验在Twitter15和Twitter16两个数据集上的实验结果如表 2和表 3所示。Twitter15和Twitter16都包含了4个类别,对于每个类别列出了各模型F1指标。
![]() |
下载CSV 表 2 Twitter15数据集实验结果 Table 2 Twitter15 dataset experimental results |
![]() |
下载CSV 表 3 Twitter16数据集实验结果 Table 3 Twitter16 dataset experimental results |
在Weibo数据集上的对比实验结果如表 4所示,分别给出了正负两类样本的准确率、召回率和F1值。
![]() |
下载CSV 表 4 Weibo数据集实验结果 Table 4 Weibo dataset experimental results |
实验结果分析如下:
1)对比表 2~表 4所有的模型可以看出,包括RvNN、GRU-RNN、PPC_RNN+CNN等在内的深度学习方法在各项评测指标上都优于基于人工构造特征的传统机器学习方法。在传统的人工特征方法中,决策树DT-RANK(DTR)的效果很不理想,这是因为DTR通过将谣言的信号特征的正则表达式匹配来进行谣言检测任务,这些正则表达式与上述数据集中所能匹配的数据非常少。SVM-TS模型的结果在基于人工特征的方法中效果较好,一方面是因为SVM模型本身具有比较良好的泛化能力,可以适用于复杂的数据集,另一方面在SVM-TS模型中加入了微博事件在时间变换下的不同特征,因此使得检验性能提高。深度学习的方法表现出的优势很大,这是十分正常的现象,因为基于人工构造的特征,其局限较大,依赖于经验以及受人的主观性影响较大,对数据感知并不敏感,相比之下,RvNN、PPC_RNN+CNN以及本文模型等深度学习算法能够自动地学习到针对虚假信息检测任务的文本的高级语义表示,从而能够提取到更有效的特征。
2)相比于现有的各种方法,本文方法MTI在各项指标上均有明显提升。具体来讲,在Twitter15数据集上,相比于表现最好的PPC_RNN+CNN,本文模型在精准率上提高了6.9%,4个不同类别的F1值也都有较大的提升,分别为:NR类别提升了13%,FR类别提升了4.2%,TR类别提升了9.5%,UR类别提高了7.8%;在Twitter16数据集上,模型在准确率上提高了3.4%,各类别的F1值也都有提升;在Weibo数据集上,模型相比PPC_RNN+CNN在精准率上高出2.8%。
3)PTK和RvNN两种方法都依赖于从传播树结构中提取特征,效果优于其他线性结构方法,相比于RvNN,本文模型在Weibo数据集的准确率值指标上有3.6%的提升,在两个不同类别的F1值上也有明显提升,这表明了利用图神经网络捕获文本结构影响力的有效性。RvNN使用树型传播结构对虚假信息的传播过程进行建模,但是这种方法忽略了消息传播是一个广泛而分散的图结构而非树型结构,因此丢失了许多结构信息。本文方法在得到微博句子级别向量后,将每条微博看作节点,利用转发关系进行构图,利用图神经网络学习传播过程中的结构影响力,得到更精细的特征,从而获得更好的谣言检测效果。
4)在3个不同的数据集上,本文方法在准确率、召回率、F1值在内的各项指标上都优于PCC_RNN+CNN模型,在Twitter15数据集上,本文方法准确率高达6.9%,优于PPC_RNN+CNN,在Twitter16和Weibo数据集上也分别有3.4%和2.8%的提升。因为PPC_RNN+CNN是利用一个时间序列上的节点向量来表示传播消息的用户特征,然而消息在传播过程中不仅相邻用户存在影响力,未直接转发或评论的用户也存在间接的影响力,PPC_RNN+CNN不能捕获这些影响力特征。本文方法通过构造能够学习不同维度的用户结构影响力,从而丰富了用户信息,使得检测精度有所提高。
3.4.2 参数分析鉴于谣言数据中文本信息至关重要,本节将在文本特征提取过程中的卷积层部分进行一些不同的超参数设置,分别采用不同大小的卷积核验证是否影响模型的性能,实验结果如图 8所示。
![]() |
Download:
|
图 8 不同卷积核对精度的影响 Fig. 8 The impact of different convolution kernels on accuracy |
从图 8(a)可以看出,当卷积核设置为单核时,主要捕获单字特征,这将遗失很多信息,随着设置的卷积核增大,性能也逐渐变好,峰值为3、4、5左右,之后又继续下降。图 8(b)采取的是将不同大小的卷积核进行组合的实验,实验结果表明不同大小卷积核进行组合相较于单一的卷积核性能更加优越;对比几组不同的卷积核组合,使用卷积核组合为(3,4,5)时模型性能最优,比单卷积核最佳性能要高出2个百分点,这表明不同大小卷积核的组合能捕获不同长度词语更加独特的语义信息,丰富了微博句子级别的信息表示。
3.4.3 早期检测分析早期的谣言检测任务至关重要,因为可以更及时有效地进行预警。早期检测区别于直接检测问题,需要更快地预测谣言的真实性。本文设置一系列的检测时间点,通过只使用在检测时间点之前的相关微博来评估所提出方法的有效性。实验结果如图 9所示,利用检测精度随着时间变化的曲线进行评估,横坐标表示源谣言信息出现之后的时间,设置的时间点为源消息发布后的0、4、8、12个小时,有效性则是通过准确度衡量。
![]() |
Download:
|
图 9 早期检测结果 Fig. 9 Early detection results |
从图 9可以看出,本文模型相比于其他基线模型,在Weibo和Twitter15、Twitter16数据集上不同截止时间点都有优异的表现。
DTR、GRU都是通过从用户评论中获取语义信息,但是DTR性能很差,这是因为在早期数据量较小的情况下,DTR可以构造的特征不够丰富,GRU能够自动获取数据中更深层的语义信息,结果优于DTR,PTK则是通过传播树结构捕获语义信息和传播结构信息,因此效果更好。所以,在传播的早期阶段,如果利用包括用户信息在内的各类信息,捕获到越多的信息会更利于检测的准确度,但是早期阶段很难获取大规模用户信息,因此本文模型通过转发结构对其进行学习,在最早的检测时间点,能够很快达到优于其他方法的性能,在Twitter15数据集上的准确率达到56%,在Twitter16数据集上的准确率达到54%,在Weibo数据集上达到93%。在之后的时间点内,本文模型准确率提升最快,能够最早达到最佳性能,这验证了本文模型以传播结构学习用户信息的有效性。同PPC_RNN+CNN方法相比,伴随着时间的增长,结构信息也会更复杂,本文模型学习到的用户传递影响力会变得更丰富,更有利于性能的提升,结果比PPC_RNN+CNN更优秀。上述实验证明了本文模型在面对复杂的语义信息时具有相对较好的稳定性和鲁棒性。因此,基于多传递影响力的谣言检测方法不仅在谣言的长期检测任务中有效,在早期检测中同样有效。
4 结束语为提升社交媒体谣言检测精准度,本文提出一种基于多传递影响力的谣言检测方法。利用源微博和对应转发(评论)之间的传播结构关系,构建文本信息传播图和用户影响力传播图,通过图卷积神经网络捕获文本传播特征和用户节点传递影响力特征,最后将不同维度的节点信息融合,有效学习文本内容特征和用户特征,同时利用转发关系对用户节点进行构图,避免使用大规模的用户信息,对于早期检测更为有利。在3个真实数据集上的实验结果表明,本文方法具有比其他基线方法更高的谣言检测性能,并且在谣言的早期传播阶段具有良好的检测效果。本文探索了用户传递影响力在谣言检测中的作用,后续将研究更高阶用户节点信息对于检测模型性能的影响,进一步提升谣言检测精度。
[1] |
高玉君, 梁刚, 蒋方婷, 等. 社会网络谣言检测综述[J]. 电子学报, 2020, 48(7): 1421-1435. GAO Y J, LIANG G, JIANG F T, et al. Social network rumor detection: a survey[J]. Acta Electronica Sinica, 2020, 48(7): 1421-1435. (in Chinese) DOI:10.3969/j.issn.0372-2112.2020.07.023 |
[2] |
ALLCOTT H, GENTZKOW M. Social media and fake news in the 2016 election[J]. Journal of Economic Perspectives, 2017, 31(2): 211-236. DOI:10.1257/jep.31.2.211 |
[3] |
CASTILLO C, MENDOZA M, POBLETE B. Information credibility on twitter[C]//Proceedings of the 20th International Conference on World Wide Web. New York, USA: ACM Press, 2011: 675-684.
|
[4] |
KWON S, CHA M, JUNG K, et al. Prominent features of rumor propagation in online social media[C]//Proceedings of the 13th IEEE International Conference on Data Mining. Washington D. C., USA: IEEE Press, 2013: 1103-1108.
|
[5] |
YANG F, LIU Y, YU X H, et al. Automatic detection of rumor on sinaweibo[C]//Proceedings of ACM SIGKDD Workshop on Mining Data Semantics. New York, USA: ACM Press, 2012: 1-7.
|
[6] |
JIN Z W, CAO J, ZHANG Y D, et al. Novel visual and statistical image features for microblogs news verification[J]. IEEE Transactions on Multimedia, 2017, 19(3): 598-608. DOI:10.1109/TMM.2016.2617078 |
[7] |
马鸣, 刘云, 刘地军, 等. 基于主题和预防模型的微博谣言检测[J]. 北京理工大学学报, 2020, 40(3): 310-315. MA M, LIU Y, LIU D J, et al. Rumor detection in microblogs based on topic and prevention model[J]. Transactions of Beijing Institute of Technology, 2020, 40(3): 310-315. (in Chinese) |
[8] |
段大高, 盖新新, 韩忠明, 等. 基于梯度提升决策树的微博虚假消息检测[J]. 计算机应用, 2018, 38(2): 410-414, 420. DUAN D G, GAI X X, HAN Z M, et al. Micro-blog misinformation detection based on gradient boost decision tree[J]. Journal of Computer Applications, 2018, 38(2): 410-414, 420. (in Chinese) DOI:10.3969/j.issn.1001-3695.2018.02.020 |
[9] |
MA J, GAO W, WEI Z Y, et al. Detect rumors using time series of social context information on microblogging websites[C]//Proceedings of the 24th ACM International Conference on Information and Knowledge Management. New York, USA: ACM Press, 2015: 1751-1754.
|
[10] |
何力, 郑灶贤, 项凤涛, 等. 基于深度学习的文本分类技术研究进展[J]. 计算机工程, 2021, 47(2): 1-11. HE L, ZHENG Z X, XIANG F T, et al. Research progress of text classification technology based on deep learning[J]. Computer Engineering, 2021, 47(2): 1-11. (in Chinese) |
[11] |
MA J, GAO W, MITRA P, et al. Detecting rumors from microblogs with recurrent neural networks[J]. Artificial Intelligence 2016, 16(8): 3818-3824.
|
[12] |
陶霄, 朱焱, 李春平. 基于注意力和多模态混合融合的谣言检测方法[J]. 计算机工程, 2021, 47(12): 71-77. TAO X, ZHU Y, LI C P. Rumor detection method based on attention and multi-modal hybrid fusion[J]. Computer Engineering, 2021, 47(12): 71-77. (in Chinese) |
[13] |
CHEN T, LI X, YIN H Z, et al. Call attention to rumors: deep attention based recurrent neural networks for early rumor detection[C]//Proceedings of Workshop on Trends and Applications in Knowledge Discovery and Data Mining. Berlin, Germany: Springer, 2018: 40-52.
|
[14] |
潘德宇, 宋玉蓉, 宋波. 一种新的考虑注意力机制的微博谣言检测模型[J]. 小型微型计算机系统, 2021, 42(2): 348-353. PAN D Y, SONG Y R, SONG B. New microblog rumor detection model based on attention mechanism[J]. Journal of Chinese Computer Systems, 2021, 42(2): 348-353. (in Chinese) |
[15] |
李奥, 但志平, 董方敏, 等. 基于改进生成对抗网络的谣言检测方法[J]. 中文信息学报, 2020, 34(9): 78-88. LI A, DAN Z P, DONG F M, et al. An improved generative adversarial network for rumor detection[J]. Journal of Chinese Information Processing, 2020, 34(9): 78-88. (in Chinese) |
[16] |
MA J, GAO W, WONG K F. Detect rumors on twitter by promoting information campaigns with generative adversarial learning[C]//Proceedings of World Wide Web Conference. Washington D. C. USA: IEEE Press, 2019: 3049-3055.
|
[17] |
MA J, GAO W, WONG K F. Rumor detection on twitter with tree-structured recursive neural networks[C]//Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Washington D. C., USA: IEEE Press, 2018: 2074-2085.
|
[18] |
LIU Y, WU Y F. Early detection of fake news on social media through propagation path classification with recurrent and convolutional networks[C]//Proceedings of AAAI Conference on Artificial Intelligence. New York, USA: AAAI Press, 2018: 354-361.
|
[19] |
MIKOLOV T, CHEN K, CORRADO G, et al. Efficient estimation of word representations in vector space[EB/OL]. [2021-04-01]. https://arxiv.org/abs/1301.3781.
|
[20] |
KIPF T N, WELLING M. Semi-supervised classification with graph convolutional networks[EB/OL]. [2021-04-01]. https://arxiv.org/abs/1609.02907.
|
[21] |
ZHAO Z, RESNICK P, MEI Q Z. Enquiring minds: early detection of rumors in social media from enquiry posts[C]//Proceedings of the 24th International Conference on World Wide Web. Washington D. C. USA: IEEE Press, 2015: 1395-1405.
|
[22] |
MA J, GAO W, WONG K F. Detect rumors in microblog posts using propagation structure via kernel learning[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Washington D. C. USA: IEEE Press, 2017: 161-171.
|
[23] |
KINGMA D, BA J. Adam: a method for stochastic optimization[EB/OL]. [2021-04-01]. https://arxiv.org/pdf/1412.6980.pdf.
|