«上一篇 下一篇»
  计算机工程  2019, Vol. 45 Issue (10): 293-300  DOI: 10.19678/j.issn.1000-3428.0052714
0

引用本文  

张璐. 虚假商品评论识别的研究与进展[J]. 计算机工程, 2019, 45(10), 293-300. DOI: 10.19678/j.issn.1000-3428.0052714.
ZHANG Lu. Research and Progress of Fake Product Review Identification[J]. Computer Engineering, 2019, 45(10), 293-300. DOI: 10.19678/j.issn.1000-3428.0052714.

基金项目

国家重点研发计划(2018YFD0401404);国家自然科学基金(71801123,91646204)

作者简介

张璐(1983-), 男, 讲师、博士, 主研方向为数据挖掘、网络空间安全

文章历史

收稿日期:2018-09-20
修回日期:2018-10-22
虚假商品评论识别的研究与进展
张璐     
南京财经大学 信息工程学院, 南京 210046
摘要:受经济利益驱使,大量恶意用户发布包含不实内容的虚假评论以影响用户的购买决策,从而提高自身商品的销售业绩并打压竞争对手,严重扰乱电子商务运营秩序。为此,介绍虚假评论识别的研究成果,包括虚假评论内容、发布者及虚假评论者群组的识别,对识别过程所使用的特征及检测方法进行对比分析,并给出虚假评论识别效果的评价方式和指标。在此基础上,对未来虚假评论识别研究工作进行探讨和展望。
关键词虚假评论    恶意用户    群组检测    机器学习    评价指标    
Research and Progress of Fake Product Review Identification
ZHANG Lu     
College of Information Engineering, Nanjing University of Finance and Economics, Nanjing 210046, China
Abstract: Driven by economic interests, a large number of malicious users publish false comments containing untrue content to influence users' purchasing decisions, thereby promoting the sale of their own products or suppressing competitors, seriously disrupting the order of e-commerce operations.Therefore, the paper introduces fake commodity reviews research result, including the identification of false reviews, publishers, and groups of fake reviewers, analyzes and compares the features and detection methods used, and gives the evaluation method and indicators of false comment recognition effect.On this basis, the future research on false comment recognition is discussed and prospected.
Key words: fake review    malicious users    group detection    machine learning    evaluation indicator    
0 概述

近年来, 随着电子商务和Web 2.0的快速发展, 在线商品评论已成为消费者在选择、购买产品或服务时的重要参考依据[1]。在经济利益的驱使下, 以广告和营销为主要目标的恶意用户日益活跃, 通过发布或转发包含虚假内容的商品评论, 影响用户的购买决策, 从而推动自身商品的销售或打压竞争对手[2]。这些虚假内容称为虚假评论, 包含对产品或服务不合实情的吹捧或诽谤。一直以来, 各类在线交易平台是虚假评论发布的主要场所, 据媒体报道, 亚马逊网站曾被发现超过30%的评论疑似付费购买的虚假评论[3], 苹果App Store中虚假评论的占比高达55%[4]。随着社会化商务的发展, 虚假评论也蔓延到第三方点评网站、社交网络等社会化媒体中。例如, 大众点评、Yelp等点评类网站中超过6%的评论为虚假评论[5-6]。文献[7]的研究表明, 8%的Twitter消息中包含有指向广告、营销、钓鱼等恶意内容的重定向链接。虚假评论造成的巨大危害以及不断进化蔓延的趋势, 使其识别问题成为国内外学者广泛关注的热点。

本文介绍电子商务网站及各种社会化媒体中虚假商品评论识别的研究进展。对于识别对象, 既包含虚假评论也包含虚假评论的发布者(下文称之为虚假评论者), 由于两者的识别方法相似, 且彼此间具有相辅相成的关系, 因此本文描述虚假评论及其发布者的识别方法, 对虚假评论者群组的识别工作进行阐述。在此基础上, 总结验证虚假评论识别效果的评价方式和指标, 并就未来的研究方向进行展望。

1 虚假评论及其发布者识别

针对虚假评论内容及其发布者的识别, 当前主流的研究思路是定义具有高区分度的评论特征或评论者行为特征, 将评论或评论者表达为特征空间中的向量, 然后通过构建分类器判定未知评论或评论者正常或虚假。因此, 虚假评论及其发布者的识别问题通常可建模为二分类问题, 即给定待识别对象o={f1, f2, …, fn}, 设计检测算法Φ使得:

$ \mathit{\Phi }(o) \to \{ 0, 1\} $ (1)

其中, o表示待识别的评论或评论者, f表示识别对象的特征, 0和1代表识别结果(正常和虚假)。由此可见, 识别工作的关键在于评论或评论者特征的构建, 以及具体检测算法的设计。

1.1 特征构建

文献[8]提出商品虚假评论及其发布者的识别问题, 由于构造虚假评论较费时间和精力, 评论者倾向于复制自己或其他人的评论。因此, 若一个用户所发布的评论中包含大量相同或相似的内容, 其很可能是一个虚假评论者, 而其发布的重复评论则是虚假评论, 评论重复率成为最初识别虚假评论及其发布者的特征。在此之后, 多数研究主要探索能够准确识别虚假评论及其发布者的特征, 所构造出的特征主要分为评论内容的文本特征、评论者行为特征及网络拓扑特征3类。

在评论内容方面, 在文献[8]基础上, 研究者设计更加精密的重复率指标作为特征, 如:文献[9]将同一用户所有评论间的平均余弦相似度作为特征检测虚假评论者; 文献[10]利用评论平均长度和评论间的最大余弦相似度作为特征识别虚假评论者。此外, 评论内容文本的自然语言信息, 包括词袋词频[11]、词性[12]以及利用LIWC工具统计的各种文体特征[13]等也被用来构造评论内容的文本特征, 如:文献[14]根据评论文本内容设计出多种语言层面的特征, 如第一人称代词占比、大写单词占比、评论长度等。

在评论者行为方面, 多数研究考虑从评论者对商品的评分角度构造特征[15], 如评分方差[9]、评分极端性[16]等。此外, 发布评论的时间分布也是重要的行为特征。比如, 由于商品的口碑主要由早期评论决定, 若一个用户大量发布早期评论, 那么该用户为虚假评论者的概率就很高, 因此, 文献[17]利用评论特征ETF对评论者行为进行描述, 如式(2)所示。

$ \mathit{ETF}\left( {{r_u}, p} \right) = \left\{ {\begin{array}{*{20}{l}} {0, L(a, p) - A(P) > \delta }\\ {1 - \frac{{L(a, p) - A(p)}}{\delta }, 其他} \end{array}} \right. $ (2)

其中, p表示被评论的商品, ru表示用户u针对商品p的评论, L(a, p)表示评论ru的发布时间, A(p)表示商品p的上架时间, δ为阈值。另一个与时间分布密切相关的特征是评论突发性BST, 其定义如式(3)所示。

$ BST(u) = \left\{ {\begin{array}{*{20}{l}} {0, L(a) - F(u) > \tau }\\ {1 - \frac{{L(u) - F(u)}}{\tau }, 其他} \end{array}} \right. $ (3)

其中, u表示评论者, L(u)-F(u)表示u最近与最早评论间间隔的时间, τ表示阈值。评论突发性特征用来描述某评论者所发布的评论是否集中突发在较短的时间段内, 评论越集中, 发布者为虚假评论者的概率越高。除上述较为通用的行为特征外, 部分针对特定平台的特征也被用来检测其中包含的虚假评论及其发布者, 如亚马逊网站会显式标注发布某条评论的用户是否购买了对应的商品, 因此购买确认率可用于亚马逊中虚假评论者的检测[18]。除此之外, 社交特征如用户的好友数、关注数、转发率等[19], 或一些社交平台特有的特征如“@”频率、Hashtag等[7], 以及部分结合时间因素的特征, 如特定时间段内的发布数、转发数[20]和API的调用频率[21]等, 也被广泛用于社会化媒体中虚假评论及其发布者的识别。

在网络拓扑特征方面, 首先利用用户间的社交关系, 如关注、点赞、好友等, 或共同购买、共同评论关系等构造评论或评论者间的异构关系网络, 从中抽取拓扑结构相关的特征, 如节点度数、中心度、三角计数等, 用于虚假评论及其发布者的识别[22]。网络拓扑特征本质上刻画了网络中节点的重要程度, 而虚假评论或评论者在网络中较普通节点(正常评论或评论者)更加重要, 如具有更高的连通性、中心度, 更强的影响力等, 因此拓扑特征能够较好地描述虚假评论或评论者节点, 并与普通节点间具有较高的区分度。然而, 拓扑特征构造的复杂性导致其难以独立承担虚假评论及其发布者的识别工作, 因此一般与评论内容文本特征或评论者行为特征相结合, 共同构建商品评论及其发布者的特征空间。

表 1总结了已有的虚假评论及其发布者识别所使用的3类特征, 分别给出了特征的名称、极性、描述、来源文献、识别对象等。其中, 极性表示特征值越高(H)或越低(L), 相应的评论或评论者虚假的概率越高, “—”表示无法获取文本特征的极性。

下载CSV 表 1 虚假评论及其发布者识别所使用的特征信息
1.2 检测算法设计

在特征定义的基础上, 设计检测算法的本质是如何训练分类器, 利用评论或评论者的特征识别出虚假评论及评论者。由于很多分类器会给出待分类对象属于某类别的概率, 因此分类问题可转换为排序问题, 即根据分类器给出的评论或评论者虚假的概率排序生成列表, 判定列表中预设阈值之前的评论或评论者虚假。已有的检测算法大多基于机器学习算法设计, 根据对先验知识的使用程度, 可分为监督学习、无监督学习以及半监督学习3类。

监督学习使用标记数据(标注了正常或虚假的评论或评论者)训练分类器, 已有的基于监督学习的检测算法大多直接采用成熟的分类模型进行设计, 如朴素贝叶斯模型、决策树、支持向量机、逻辑回归、随机森林等。比如:文献[8]针对不同类型的虚假评论识别问题, 分别使用朴素贝叶斯、支持向量机、逻辑回归等模型将评论分类为正常评论和虚假评论; 文献[12]使用众包平台对可疑评论进行标记, 然后识别出标记为虚假的评论中的高频词, 再训练基于支持向量机的分类器进行虚假评论的检测; 文献[22]针对动态社会网络中的异常用户, 基于用户关系有向图定义一系列拓扑特征, 包括K核、PageRank分值、三角计数等, 在此基础上, 建立n-gram序列特征, 然后结合多种分类器进行序列分类, 从而识别虚假评论者。

基于无监督学习的检测算法无需利用有标记数据, 可通过计算评论或评论者可疑性的分值描述其虚假的概率, 然后对可疑性进行排序, 以识别虚假评论或评论者。如文献[23]直接利用评分作为行为特征建立向量并将用户聚类为若干类簇, 然后根据矩阵分解得到的特征值对用户进行排序, 挑选每个类簇中评分方差最大的用户判定为虚假评论者。无监督排序算法则以图或网络为基础, 其基本思路是构建包含评论者、评论、商品三种类型顶点的三部图, 然后将虚假评论或评论者的识别问题转化为网络分类问题, 并设计出一系列基于图的检测算法。如:文献[24-25]为评论者-评论-商品三部图中的每个顶点附加相应的分值, 以描述评论者可信度、评论真实性或商品被攻击的程度, 然后依据三部图在评论者、评论、商品间定义上述分值的协同计算方法, 利用类似HITS的图排序算法对分值进行迭代计算, 最后依据分值识别虚假评论者、虚假评论以及被攻击的商品; 文献[26]利用表 1中的DEV、NR、ETF、BST、RES、PP1、ACS、MCS等特征建立连接评论的异构信息网络, 再利用异构信息网络分类算法计算评论为虚假评论的概率。

上述两类检测算法中, 监督学习依赖于标记样本, 而在实际应用中, 高比例的标记样本较难获取, 同时, 监督学习也无法利用无标记样本的统计信息; 另一方面, 无监督学习忽略了少量标记样本, 因此, 能够充分利用少量标记样本和大量无标记样本统计信息的半监督学习算法[27]受到广泛关注。如:文献[28]利用朴素贝叶斯模型和期望最大化(Expectation Maximization, EM)算法设计一种半监督检测器, 用于识别利用虚假评分迷惑推荐系统的托攻击行为; 文献[29]利用少量虚假评论建立训练集, 提出一种基于正例样本与无标记样本的半监督PU学习算法(Positive and Unlabeled Learning, PUL)进行虚假评论的检测。

文献[30-32]依据评论关系网络中邻居应尽量相近的原则, 定义点对之间标记一致或相异的效用函数, 利用马尔科夫随机场(Markov Random Field, MRF)建立融合关系网络与评论者行为特征的概率模型, 将用户为虚假评论者的概率描述为自身行为特征与邻居关系的联合概率, 然后根据所使用的训练样本灵活选择监督或半监督方式学习模型参数。假设y为待识别对象的标签(取0或1, 表示正常或虚假), yi表示第i个邻居的标签, 式(4)给出概率模型的数学表达。

$ \Pr (y) \propto \prod\limits_i {{\varphi _i}} \left( {{y_i}} \right)\prod\limits_{i, j} {{\varphi _{ij}}} \left( {{y_i}, {y_j}} \right) $ (4)

其中, φ表示MRF中的势函数, φi(yi)由对应的评论者特征决定, φij(yi, yj)则由关系网络中的边决定。势函数通常需根据具体的数据分布或假设进行定义, 如文献[30]中φi(yi)建模为贝叶斯评估, φij(yi, yj)建模为指数函数; 而文献[32]中φi(yi)建模为逻辑回归, φij(yi, yj)建模为伯努利分布。模型参数的学习以最大化式(4)中的Pr(y)为目标, 能够根据训练集中数据的标记情况灵活选择监督学习[30-31]或半监督学习方式[16, 32]

2 虚假评论者群组识别

虚假评论者群组包含一群通过虚假评论共同推动或打压目标商品销量的评论者。由于虚假评论者群组能够使用较多账号对目标商品进行评论, 往往能够完全控制对商品的评价, 危害性更大, 且通过有组织地开展虚假评论, 群组成员较单个虚假评论者表现出更加细微的行为异常, 更加难以检测[33-34]。因此, 对虚假评论者群组的检测受到研究者的关注[35-36]

对虚假评论者群组检测首先需构建具有区分度的群组特征。由于群组是由多个评论者个体所组成, 因此通常可通过扩展单个评论者的行为特征定义群组特征, 包括对群组中个体特征取均值、最大值、最小值等。以表 1中的早期评论特征ETF为例, 可以定义群组发布早期评论的特征GETF为:

$ GETF(g) = \begin{array}{*{20}{c}} {\max }\\ {u \in g, p \in {P_g}} \end{array}\left( {ETF\left( {{r_u}, p} \right)} \right) $ (5)

其中, g表示群组, Pg表示群组中成员所评论商品的集合, 其他符号的定义与式(2)相同。类似地, 表 1中的BST、ARD、WRD、ACS等特征也可以通过这种方式扩展为群组特征。

在虚假评论者群组检测算法方面, 大部分已有工作一般将检测过程分为2个阶段:评论者群组的提取以及虚假评论者群组的识别。评论者群组提取阶段主要根据多种共现关系挖掘出多个共同评论特定商品的评论者集合, 频繁模式挖掘是这一阶段所采用的主流方法[33-35]。由于群组是一组多次共同针对不同目标商品发布评论的用户, 其中每一组共同评论某一商品的用户可视为关联规则中的一条事务, 从而将群组提取转化为从多个事务中挖掘多次出现的用户组合, 相当于从事务集中挖掘频繁模式。虽然利用频繁模式挖掘评论者群组的方法简单易行, 但也存在支持度阈值难以设定、无法提取松耦合群组等局限性。针对上述问题, 很多研究者另辟蹊径, 如文献[36]建立评论者-商品二部图并通过寻找图中的强联通分量提取评论者群组, 文献[37]通过评论数量的双峰分布与共同突发性建立评论者关系网络并聚类得到群组。然而, 第1阶段提取出的群组中既包含虚假评论者群组, 也包含由于某些特殊原因偶然形成的群组(如共同的兴趣爱好, 同时购买流行商品等)。因此, 还需从中进一步识别出真正的虚假评论者群组。目前, 虚假评论者群组识别阶段的方法大致可分为3类:

1) 利用群组特征, 通过分类或聚类算法识别虚假评论者群组, 如文献[34]运用改进的KNN算法, 选择K个最相似邻居通过投票机制识别虚假评论者群组, 文献[38]利用群组网络结构特征, 基于2-hop子图发现群组成员的反常行为并运用层次聚类方法识别虚假评论者群组。

2) 利用关联关系, 设计排序算法对群组为虚假评论者群组的可疑程度进行排序, 可疑度高的判定为虚假评论者群组, 如文献[33]建立群组-评论者、评论者-商品、商品-群组3种关联关系, 然后利用类似PageRank的图排序算法计算群组可疑度。

3) 提取群组特征或群组所针对的目标商品的特征, 将每种特征转化为分值并按一定的方式进行加权, 根据最终的分值确定虚假评论者群组, 如文献[35]在提取一系列群组特征的基础上, 利用主成分分析(Principal Component Analysis, PCA)方法计算可疑度分值并排序, 识别亚马逊网站中的虚假评论者群组。

3 识别效果评价

在进行虚假评论识别效果评价时, 根据所使用的数据中的标注信息情况, 即是否明确标注评论/评论者为虚假评论/虚假评论者, 评价方法可分为直接评价和间接评价2种方式。

3.1 直接评价

当评价所使用的数据集中包含标注信息时, 一般可使用准确率(Accuracy)对算法的识别能力进行评价[12]。类似地, 信息检索中广泛使用的精确率(P)、召回率(R)、综合评价指标(F1)也可以用来检验虚假评论识别方法的效果[14], 其定义如下:

$ P = \frac{{TP}}{{TP + FP}} $ (6)
$ R = \frac{{TP}}{{TP + FN}} $ (7)
$ F1 = \frac{{2PR}}{{P + R}} $ (8)

其中, TP表示被识别出且在数据集中被标注为虚假的评论或评论者数量, FP表示被识别出但数据集中并未将其标注为虚假的评论或评论者数量, 属于误报, FN为数据集中标注为虚假但并未被识别出的评论或评论者数量, 属于漏报。由于准确率和召回率之间有时会出现相互矛盾的情况, 此时还要利用两者的综合指标F1值进行总体评价。

上述评价指标适用于正负例均衡的数据集, 当数据集中虚假与正常的评论或评论者分布不均衡时, 一般使用ROC曲线或AUC进行识别效果的评价[8]。ROC曲线基于真正率(正例被正确分类的比例)和假正率(反例被误判为正例的比例)两项指标进行绘制。虚假评论识别通常建模为二分类问题, 根据识别结果, 以真正率为横坐标, 假正率为纵坐标, 绘制出的ROC曲线越远离对角线、靠近二维坐标图左上角说明分类器的分类能力越强, 也意味着识别效果越好。AUC相较于ROC曲线是一种更直观的评价指标。AUC是指ROC曲线下的面积, 其值域为[0.5, 1]。当随机挑选的一个正样本及一个负样本通过分类器进行打分时, 正样本分值大于负样本的概率值即为AUC。AUC值越大说明分类器的准确率越高。当用于评价的数据集中虚假和正常评论/评论者分布不均衡时, 准确度不能恰当地反映分类器的分类性能, 此时AUC可作为一个合适指标来评价识别效果。

在一些利用排序进行虚假评论或评论者识别的方法中, 信息检索中的NDCG(Normalized Discounted Cumulative Gain)指标可用于对排序模型进行评价[16, 33], 其计算方式为:

$ NDC{G_k} = \frac{{DC{G_k}}}{{{Z_k}}} $ (9)
$ DC{G_k} = \sum\limits_{i = 1}^k {\frac{{{2^{{l_i}}}}}{{{\mathop{\rm lb}\nolimits} (i + 1)}}} $ (10)

其中, NDCGk表示排序列表中前k个结果与真实结果的拟合程度, 值越大说明识别效果越好, li表示排序第i的评论或评论者的类别(1表示虚假; 0表示真实), Zk是取li为1时运用DCGk计算的正确排序结果。

3.2 间接评价

当评价数据集中不包含标注信息时, 无法直接利用上述指标对识别结果进行评价。此时, 需考虑采用间接手段, 通过外部评价方式寻求证据, 检验识别效果的有效性, 目前采用的间接评价方式主要有两种。第1种方式采用交叉验证[17]。当识别结果给出所有评论或评论者虚假的概率后, 依据概率进行排序并按一定比例各抽取序列首尾若干评论/评论者组成评论/评论者子集, 然后采用分类器对子集进行分类, 如果识别效果较好, 那么在序列首尾评论/评论者所组成的子集中会有较高的区分度, 分类器能够取得很好的分类效果。文献[35]在验证虚假评论者群组识别效果时也采用了这种方式。第2种方式采用上下文语义分析, 主要用于虚假评论者的识别效果验证。当识别出虚假评论者后, 分析这些评论者上下文中是否在行为、关系等方面表现出有悖常理之处, 进行识别效果的验证。如文献[32]利用混合学习模型识别出亚马逊平台中的虚假评论者后, 由于缺乏标注信息, 构建了虚假评论者-商品二部图并采用图聚类技术将其划分为若干类簇, 经分析发现同一类簇中评论者所评论的商品集中属于少数的经销商或品牌, 只有有组织的虚假评论行为才会表现出如此有悖于常理的现象(正常用户的购买和评论对象应是分散的), 从而间接验证了识别结果的准确性。

4 研究展望

虚假评论的识别受到学术界和工业界的广泛关注, 并取得一定的研究成果, 随着各种新兴互联网平台的出现, 虚假评论者为躲避各种识别方法不断改进其攻击方式, 但仍存在问题待解决。虚假评论识别从以下4个方面进行展望, 具体如下:

1) 高度类似正常用户的虚假评论者识别。早期的虚假评论多以机器人或单个评论者操纵多个账号的方式撰写发布, 容易表现出异于正常评论或评论者的特征。但随着互联网众包平台(如zbj.com、Mechanical Turk等)的出现, 付费雇佣人手注册账号并发布虚假评论逐渐成为主流[39-40], 导致虚假评论及其发布者的特征越来越趋近于正常评论或评论者, 甚至部分用户受雇发布虚假评论前就是正常用户。如何识别这些隐蔽的虚假评论或评论者成为一项极巨挑战性的工作, 值得展开深入研究。

2) 异质数据融合的虚假评论及其发布者识别。随着社会化商务及O2O的发展, 商品评论及评论者相关的数据呈现出社会化和移动化等特点。评论内容、评论者社会关系、消费者线上线下行为等数据在给虚假评论识别带来更多信息的同时, 也对数据的综合利用提出了更高的要求。不同来源的数据往往表现出明显的异构性, 如何利用这些多源异质数据更好地服务于虚假评论的识别需要进一步探索, 尤其是如何构建异质数据的融合学习理论框架(包括概率描述模型定义、推理方法和检测算法设计等), 并使框架具备扩展性, 能够灵活融入新出现的数据类型, 值得重点关注。

3) 面向大规模数据的高效虚假评论识别算法。随着用户规模的急剧增长, 虚假评论检测算法的性能和扩展性成为限制其能否在真实平台中得以应用的瓶颈。现有虚假评论识别的研究工作多注重于识别效果的提升, 检测框架的扩展性尚未得到充分的重视。如何设计并行或分布式虚假评论检测框架与算法, 提高虚假评论识别的效率, 以应对大规模数据的实际需求, 是未来亟待解决的关键问题。

4) 新兴平台中的虚假评论及其发布者识别。现有的虚假评论主要存在于在线交易平台、点评类网站, 以及与广告营销活动密切相关的社交网络中, 但随着各种新兴互联网应用的不断涌现, 虚假评论及其发布者的活动场所也随之进化蔓延。如在社会化问答(Community Question Answering, CQA)平台中, 也发现了以广告营销为目的的自问自答条目, 其中包含了对所要推销商品夸大其词的虚假信息[41-42]。如何根据这些新兴平台的特点识别其中包含的虚假评论, 是未来研究工作的重要方向。

5 结束语

随着电子商务和社会化媒体的不断发展, 受经济利益驱使的恶意用户大量发布包含不实内容的虚假商品评论, 影响甚至决定用户的购买决策, 从而推动自身商品的销售或打压竞争对手。本文介绍了近年来虚假评论识别领域的研究成果, 具体包括虚假评论内容、发布者及虚假评论者群组的识别, 给出识别效果的评价方式和指标, 并对该领域的下一步发展进行探讨和展望。

参考文献
[1]
CHEVALIER J A, MAYZLIN D. The effect of word of mouth on sales:online book reviews[J]. Journal of Marketing Research, 2006, 43(3): 345-354. DOI:10.1509/jmkr.43.3.345 (0)
[2]
LAPPAS T, SABNIS G, VALKANAS G. The impact of fake reviews on online visibility:a vulnerability assessment of the hotel industry[J]. Information Systems Research, 2016, 27(4): 940-961. DOI:10.1287/isre.2016.0674 (0)
[3]
MILLS C.Amazon has a serious problem with paid-for reviews[EB/OL].[2018-08-15].https://bgr.com/2016/07/21/amazon-has-a-serious-problem-with-paid-for-reviews. (0)
[4]
PEREZ S.Fake app reviews are more common on Itunes, but Google play has the "worst" offenders[EB/OL].[2018-08-15].https://techcrunch.com/2014/05/27/fake-app-reviews-are-more-common-on-itunes-but-google-play-has-the-worst-offenders. (0)
[5]
LI Huayi, CHEN Zhiyuan, LIU Bing, et al.Spotting fake reviews via collective positive-unlabeled learning[C]//Proceedings of International Conference on Data Mining.Washington D.C., USA: IEEE Computer Society, 2014: 899-904. (0)
[6]
LUCA M, ZERVAS G. Fake it till you make it:reputation, competition, and yelp review fraud[J]. Management Science, 2016, 62(12): 3412-3427. DOI:10.1287/mnsc.2015.2304 (0)
[7]
GRIER C, THOMAS K, PAXSON V, et al.@spam: the underground on 140 characters or less[C]//Proceedings of the 17th ACM Conference on Computer and Communications Security.New York, USA: ACM Press, 2010: 27-37. (0)
[8]
JINDAL N, LIU Bing.Opinion spam and analysis[C]//Proceedings of International Conference on Web Search and Data Mining.New York, USA: ACM Press, 2008: 219-230. (0)
[9]
LIM E P, NGUYEN V A, JINDAL N, et al.Detecting product review spammers using rating behaviors[C]//Proceedings of the 19th ACM International Conference on Information and Knowledge Management.New York, USA: ACM Press, 2010: 939-948. (0)
[10]
MUKHERJEE A, VENKATARAMAN V, LIU Bing.What yelp fake review filter might be doing[C]//Proceedings of the 7th International AAAI Conference on Weblogs and Social Media.[S.l.]: AAAI Press, 2013: 409-418. (0)
[11]
JINDAL N, LIU Bing, LIM E P.Finding unusual review patterns using unexpected rules[C]//Proceedings of the 19th ACM Conference on Information and Knowledge Management.New York, USA: ACM Press, 2010: 1549-1552. (0)
[12]
OTT M, CHOI Y, CARDIE C, et al.Finding deceptive opinion spam by any stretch of the imagination[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies.Stroudsburg, USA: ACL Press, 2011: 309-319. (0)
[13]
SHOJAEE S, MURAD M, BIN A, et al.Detecting deceptive reviews using lexical and syntactic features[C]//Proceedings of the 13th IEEE International Conference on Intelligent Systems Design and Applications.Washington D.C., USA: IEEE Press, 2013: 53-58. (0)
[14]
LI Fangtao, HUANG Minlie, YANG Yi, et al.Learning to identify review spam[C]//Proceedings of the 22nd International Joint Conference on Artificial Intelligence.[S.l.]: AAAI Press, 2011: 2488-2493. (0)
[15]
刘欣, 余贤栋, 唐永旺, 等. 基于特征词向量的短文本聚类算法[J]. 数据采集与处理, 2017, 32(5): 1052-1060. (0)
[16]
RAYANA S, AKOGLU L.Collective opinion spam detection: bridging review networks and metadata[C]//Proceedings of the 21st ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York, USA: ACM Press, 2015: 985-994. (0)
[17]
MUKHERJEE A, KUMAR A, LIU Bing, et al.Spotting opinion spammers using behavioral footprints[C]//Proceedings of the 19th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York, USA: ACM Press, 2013: 632-640. (0)
[18]
FEI Geli, MUKHERJEE A, LIU Bing, et al.Exploiting burstiness in reviews for review spammer detection[C]//Proceedings of Conference on Weblogs and Social Media.[S.l.]: AAAI Press, 2013: 175-184. (0)
[19]
LEE K, CAVERLEE J, WEBB S.Uncovering social spammers: social honeypots+ machine learning[C]//Proceedings of the 33rd ACM SIGIR International Conference on Research and Development in Information Retrieval.New York, USA: ACM Press, 2010: 435-442. (0)
[20]
LIU Hongfu, ZHANG Yuchao, LIN Hao, et al.How many zombies around you[C]//Proceedings of International Conference on Data Mining.Washington D.C., USA: IEEE Press, 2013: 1133-1138. (0)
[21]
YANG Chao, HARKREADER R, GU Guofei. Empirical evaluation and new design for fighting evolving twitter spammer[J]. IEEE Transactions on Information Forensics and Security, 2013, 8(8): 1280-1293. DOI:10.1109/TIFS.2013.2267732 (0)
[22]
FAKHRAEI S, FOULDS J, SHASHANKA M, et al.Collective spammer detection in evolving multi-relational social networks[C]//Proceedings of the 21st ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York, USA: ACM Press, 2015: 1769-1778. (0)
[23]
LEE J S, ZHU Dan. Shilling attack detection——a new approach for a trustworthy recommender system[J]. Informs Journal on Computing, 2011, 24(1): 117-131. (0)
[24]
WANG Guan, XIE Sihong, LIU Bing, et al.Review graph based online store review spammer detection[C]//Proceedings of the 11th IEEE International Conference on Data Mining.Washington D.C., USA: IEEE Computer Society, 2011: 1242-1247. (0)
[25]
WANG Guan, XIE Sihong, LIU Bing, et al. Identify online store review spammers via social review graph[J]. ACM Transactions on Intelligent Systems and Technology, 2012, 3(4): 1-21. (0)
[26]
SHEHNEPOOR S, SALEHI M, FARAHBAKHSH R, et al. NetSpam:a network-based spam detection framework for reviews in online social media[J]. IEEE Transactions on Information Forensics and Security, 2017, 12(7): 1585-1595. DOI:10.1109/TIFS.2017.2675361 (0)
[27]
刘建伟, 刘媛, 罗雄麟. 半监督学习方法[J]. 计算机学报, 2015, 38(8): 1592-1617. (0)
[28]
WU Zhiang, WU Junjie, CAO Jie, et al.HySAD: a semi-supervised hybrid shilling attack detector for trustworthy product recommendation[C]//Proceedings of the 18th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York, USA: ACM Press, 2012: 985-993. (0)
[29]
任亚峰, 姬东鸿, 张红斌, 等. 基于PU学习算法的虚假评论识别研究[J]. 计算机研究与发展, 2015, 52(3): 639-648. (0)
[30]
FAYAZI A, LEE K, CAVERLEE J, et al.Uncovering crowdsourced manipulation of online reviews[C]//Proceedings of the 38th ACM SIGIR International Conference on Research and Development in Information Retrieval.New York, USA: ACM Press, 2015: 233-242. (0)
[31]
WU Xian, FAN Wei, GAO Jing, et al. Detecting marionette microblog users for improved information credibility[J]. Journal of Computer Science and Technology, 2015, 30(5): 1082-1096. DOI:10.1007/s11390-015-1584-4 (0)
[32]
WU Zhiang, WANG Youquan, WANG Yaqiong, et al.Spammers detection from product reviews: a hybrid model[C]//Proceedings of the 15th IEEE International Conference on Data Mining.Washington D.C., USA: IEEE Press, 2015: 1039-1044. (0)
[33]
MUKHERJEE A, LIU Bing, GLANCE N.Spotting fake reviewer groups in consumer reviews[C]//Proceedings of the 21st International Conference on World Wide Web.New York, USA: ACM Press, 2012: 191-200. (0)
[34]
XU Chang, ZHANG Jie, CHANG Kuiyu, et al.Uncovering collusive spammers in Chinese review websites[C]//Proceedings of the 22nd ACM International Conference on Information and Knowledge Management.New York, USA: ACM Press, 2013: 979-988. (0)
[35]
WANG Youquan, WU Zhiang, BU Zhan, et al. Discovering shilling groups in a real e-commerce platform[J]. Online Information Review, 2016, 40(1): 62-78. DOI:10.1108/OIR-03-2015-0073 (0)
[36]
WANG Zhuo, HOU Tingting, SONG Dawei, et al. Detecting review spammer groups via bipartite graph projection[J]. Computer Journal, 2016, 59(6): 861-874. DOI:10.1093/comjnl/bxv068 (0)
[37]
LI Huayi, FEI Geli, WANG Shuai, et al.Bimodal distribution and co-bursting in review spam detection[C]//Proceedings of the 26th International Conference on World Wide Web.New York, USA: ACM Press, 2017: 1063-1072. (0)
[38]
YE Junting, AKOGLU L.Discovering opinion spammer groups by network footprints[C]//Proceedings of Joint European Conference on Machine Learning and Knowledge Discovery in Databases.Berlin, Germany: Springer, 2015: 267-282. (0)
[39]
KIM H J, LEE J, CHAE D K, et al. Crowdsourced promotions in doubt:analyzing effective crowdsourced promotions[J]. Information Sciences, 2018, 432: 185-198. DOI:10.1016/j.ins.2017.12.004 (0)
[40]
SU Ning, LIU Yiqun, LI Zhao, et al.Detecting crowdturfing "add to favorites" activities in online shopping[C]//Proceedings of the 27th International Conference on World Wide Web.New York, USA: ACM Press, 2018: 1673-1682. (0)
[41]
XU Aifang, FENG Xiaonan, TIAN Ye.Revealing, characterizing, and detecting crowdsourcing spammers: a case study in community Q&A[C]//Proceedings of IEEE Conference on Computer Communications.Washington D.C., USA: IEEE Press, 2015: 2533-2541. (0)
[42]
LIU Yuli, LIU Yiqun, ZHOU Ke, et al.Detecting collusive spamming activities in community question answering[C]//Proceedings of the 26th International Conference on World Wide Web.New York, USA: ACM Press, 2017: 1073-1082. (0)