开放科学(资源服务)标志码(OSID):
互联网技术的快速发展和媒体渠道日趋多样化使人们能够更便捷地获取信息,但同时也面临信息过载的问题,用户难以从海量数据中筛选出自己真正感兴趣的部分[1]。推荐系统能够实现对海量信息的处理与分析[2],得到最契合需求的信息,为用户提供个性化的推荐结果[3-4]。传统推荐系统的受众往往是单个用户,而目前以多个用户组成的群体为单位的个性化推荐需求越来越多(如为一个旅游团的人推荐旅游景区或者给公司团队建设的员工推荐娱乐场地[5]),因此,需要将传统推荐系统从针对单个用户拓展为适用于群组用户[6],即实现群组推荐。
群组推荐基于对单个用户偏好的拟合以及群组融合策略。概率矩阵分解(Probability Matrix Factorization,PMF)算法用于拟合单个用户偏好,其在矩阵分解的基础上加入了用户和项目特征向量的先验信息[7],但只考虑用户与项目的评分数据[8],忽略了用户之间的交互性,而用户之间的交互关系往往会对用户的偏好产生较大影响。在完成单个用户的偏好拟合后,群组推荐中的另一个问题是群组成员的偏好融合,这要求群组推荐系统将群组内的单个成员偏好融合为可以表现所有组内成员的整个群组的偏好[9]。进行群组推荐时往往需要考虑公平性和用户满意度等问题,既要尽量满足组内成员个人的偏好,又要体现群组的整体偏好,使推荐结果满足整个群组的需求[10],然而现有群组融合策略也较少考虑组内成员间的交互关系。
为使融合结果更具群组特性,提高推荐结果的可靠性和可解释性,本文提出一种融合用户信任度的群组推荐算法,考虑群组内用户交互关系进行群组融合。在获取用户信任度数据后,训练得到组内每个成员的信任向量和被信任向量,并以被信任向量均值为基准向量,将每个成员的信任向量与其做点积运算得到对应权重,通过归一化后的权重评分求和得到群组评分,以此生成推荐列表。
1 相关工作 1.1 群组融合群组融合方法通常可分为偏好融合与推荐结果融合两类,如图 1所示。偏好融合是指在获取组内所有成员偏好模型后,将成员偏好融合为群组偏好,利用群组偏好进行群组推荐[11]。推荐结果融合是指获得组内所有成员的推荐结果或评分后,采用融合策略将所有推荐结果或评分合并为群组结果或者评分[12]进行群组推荐。
![]() |
Download:
|
图 1 群组融合策略 Fig. 1 Group fusion strategy |
推荐结果融合又可分为列表融合与评分融合。列表融合是指将每个用户的推荐列表合并成一个群组推荐列表,评分融合则是指将组内用户的评分融合成群组评分。在现有的融合策略中,均值策略与最小痛苦策略应用最为广泛。
均值策略将群组内所有成员对某个项目的评分取平均值作为该群组对该项目的评分,如式(1)所示:
$ {p}^{G}=\left\{\mathrm{a}\mathrm{v}\mathrm{g}\left({d}^{u}\right):\exists {d}^{u}\in \underset{\forall u\in G}{\cup }{p}^{u}\right\} $ | (1) |
最小痛苦策略可规避组内有成员对某个项目特别厌恶,但该项目的平均分却很高而进入推荐列表的情况。该策略取组内用户对项目的评分的最小值作为该群组对项目的评分,如式(2)所示:
$ {p}^{G}=\left\{\mathrm{m}\mathrm{i}\mathrm{n}\left({d}^{u}\right)\mathrm{ }:\exists {d}^{u}\in \underset{\forall u\in G}{\cup }{p}^{u}\right\} $ | (2) |
此外,研究者还提出了最受尊敬者策略、最大愉悦策略等融合策略,这些策略在不同的情境下会产生不同的效果。
1.2 概率矩阵分解在推荐系统中,协同过滤(Collaborative Filtering,CF)是一种被普遍使用的推荐技术,其利用兴趣相投、喜好相似的群体的偏好来推荐用户感兴趣的项目与信息,通过个人所给予信息的反馈记录实现过滤,从而帮助其他人筛选信息[13-15]。可以根据是否采用机器学习的建模思想将协同过滤技术划分为基于内容和基于模型两类。在基于模型的协同过滤技术中,矩阵分解算法以高准确率和良好可伸缩性受到广泛关注[16]。
基于矩阵分解的协同过滤将用户和项目的特征转化为潜在向量,通过计算用户或项目之间潜在向量的相关性进行推荐[17]。在使用矩阵分解算法[18]进行评分预测时,通常将用户与项目表示为M×N的矩阵(其中M和N分别表示用户和项目的数量),矩阵中的元素对应用户对项目的评分。该矩阵通常很稀疏,故需要补全其中缺失的评分。矩阵分解算法将矩阵RM×N分解为2个维度更低的矩阵的乘积
SALAKHUTDINOV于2007年提出概率矩阵分解算法,其假设用户潜在向量、项目潜在向量及两者的内积均服从高斯分布,通过极大化它们的后验概率来获得更为准确的潜在向量。然而,PMF算法忽略了用户之间的交互性,而用户之间的信任度等交互关系往往会对用户的偏好产生较大影响。例如,用户U特别喜欢电影A,通常也会对其好友介绍电影A并鼓励他们观看,而朋友也更愿意接受所信任的人的推荐[19]。由于传统的推荐算法没有考虑这样的情况,因此不能充分利用大量社交信息。
2 融合用户相似度的概率矩阵分解群组推荐 2.1 群组推荐框架本文提出的群组推荐模型框架如图 2所示,具体流程如下:
![]() |
Download:
|
图 2 群组推荐模型框架 Fig. 2 Framework of group recommendation model |
1)获取用户信任度数据,使用经典概率矩阵分解算法补全信任度矩阵T,获得用户信任度特征向量L和R。
2)对信任度矩阵每一行使用SoftMax进行归一化,得到相似度矩阵F。
3)获取用户-项目评分数据,使用联合相似度的概率矩阵分解算法进行补全,得到用户对未评分项目的预测评分。
4)使用融合信任度的权重策略合并群组内所有成员的评分,获取整个群组对项目的评分,并根据评分生成推荐列表。
2.2 用户相似度矩阵构建本文使用Epinions数据集,其中包含若干用户间的信任关系与用户对项目的评分。构建用户相似度矩阵需要所有两两用户间的信任关系。因此,首先使用概率矩阵分解算法对用户信任度矩阵进行补全。
假设有M个用户,以
假设用户信任度
$ {T}_{l, r}\sim N({\mathit{\boldsymbol{L}}}_{l}^{\mathrm{T}}{\mathit{\boldsymbol{R}}}_{r}, {\sigma }^{2}) $ | (3) |
则观察到的信任度矩阵的条件概率为:
$ p\left(\mathit{\boldsymbol{T}}\right|\mathit{\boldsymbol{L}}, \mathit{\boldsymbol{R}}, {\sigma }^{2})\sim \prod\limits _{l=1}^{M}\prod\limits _{r=1}^{M}N({\mathit{\boldsymbol{L}}}_{l}^{\mathrm{T}}{\mathit{\boldsymbol{R}}}_{r}, {\sigma }^{2}{)}^{{I}_{l, r}} $ | (4) |
其中:
再假设用户潜在特征向量都服从均值为0的高斯先验分布,即:
$ p\left(\mathit{\boldsymbol{L}}\right|{\sigma }_{\mathrm{L}}^{2})\sim \prod\limits _{l=1}^{M}N({\mathit{\boldsymbol{L}}}_{l}\left|0\right., {\sigma }_{\mathrm{L}}^{2}\bf{I}) $ | (5) |
$ p\left(\mathit{\boldsymbol{R}}\right|{\sigma }_{\mathrm{R}}^{2})\sim \prod\limits _{r=1}^{M}N({\mathit{\boldsymbol{R}}}_{r}|0, {\sigma }_{\mathrm{R}}^{2}\bf{I}) $ | (6) |
其中:I表示一个对角阵。则L和R的后验概率为:
$ \begin{array}{l}p(\mathit{\boldsymbol{L}}, \mathit{\boldsymbol{R}}|\mathit{\boldsymbol{T}}, {\sigma }_{\mathrm{L}}^{2}, {\sigma }_{\mathrm{R}}^{2}, {\sigma }^{2})\propto p(\mathit{\boldsymbol{T}}|\mathit{\boldsymbol{L}}, \mathit{\boldsymbol{R}}, {\sigma }^{2})p\left(\mathit{\boldsymbol{L}}\right|{\sigma }_{\mathrm{L}}^{2}\left)p\right(\mathit{\boldsymbol{R}}\left|{\sigma }_{\mathrm{R}}^{2}\right)\\ \end{array} $ | (7) |
两边取对数得到:
$ \begin{array}{l}\mathrm{l}\mathrm{n}p(\mathit{\boldsymbol{L}}, \mathit{\boldsymbol{R}}|\mathit{\boldsymbol{T}}, {\sigma }_{\mathrm{L}}^{2}, {\sigma }_{\mathrm{R}}^{2}, {\sigma }^{2})=-\frac{1}{2{\sigma }^{2}}\sum\limits _{l=1}^{M}\sum\limits _{r=1}^{M}{I}_{l, r}{\left({T}_{l, r}-{\mathit{\boldsymbol{L}}}_{l}^{\mathrm{T}}{\mathit{\boldsymbol{R}}}_{r}\right)}^{2}-\\ \frac{1}{2{\sigma }_{\mathrm{L}}^{2}}\sum\limits _{l=1}^{M}{\mathit{\boldsymbol{L}}}_{l}^{\mathrm{T}}{\mathit{\boldsymbol{L}}}_{l}-\frac{1}{2{\sigma }_{\mathrm{R}}^{2}}\sum\limits _{l=1}^{M}{\mathit{\boldsymbol{R}}}_{r}^{\mathrm{T}}{\mathit{\boldsymbol{R}}}_{r}-\frac{1}{2}\left(\sum\limits _{l=1}^{M}\sum\limits _{r=1}^{M}{I}_{l, r}\right)\mathrm{l}\mathrm{n}{\sigma }^{2}-\\ \frac{1}{2}MK\mathrm{l}\mathrm{n}{\sigma }_{\mathrm{L}}^{2}-\frac{1}{2}MK\mathrm{l}\mathrm{n}{\sigma }_{\mathrm{R}}^{2}+C\end{array} $ | (8) |
其中:C为无关常数。
通过最小化以下目标函数来最大化后验概率:
$ \begin{array}{l}\mathit{\boldsymbol{L}}=\frac{1}{2}\sum\limits _{l}^{M}\sum\limits _{r}^{M}{I}_{l, r}{\left({T}_{l, r}-{\mathit{\boldsymbol{L}}}_{l}^{\mathrm{T}}{\mathit{\boldsymbol{R}}}_{r}\right)}^{2}+\\ {}_{}{}_{}{}_{}{}_{}\;\;\;\;\;\frac{{\lambda }_{\mathrm{L}}}{2}\sum\limits _{l=1}^{M}{‖{\mathit{\boldsymbol{L}}}_{l}‖}_{\mathrm{F}\mathrm{r}\mathrm{o}}^{2}+\frac{{\lambda }_{\mathrm{R}}}{2}{\sum\limits _{r=1}^{M}{‖{\mathit{\boldsymbol{R}}}_{r}‖}_{\mathrm{F}\mathrm{r}\mathrm{o}}^{2}} \end{array} $ | (9) |
其中:
等式L分别对
$ \partial E/\partial {\mathit{\boldsymbol{L}}}_{l}=\left({T}_{l, r}-{\mathit{\boldsymbol{L}}}_{l}^{\mathrm{T}}{\mathit{\boldsymbol{R}}}_{r}\right){\mathit{\boldsymbol{R}}}_{r}-{\lambda }_{\mathrm{L}}{\mathit{\boldsymbol{L}}}_{l} $ | (10) |
$ \partial E/\partial {\mathit{\boldsymbol{R}}}_{r}=\left({T}_{l, r}-{\mathit{\boldsymbol{L}}}_{l}^{\mathrm{T}}{\mathit{\boldsymbol{R}}}_{r}\right){\mathit{\boldsymbol{L}}}_{l}-{\lambda }_{\mathrm{R}}{\mathit{\boldsymbol{R}}}_{r} $ | (11) |
然后使用随机梯度下降更新Ll和Rr,直到收敛或达到最大迭代次数。
训练完成后可获得每个用户的2个特征向量L和R,将任意用户l的左向量Ll与另一个用户r的右向量Rr点乘可获得l对r的信任度,即:
$ {T}_{l, r}=〈{\mathit{\boldsymbol{L}}}_{l}·{\mathit{\boldsymbol{R}}}_{r}〉 $ | (12) |
首先计算每对用户之间的信任度矩阵T,
$ {F}_{l, r}={\mathrm{e}}^{{T}_{l, r}}/\sum\limits _{r=1}^{M}{\mathrm{e}}^{{T}_{l, r}} $ | (13) |
其中,Fl,r表示用户l与用户r的相似度。
2.3 融入用户信任度的FPMF算法假设有M个用户和N个项目,将每个用户与项目的评分作为一个
$ p\left(\mathit{\boldsymbol{R}}|\mathit{\boldsymbol{U}}, \mathit{\boldsymbol{V}}, {\sigma }_{\mathrm{R}}^{2}\right)=\prod\limits _{i=1}^{M}\prod\limits _{j=1}^{N}N{\left({\mathit{\boldsymbol{U}}}_{i}^{\mathrm{T}}{\mathit{\boldsymbol{V}}}_{j}, {\sigma }^{2}\right)}^{{I}_{i, j}^{\mathrm{R}}} $ | (14) |
由相似度矩阵可知,用户的特征向量与相似度矩阵F中其他用户特征向量乘以权重求和后应相等,即:
$ {\mathit{\boldsymbol{U}}}_{i}=\sum\limits _{t=1}^{M}{F}_{i, t}{\mathit{\boldsymbol{U}}}_{t} $ | (15) |
其中:Fi,t表示用户i与用户t的相似度。则用户特征矩阵U的高斯先验分布如下:
$ \begin{array}{l}p\left(\mathit{\boldsymbol{U}}|\mathit{\boldsymbol{F}}, {\sigma }_{\mathrm{U}}^{2}, {\sigma }_{\mathrm{F}}^{2}\right)\propto p\left(\mathit{\boldsymbol{U}}|{\sigma }_{\mathrm{U}}^{2}\right)p\left(\mathit{\boldsymbol{U}}|\mathit{\boldsymbol{F}}, {\sigma }_{\mathrm{F}}^{2}\right)=\\ \prod\limits _{i=1}^{M}N\left({\mathit{\boldsymbol{U}}}_{i}|0, {\sigma }_{\mathrm{U}}^{2}\bf{I}\right)\times \prod \limits_{i=1}^{M}N\left({\mathit{\boldsymbol{U}}}_{i}|\sum\limits _{t=1}^{M}{F}_{i, t}{\mathit{\boldsymbol{U}}}_{t}, {\sigma }_{\mathrm{F}}^{2}\bf{I}\right)\end{array} $ | (16) |
再假设项目特征向量V也服从高斯分布,即:
$ p\left(\mathit{\boldsymbol{V}}|{\sigma }_{\mathrm{V}}^{2}\right)=\prod\limits _{j=1}^{N}N\left({\mathit{\boldsymbol{V}}}_{j}|0, {\sigma }_{\mathrm{V}}^{2}\bf{I}\right) $ | (17) |
则可得U和V的后验概率分布为:
$ \begin{array}{l}p\left(\mathit{\boldsymbol{U}}, \mathit{\boldsymbol{V}}|\mathit{\boldsymbol{R}}, \mathit{\boldsymbol{F}}, {\sigma }_{\mathrm{R}}^{2}, {\sigma }_{\mathrm{F}}^{2}, {\sigma }_{\mathrm{U}}^{2}, {\sigma }_{\mathrm{V}}^{2}\right)\propto \\ p\left(\mathit{\boldsymbol{R}}|\mathit{\boldsymbol{U}}, \mathit{\boldsymbol{V}}, {\sigma }_{\mathrm{R}}^{2}\right)p\left(\mathit{\boldsymbol{U}}|\mathit{\boldsymbol{F}}, {\sigma }_{\mathrm{U}}^{2}, {\sigma }_{\mathrm{F}}^{2}\right)p\left(\mathit{\boldsymbol{V}}|{\sigma }_{\mathrm{V}}^{2}\right)\end{array} $ | (18) |
两边取对数可得:
$ \begin{array}{l}\mathrm{l}{\mathrm{n}}_{}p\left(\mathit{\boldsymbol{U}}, \mathit{\boldsymbol{V}}|\mathit{\boldsymbol{R}}, \mathit{\boldsymbol{F}}, {\sigma }_{\mathrm{R}}^{2}, {\sigma }_{\mathrm{F}}^{2}, {\sigma }_{\mathrm{U}}^{2}, {\sigma }_{\mathrm{V}}^{2}\right)=\\ -\frac{1}{2{\sigma }_{\mathrm{R}}^{2}}\sum\limits _{i=1}^{M}\sum\limits _{j=1}^{N}{I}_{i, j}^{\mathrm{R}}{\left({R}_{i, j}-{\mathit{\boldsymbol{U}}}_{i}^{\mathrm{T}}{\mathit{\boldsymbol{V}}}_{j}\right)}^{2}-\\ \frac{1}{2{\sigma }_{\mathrm{F}}^{2}}\sum\limits _{i=1}^{M}\left({\left({\mathit{\boldsymbol{U}}}_{i}-\sum\limits _{t=1}^{M}{F}_{i, t}{\mathit{\boldsymbol{U}}}_{t}\right)}^{\mathrm{T}}\left({\mathit{\boldsymbol{U}}}_{i}-\sum\limits _{t=1}^{M}{F}_{i, t}{\mathit{\boldsymbol{U}}}_{t}\right)\right)-\\ \frac{1}{2{\sigma }_{\mathrm{U}}^{2}}\sum\limits _{i=1}^{M}{\mathit{\boldsymbol{U}}}_{i}^{\mathrm{T}}{\mathit{\boldsymbol{U}}}_{t}-\frac{1}{2{\sigma }_{\mathrm{V}}^{2}}\sum\limits _{j=1}^{N}{\mathit{\boldsymbol{V}}}_{j}^{\mathrm{T}}{\mathit{\boldsymbol{V}}}_{j}-\frac{1}{2}\left(\sum\limits _{i=1}^{M}\sum\limits _{j=1}^{N}{I}_{i, j}^{\mathrm{R}}\right)\mathrm{l}{\mathrm{n}}_{}{\sigma }_{\mathrm{R}}^{2}-\\ \frac{1}{2}MK\mathrm{l}{\mathrm{n}}_{}{\sigma }_{\mathrm{U}}^{2}-\frac{1}{2}NK\mathrm{l}{\mathrm{n}}_{}{\sigma }_{\mathrm{V}}^{2}+C\left(\mathrm{ }19\mathrm{ }\right)\end{array} $ | (19) |
通过最小化以下目标函数来最大化后验概率:
$ \begin{array}{l}\mathit{\boldsymbol{L}}=\frac{1}{2}\sum\limits _{i=1}^{M}\sum\limits _{j=1}^{N}{I}_{i, j}^{\mathrm{R}}{\left({R}_{i, j}-{\mathit{\boldsymbol{U}}}_{i}^{\mathrm{T}}{\mathit{\boldsymbol{V}}}_{j}\right)}^{2}+\frac{{\lambda }_{\mathrm{U}}}{2}\sum\limits _{i=1}^{M}{‖{\mathit{\boldsymbol{U}}}_{i}‖}_{\mathrm{F}\mathrm{r}\mathrm{o}}^{2}+\\ {}_{}{}_{}{}_{}{}_{}\;\;\;\;\;\frac{{\lambda }_{\mathrm{V}}}{2}{\sum\limits _{j=1}^{N}‖{\mathit{\boldsymbol{V}}}_{j}‖}_{\mathrm{F}\mathrm{r}\mathrm{o}}^{2}+\frac{{\lambda }_{\mathrm{F}}}{2}\sum\limits _{i=1}^{M}{‖{\mathit{\boldsymbol{U}}}_{i}-\sum\limits _{t=1}^{M}{F}_{i, t}{\mathit{\boldsymbol{U}}}_{t}‖}_{\mathrm{F}\mathrm{r}\mathrm{o}}^{2}\end{array} $ | (20) |
其中:
使用梯度下降方式对
在群组融合方面,本文提出一种新的基于用户交互的融合策略,这将再次利用之前获得的用户信任网络,具体流程如下:
获取所有用户的信任度隐特征向量R,求得R的平均值Rmean,即:
$ {\mathit{\boldsymbol{R}}}_{\mathrm{m}\mathrm{e}\mathrm{a}\mathrm{n}}=\frac{1}{M}\sum\limits _{l=1}^{M}{R}_{l} $ | (21) |
将每个用户的左向量L与Rmean点乘,获得该用户的权重,即:
$ {w}_{i}=〈{\mathit{\boldsymbol{L}}}_{i}·{\mathit{\boldsymbol{R}}}_{\mathrm{m}\mathrm{e}\mathrm{a}\mathrm{n}}〉 $ | (22) |
在群组推荐时,将该群组中用户的权重使用SoftMax函数进行归一化,即:
$ {w}_{i}={\mathrm{e}}^{{w}_{i}}/\sum\limits _{j=1}^{M}{\mathrm{e}}^{{w}_{j}} $ | (23) |
使用权重策略将组内用户评分合并成群组评分:
$ R\left(G, j\right)=\sum\limits _{i\in G}{w}_{i}{R}_{i, j} $ | (24) |
其中:
Epinions数据集是从一个在线商品网站收集的多图数据集,其中包含了多种关系,如评论者对另一个评论者的态度(信任/不信任),以及评论者对商品的评分,共包含664 824条评分数据和487 183条信任度数据。随机将评分数据中的80%作为训练集,其余的20%作为测试集。
本文同时还在FilmTrust数据集上进行了验证。FilmTrust为2011年从网站FilmTrust完整抓取下来的数据集。该数据集由两部分组成:用户-物品评分和用户间信任度关系,其中评分包含35 497条数据,信任关系包含1 853条数据。
3.2 评估指标由于数据集中没有确切的群组及群组对项目的实际评分,本文实验将对同一项目具有相同评分且不小于5个用户的单位作为一个群组,则该相同评分可看作群组对项目的实际评分,这将得到N个群组及每个群组对一个项目的确切评分。实验使用以下2种评估指标:
第1个评估指标是均方根误差(RMSE),计算公式如下:
$ \mathrm{R}\mathrm{M}\mathrm{S}\mathrm{E}=\sqrt{\frac{1}{N}\sum\limits _{i, j}{\left({R}_{i, j}-{\hat{R}}_{i, j}\right)}^{2}} $ | (25) |
在第2个评估指标计算方式中,将群组评分为5分的项目作为该群组的应推荐项目,随机选取M-1个项目与该项目一起预测群组评分并根据评分高低进行排序,计算应推荐项目在前K个项目中出现的频率并作为命中率(HR@K)。
$ \mathrm{H}\mathrm{R}@K=\frac{1}{N}\sum\limits _{i}\left|\mathrm{R}\mathrm{a}\mathrm{n}{\mathrm{k}}_{i}\le K\right| $ | (26) |
其中:Ranki表示项目i在该K个项目中的排序名次。
本次实验选择的M值为20。
3.3 实验过程及分析 3.3.1式(20)中的
图 3展示了在其他参数不变的情况下,参数
![]() |
Download:
|
图 3 参数λU和λV对推荐性能的影响 Fig. 3 Influence of parameters λU and λV to recommended performance |
本文算法相较于经典PMF算法改进之处在于后验推导公式中加入了
图 4展示了当
![]() |
Download:
|
图 4 不同λF取值下的RMSE和HR@5 Fig. 4 RMSE and HR@5 with different λF |
在本文实验中,选择使用以下对比算法:
1)经典矩阵分解(Matrix Factorization,MF)算法。以下算法在协同过滤方法中“共现矩阵”的基础上,加入了隐向量的概念,加强了模型处理稀疏矩阵的能力,具有更好的扩展性与灵活性。但是与协同过滤一样,不方便加入用户、项目和上下文相关特征,使得矩阵分解丧失了利用很多有效信息的机会。
2)经典PMF算法。相比矩阵分解,PMF算法可以更好地应对数据稀疏问题。
3)多层感知机(Multi-Layer Perceptron,MLP)算法。通过多层神经元拟合用户对项目的评分。
4)NeuMF(Neural Matrix Factorization)算法。该算法结合了广义矩阵分解和多层感知机,可以同时提取低维和高维特征[20],但由于该模型也是基于协同过滤的思想构造的,因此并没有引入更多其他类型的特征。
5)RippleNet算法。该算法将知识图谱作为推荐系统的辅助信息来源,利用实体关系三元组分析用户的偏好倾向并推理出哪些新的实体项可能是该用户可能喜欢的。其中知识图谱指的是由类似(阿甘正传,电影-导演,罗伯特·泽米吉斯)的事实三元组构成。模型输入为:用户u和用户的历史纪录V{u},以及项目v;模型输出:用户点击/选择/喜欢该项目的概率,由于该算法旨在输出用户喜欢项目的概率,在本次实验中改为回归方法以计算评分[21]。
6)SIGR(Social Influence-based Group Recommender)算法。该算法将注意力机制和一种二分图嵌入模型BGEM作为基本块。采用了注意力机制来学习每个用户的社交影响,并将其应用于不同的群组中。为准确捕捉用户社交影响,SIGR设计了一种新的深度社交影响学习框架,来利用并整合用户的全局/局部社交网络结构信息[22]。
为控制各方法的数据集与输出类型相同,将MLP、NeuMF的输出由原本的分类改为回归并计算评分,每层神经元个数分别为64,32,16,8。
3.3.4 实验结果及分析图 5展示了随着迭代次数的增加,FPMF方法与各对比算法使用均值融合策略时的RMSE收敛情况。
![]() |
Download:
|
图 5 各算法训练时的RMSE收敛情况 Fig. 5 RMSE convergence of each algorithm when training |
在图 6中,其他对比方法分别使用了均值策略和最小痛苦策略作为群组融合方法。以下为各方法的超参数调整达到最优后的RMSE效果。
![]() |
Download:
|
图 6 各算法超参数调整达到最优的RMSE Fig. 6 RMSE of each algorithm when the super parameters are optimal |
表 1和表 2分别展示了Epinions和FilmTrust数据集下各方法的HR@K。可以看出,原本在RMSE效果明显占优的MLP方法和NeuMF方法使用回归方法计算评分后进行排序的HR@K不再具有优势,而FPMF方法在该指标下的性能高于其他方法。
![]() |
下载CSV 表 1 Epinions数据集上不同K值下的命中率 Table 1 Hit rate with different K on Epinions dataset |
![]() |
下载CSV 表 2 FilmTrust数据集上不同K值下的命中率 Table 2 Hit rate with different K on FilmTrust dataset |
同时由表 2可以看出,FPMF算法在FilmTrust数据集上的表现略逊于在Epinions上的表现,较为合理的解释是FilmTrust数据集中的用户信任度关系相比于Epinions较为稀疏,FPMF算法精度较为依赖信任度数据,失去信任度数据后的算法性能开始向基础PMF靠拢。
3.3.5 模型可解释性在Epinions数据集的测试结果中,小组成员393号受组内其他成员的信任。表 3所示数据为该组对不同项目的群组评分以及组内成员的个体评分,由于393号成员的被信任程度较高,因此令其在群组偏好融合过程中具有较高的权重,从表中也可以看出,群组评分结果与393号成员个体评分具有较高的相关度,这进一步说明了模型的可解释性。
![]() |
下载CSV 表 3 群组评分及单个组员评分案例 Table 3 Example of ratings of group and individual member |
针对当前群组推荐算法较少考虑成员交互关系的问题,本文提出融合用户信任度的概率矩阵分解群组推荐算法。对概率矩阵分解算法进行改进,在后验概率计算部分引入用户间的信任度,充分挖掘单用户的历史偏好。同时,在群组融合部分引入用户的信任度隐特征向量来计算评分权重,充分利用群组的社交关系特性。实验结果表明,本文方法能够有效提升群组推荐性能。下一步将在概率矩阵分解中融合信任度数据本身的置信程度以及用户的评分习惯等因素,进一步提升本文算法的推荐性能。
[1] |
YU W H, ZHANG H D, HE X N, et al. Aesthetic-based clothing recommendation[C]//Proceedings of 2018 World Wide Web Conference. New York, USA: ACM Press, 2018: 649-658.
|
[2] |
CHAO Y W, AHMED A, BEUTEL A, et al. Recurrent recommender networks[C]//Proceedings of the 10th ACM International Conference on Web Search & Data Mining. New York, USA: ACM Press, 2017: 495-503.
|
[3] |
COVINGTON P, ADAMS J, SARGIN E. Deep neural networks for YouTube recommendations[C]//Proceedings of 2016 ACM Conference on Recommender Systems. New York, USA: ACM Press, 2016: 191-198.
|
[4] |
LI X M, XU G Q, TANG M H. Community detection for multi-layer social network based on local random walk[J]. Journal of Visual Communication and Image Representation, 2018, 57: 91-98. DOI:10.1016/j.jvcir.2018.10.003 |
[5] |
ARDISSONO L, GOY A, PETRONE G, et al. INTRIGUE: personalized recommendation of tourist attractions for desktop and hand held devices[J]. Applied Artificial Intelligence, 2003, 17(8/9): 687-714. |
[6] |
张玉洁, 杜雨露, 孟祥武. 组推荐系统及其应用研究[J]. 计算机学报, 2016, 39(4): 745-764. ZHANG Y J, DU Y L, MENG X W. Research on group recommendation system and its application[J]. Chinese Journal of Computers, 2016, 39(4): 745-764. (in Chinese) |
[7] |
SALAKHUTDINOV R. Probabilistic matrix factorization[C]//Proceedings of International Conference on Neural Information Processing Systems. [S. l. ]: Curran Associates, Inc., 2007: 1257-1264.
|
[8] |
康雁, 李涛, 李浩, 等. 融合知识图谱与协同过滤的推荐模型[J]. 计算机工程, 2020, 46(12): 73-79, 87. KANG Y, LI T, LI H, et al. Recommendation model fusing with knowledge graph and collaborative filtering[J]. Computer Engineering, 2020, 46(12): 73-79, 87. (in Chinese) |
[9] |
ROY S B, AMER-YAHIA S, LA A C, et al. Space efficiency in group recommendation[J]. The VLDB Journal, 2010, 19(6): 877-900. DOI:10.1007/s00778-010-0209-3 |
[10] |
WANG W, ZHANG G, LU J. Member contribution-based group recommender system[J]. Decision Support Systems, 2016(87): 80-93. |
[11] |
SHI J, WU B, LIN X. A latent group model for group recommendation[C]//Proceedings of 2015 IEEE International Conference on Mobile Services. Washington D.C., USA: IEEE Press, 2015: 233-238.
|
[12] |
LI X M, XU G Q, JIAO L T, et al. Multi-layer network community detection model based on attributes and social interaction intensity[J]. Computers and Electrical Engineering, 2019, 77: 300-313. DOI:10.1016/j.compeleceng.2019.06.010 |
[13] |
YANG B, LEI Y, LIU J, et al. Social collaborative filtering by trust[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(8): 1633-1647. |
[14] |
SINGH M, MECHROTRA M. Impact of biclustering on the performance of biclustering based collaborative filtering[J]. Expert System with Applications, 2018, 113: 443-456. DOI:10.1016/j.eswa.2018.06.001 |
[15] |
CHEN H, YIN H, WANG W, et al. PME: projected metric embedding on heterogeneous networks for link prediction[C]//Proceedings of the 24th ACM SIGKDD International Conference. New York, USA: ACM Press, 2018: 1-5.
|
[16] |
CHEN S, PENG Y. Matrix factorization for recommendation with explicit and implicit feedback[J]. Knowledge-Based Systems, 2018, 158: 109-117. DOI:10.1016/j.knosys.2018.05.040 |
[17] |
CHEN R, HUA Q Y, WANG B, et al. A novel social recommendation method fusing user's social status and homophily based on matrix factorization technique[J]. IEEE Access, 2019, 7: 18783-18798. DOI:10.1109/ACCESS.2019.2893024 |
[18] |
王根生, 潘方正. 融合多元异构信息的矩阵分解推荐算法[J]. 小型微型计算机系统, 2020, 41(7): 1406-1412. WANG G S, PAN F Z. Matrix factorization recommendation algorithms based on multiple heterogeneous information fusion[J]. Journal of Chinese Computer Systems, 2020, 41(7): 1406-1412. (in Chinese) |
[19] |
LAI C H, LIU D R, LIN C S. Novel personal and group-based trust models in collaborative filtering for document recommendation[J]. Information Sciences, 2013, 239(1): 31-49. |
[20] |
HE X N, LIAO L Z, ZHANG H W, et al. Neural collaborative filtering[C]//Proceedings of the 26th International Conference on World Wide Web. New York, USA: ACM Press, 2017: 173-182.
|
[21] |
WANG H W, ZHANG F Z, WANG J L, et al. RippleNet: propagating user preferences on the knowledge graph for recommender systems[C]//Proceedings of the 27th ACM International Conference on Information and Knowledge Management. New York, USA: ACM Press, 2018: 417-426.
|
[22] |
YIN H, WANG Q, ZHANG K, et al. Social influence-based group representation learning for group recommendation[C]//Proceedings of the 35th IEEE International Conference on Data Engineering. Washington D.C., USA: IEEE Press, 2019: 1-5.
|