开放科学(资源服务)标志码(OSID):
个性化推荐算法作为解决信息过载问题的一种有效手段,一直受到学术界和工业界的关注[1]。协同过滤是推荐算法的重要分支,因其在学习用户和商品向量表示方面具有良好的表现而得到广泛应用[2]。近年来,图卷积网络(Graph Convolutional Network,GCN)[3-4]在推荐方面显示出巨大潜力,利用GCN搭建协同过滤推荐模型成为当前的研究热点[5]。
基于GCN的协同过滤模型[6-8]将用户和商品都视作交互图中同等地位的节点,在计算其向量嵌入时不仅考虑节点本身的特征,还加入邻居节点的信息,进一步提升了模型学习用户和商品向量嵌入的能力。多层GCN[9]作为最具代表性的图卷积网络,广泛应用于协同过滤模型的设计中。基于GCN网络结构设计的图协同过滤模型在聚合用户或商品节点的邻域信息时普遍采用多层网络堆叠的形式来扩展图中节点的邻域。一方面,这样的设计会使模型不可避免地受到GCN结构本身固有的过平滑问题[10-11]所带来的影响,GCN结构中的图卷积运算实际上是一种特殊的图拉普拉斯平滑[10],节点的特征会在经过多层图卷积运算之后逐渐趋于相似,彼此间难以区分,过平滑问题造成推荐过程中的偏好特征同质化,最终导致模型性能下降;另一方面,在大规模的交互关系图上,如果采用多层网络结构,模型每次迭代都会使邻域内部的节点数量成倍增长,这种情况下并不能保证邻域内传递的高阶信息都是积极的。此外,基于GCN结构设计的图协同过滤模型采用邻接矩阵代表图上的关系结构参与用户和商品向量表达的更新过程,只在局部范围内进行扩展,而忽视了图整体结构中高阶邻居间的潜在交互关系。
本文提出一种双通道图协同过滤推荐(Dual-Channel Graph Collaborative Filtering Recommendation,DCCF)算法。该算法将用户和商品节点的向量表达更新过程划分为局部卷积通道和全局卷积通道,分别承担不同的信息聚合任务。在局部卷积通道中,DCCF对节点局部邻域的扩展方式作出改进,通过引入转移矩阵[12],在单层网络中直接定位节点的高阶邻域范围,并通过设定转移概率阈值的方式进行信息筛选,从而代替多层网络堆叠的形式以应对过平滑问题。在全局卷积通道中,DCCF基于节点特征进行聚类,构造全局交互图,从整体结构出发对节点间的高阶交互模式进行建模,将其作为对局部信息的补充。DCCF算法通过对局部信息和全局信息的整合,获得包含不同类型高阶关系的节点向量表达,从而提升算法的推荐性能。
1 相关工作在推荐算法领域,协同过滤是一个重要分支,其核心过程是以数字向量的形式代表用户和商品,通过向量的计算完成预测和推荐。传统的协同过滤模型[13-14]以用户-商品交互矩阵的行或列作为用户和商品的向量表示,基于预定义的相似度函数计算用户和商品间的相似度以完成推荐。矩阵分解[15-17]在传统算法的基础上进行改进,从交互矩阵中提取潜在语义表达,用维度统一的隐向量表示用户和商品。深度学习技术的出现为协同过滤提供了新的发展方向,NCF(Neural Collaborative Filtering)[18]、NAIS(Neural Attentive Item Similarity)[19]等模型在向量嵌入和相似度计算的过程中引入全连接网络,进一步提升了算法的推荐性能。但是,上述方法往往只考虑用户和商品本身的特征信息,没有充分利用历史行为中已经产生的交互关系,为此,研究人员构建基于图卷积网络的协同过滤模型[6-8]以解决这一问题。
相较传统算法以及其他深度网络模型,基于图卷积网络的协同过滤模型的最大优势在于能够在向量嵌入的过程中添加来自邻居节点的协作信号,从而对图中的高阶关系进行建模。GC-MC(Graph Convolutional Matrix Completion)[20]模型将图卷积运算应用于用户-商品二部交互图,将提取到的邻居节点信息作为用户和商品节点的向量表达。WANG等[6]提出NGCF(Neural Graph Collaborative Filtering)模型,并通过实验证明了利用图卷积网络对用户和商品之间的关联性进行建模可以提升模型学习用户和商品向量嵌入的能力,同时对交互图中的高阶连接特性作出了解释。GC-MC[20]和NGCF[6]在向量嵌入过程中引入图卷积网络,增强了模型的表达能力,但过平滑问题的存在会使节点特征在向深层传递的过程中趋于同质化,导致推荐性能难以提高。CHEN等[8]对NGCF模型进行简化并引入残差连接,提升了算法的推荐性能。除了过平滑现象之外,交互图的选择也是一个值得关注的问题。JI等[21]通过重新定义节点间的交互规则,构建超图[22-23]参与节点邻域信息的聚合过程,其不再局限于以邻接矩阵为核心构建图卷积运算,为图协同过滤模型的设计提供了新思路。
在本文基于图卷积网络的双通道协同过滤推荐算法DCCF中,通过多尺度卷积的方式,利用转移矩阵结合转移概率阈值确定节点的邻域构成,然后使用单层网络完成局部信息整合,从而应对过平滑问题。在此基础上,通过聚类的方式构造全局结构上的交互图,以节点特征为基础定义节点间的交互,对潜在的高阶关系进行建模,使得模型能够综合考虑局部和全局这2种不同类型的交互信息。
2 DCCF算法DCCF算法的预测流程如图 1所示。模型的输入是用户与商品之间的历史交互记录,为[UserID,[ItemID1,ItemID2,…]]的形式。首先,从历史数据中导出初始图结构,包括用户与商品之间的二部交互图和图中节点的初始向量表达;然后,为了获取更加准确的用户和商品的向量表达,在向量嵌入阶段设计2个卷积通道,分别承担不同的信息聚合任务,以对节点间的交互关系进行建模;最后,利用向量嵌入阶段得到的用户和商品的特征信息,通过向量内积预测历史数据中未被观测到的交互。
![]() |
Download:
|
图 1 DCCF算法的预测流程 Fig. 1 Prediction procedure of the DCCF algorithm |
基于上述流程分析,DCCF算法的模型结构如图 2所示,主要由3个部分构成:1)局部卷积通道,通过状态转移矩阵直接定位节点的高阶邻域范围,使用一个单层图卷积网络完成用户和商品节点局部信息的聚合;2)全局卷积通道,以聚类的方式构建一个全局交互图作为图整体结构中不同节点间交互关系的表达,对图整体结构中潜在的交互关系进行建模;3)交互预测,对节点的局部信息和全局信息进行整合,更新用户节点和商品节点的向量表达,通过向量内积的方式预测未知交互。
![]() |
Download:
|
图 2 DCCF模型结构 Fig. 2 DCCF model structure |
由历史交互数据导出用户和商品间的二部交互图G(V,E),其中:V代表图中的节点集合,由用户节点集VUser和商品节点集VItem组成;E代表图中连接边的集合,如果用户Usern与商品Itemm产生过交互(购买、浏览等行为),则两者之间存在一条连接边
$ \boldsymbol{A}=\left[\begin{array}{cc}{\bf{0}}& \boldsymbol{R}\\ {\boldsymbol{R}}^{\mathrm{{\rm T}}}& {\bf{0}}\end{array}\right] $ | (1) |
其中:
通过对交互矩阵R中的行和列进行降维,分别得到用户节点和商品节点的初始向量表达,将它们统一到一个固定的维度d,如下:
$ {\boldsymbol{X}}_{\mathrm{U}\mathrm{s}\mathrm{e}\mathrm{r}}=[{\boldsymbol{x}}_{{u}_{1}}, {\boldsymbol{x}}_{{u}_{2}}, \cdots , {\boldsymbol{x}}_{{u}_{N}}], {\boldsymbol{x}}_{u}\in {\mathbb{R}}^{d} $ | (2) |
$ {\boldsymbol{X}}_{\mathrm{I}\mathrm{t}\mathrm{e}\mathrm{m}}=[{\boldsymbol{x}}_{{i}_{1}}, {\boldsymbol{x}}_{{i}_{2}}, \cdots , {\boldsymbol{x}}_{{i}_{M}}], {\boldsymbol{x}}_{i}\in {\mathbb{R}}^{d} $ | (3) |
其中:XUser、XItem分别代表用户节点和商品节点的初始特征矩阵。
2.2 局部卷积通道局部卷积通道的任务是为图中节点聚合局部邻域信息。以邻接矩阵作为图上关系结构的表达,归一化后迭代多次是一种常见的邻域扩展方式,但这种形式的图卷积运算实际上是一种特殊的拉普拉斯平滑[10],会使用户节点和商品节点的特征在向深层叠加时趋于相似。过平滑现象的存在导致偏好特征在模型迭代的过程中逐渐趋于同质化,影响了模型的推荐性能。为了在聚合信息的过程中尽可能地避免过平滑问题所带来的影响,DCCF模型中引入转移矩阵[12]。如果图结构已知,则图上的转移矩阵可以定义为:
$ \boldsymbol{P}={\boldsymbol{D}}^{-1}\boldsymbol{A} $ | (4) |
其中:A为二部交互图的邻接矩阵;D是邻接矩阵的度矩阵(一个对角矩阵,其对角线上的分量表示与当前顶点直接相邻的节点数量)。转移矩阵的实质是二部交互图上的随机游走,以节点i为例,假设有d(i)个节点与i直接相邻,在不带权的无向图中,从节点i出发,走一步到达其任意一个邻居节点的概率均为1/d(i)。一阶转移矩阵P中的每一个分量[P]ij代表图中节点i走一步到达节点j的转移概率。而对于高阶转移矩阵Pk(k ≥ 2),其中的每一个分量[Pk]ij则代表图中节点i走k步到达节点j的概率。
在局部卷积通道中,当确定图中节点的邻域范围时,一阶邻域仍然由邻接矩阵A来确定。而对于高阶邻域(大于等于二阶),则以对应的转移矩阵为基础,设定转移阈值PΘ,以确定节点的各阶邻域范围。如图 3所示,随着用户节点u1的邻域逐渐向外扩展,其局部结构中的信息传递路径也逐渐增加。
![]() |
Download:
|
图 3 用户-商品交互图和高阶连接 Fig. 3 User-item interaction diagram and high order connections |
从图 3可以看出,当邻域扩展到三阶时,商品i3和用户u1之间有2条信息传递路径,而商品i4和用户u1之间只有1条,这表明用户u1可能对商品i3更加感兴趣。而对应到转移矩阵中,如果2个节点间存在多条信息传递路径,随着邻域的扩展,转移路径不断叠加,其对应的转移概率也就越高。通过设定转移阈值PΘ,在各阶邻域内挑选出具有较高转移概率的邻居节点,从而起到信息筛选的作用。因此,在计算得到各阶转移矩阵之后,如果转移矩阵中的分量[P k]ij > PΘ,则认为在对应的k阶邻域内节点i与节点j之间存在一条连接边。至此,可以定义高阶邻域内节点之间的交互关系矩阵Qk(k≥2):在同阶邻域内,如果转移矩阵对应位置的分量[P k]ij > PΘ,则有[Qk]ij=1,反之[Qk]ij=0。通过上述方式,得到每一个节点不同阶的邻域构成。在每一阶邻域内,以用户节点u为例,其对应的邻域信息聚合方式为:
$ {\boldsymbol{x}}_{{N}_{\left(u\right)‐k}}=\frac{1}{\sqrt{\left|{N}_{\left(u\right)‐k}\right|}}\sum \limits_{i\in {N}_{\left(u\right)‐k}}\frac{1}{\sqrt{\left|{N}_{\left(i\right)‐k}\right|}}{\boldsymbol{x}}_{i} $ | (5) |
其中:k代表邻域阶数;
$ {\boldsymbol{x}}_{{N}_{\left(u\right)}}=\frac{1}{k}\left({\boldsymbol{x}}_{{N}_{\left(u\right)‐1}}+{\boldsymbol{x}}_{{N}_{\left(u\right)‐2}}+\cdots +{\boldsymbol{x}}_{{N}_{\left(u\right)‐\mathrm{k}}}\right) $ | (6) |
则局部卷积通道的输出为:
$ {\boldsymbol{x}}_{u}^{\mathrm{l}\mathrm{o}\mathrm{c}\mathrm{a}\mathrm{l}}={\boldsymbol{x}}_{u}+{\boldsymbol{x}}_{{N}_{\left(u\right)}} $ | (7) |
其中:
$ \boldsymbol{X}=\left[\begin{array}{c}{\boldsymbol{X}}_{\mathrm{U}\mathrm{s}\mathrm{e}\mathrm{r}}\\ {\boldsymbol{X}}_{\mathrm{I}\mathrm{t}\mathrm{e}\mathrm{m}}\end{array}\right] $ | (8) |
$ {\boldsymbol{X}}_{N}=\frac{1}{k}\left(\boldsymbol{L}\boldsymbol{X}+{\boldsymbol{L}}_{2}\boldsymbol{X}+\cdots +{\boldsymbol{L}}_{k}\boldsymbol{X}\right) $ | (9) |
$ {\boldsymbol{X}}_{\mathrm{l}\mathrm{o}\mathrm{c}\mathrm{a}\mathrm{l}}=\boldsymbol{X}+{\boldsymbol{X}}_{N} $ | (10) |
其中:X为图中节点的初始特征矩阵;
$ \boldsymbol{L}={\boldsymbol{D}}^{-\frac{1}{2}}\boldsymbol{A}{\boldsymbol{D}}^{-\frac{1}{2}} $ | (11) |
$ {\boldsymbol{L}}_{k}={\boldsymbol{D}}_{k}^{-\frac{1}{2}}{\boldsymbol{Q}}_{k}{\boldsymbol{D}}_{k}^{-\frac{1}{2}} $ | (12) |
其中:D、Dk为相应的度矩阵。L和Lk对应位置的分量计算如下:
$ {\left[\boldsymbol{L}\right]}_{ui}=\frac{1}{\sqrt{\left|{N}_{\left(u\right)‐1}\right|\left|{N}_{\left(i\right)‐1}\right|}} $ | (13) |
$ {\left[{\boldsymbol{L}}_{k}\right]}_{ui}=\frac{1}{\sqrt{\left|{N}_{\left(u\right)‐k}\right|\left|{N}_{\left(i\right)‐k}\right|}} $ | (14) |
在全局卷积通道中,以节点特征为基础,通过聚类的方式构造一个全局交互图Gglobal来代表所有节点在整体结构中的交互关系,并利用由Gglobal导出的关联矩阵H构建图卷积运算,以完成全局卷积通道中的信息聚合任务,挖掘节点间潜在的交互关系。
在全局交互图Gglobal中,产生交互关系的2个节点既可能属于同一局部结构,也可能在空间距离上相隔较远,体现了节点的全局属性,而不再局限于历史数据中已经被观测到的成对的二部图连接方式。同时,聚合来自特征表现相似的邻居节点的协作信号,能够加强高阶信息的积极性。为了在构造交互图的过程中体现节点的结构性,在构图之前为所有节点添加其邻域信息,即将节点本身的特征与一阶邻域特征进行拼接,如下:
$ {\boldsymbol{X}}_{\mathrm{C}}=\mathrm{c}\mathrm{o}\mathrm{n}\mathrm{c}\mathrm{a}\mathrm{t}\left(\boldsymbol{X}, \boldsymbol{L}\boldsymbol{X}\right) $ | (15) |
然后以携带一阶邻域信息的节点特征XC为基础,通过kMeans聚类算法对所有节点进行再分类,如果2个节点被划分到同一类别中,则在2个节点间添加一条连接边,由此得到全局结构上的交互图Gglobal。上述过程具体描述如算法1所示。
算法1 全局交互图Gglobal构造算法
输入 节点特征XC
输出 全局交互图Gglobal
1.以节点特征XC为基础,利用kMeans聚类算法将所有用户节点和商品节点进行再分类,得到各个类别的聚类中心C.centers
2.for each node in XC:
3.以当前节点的特征向量XC[node]为基础,计算当前节点与各个聚类中心点C.centers之间的欧氏距离D
4.当前节点与哪一类别聚类中心的距离最近,则当前节点属于该类
5.在当前节点的全局邻域Gglobal[node]内添加相应类别的邻居节点
6.end for
7.return Gglobal
在完成上述算法流程后,为了保证全局邻域内传递的高阶信息的积极性,需要对全局交互图Gglobal中所有节点的邻域进行二次筛选,为每一个节点在其所属类别内部选择固定数量的特征表现最为相近的邻居节点。同样以用户节点u为例,其在全局邻域内的信息聚合方式为:
$ {\boldsymbol{x}}_{{N}_{\left(u\right)‐\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}}}=\frac{1}{\sqrt{\left|{N}_{\left(u\right)‐\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}}\right|}}\sum \limits_{i\in {N}_{\left(u\right)‐\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}}}\frac{1}{\sqrt{\left|{N}_{\left(i\right)‐\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}}\right|}}{\boldsymbol{x}}_{i} $ | (16) |
其中:
$ {\boldsymbol{x}}_{u}^{\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}}={\boldsymbol{x}}_{u}+{\boldsymbol{x}}_{{N}_{\left(u\right)‐\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}}} $ | (17) |
这里同样给出全局卷积通道计算过程的矩阵形式,由交互图Gglobal导出关联矩阵H(代表节点在全局结构中的交互情况),全局卷积通道的特征更新过程如下:
$ {\boldsymbol{X}}_{\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}}=\boldsymbol{X}+{\boldsymbol{L}}_{\boldsymbol{H}}\boldsymbol{X} $ | (18) |
$ {\boldsymbol{L}}_{\boldsymbol{H}}={\boldsymbol{D}}_{\boldsymbol{H}}^{-\frac{1}{2}}\boldsymbol{H}{\boldsymbol{D}}_{\boldsymbol{H}}^{-\frac{1}{2}} $ | (19) |
其中:Xglobal为图中节点的全局特征矩阵;LH为关联矩阵H的拉普拉斯矩阵;DH为相应的度矩阵,对应位置分量与式(16)中相同。
2.4 交互预测在完成局部卷积通道和全局卷积通道的特征更新过程后,分别得到节点的局部特征和全局特征,将这2个部分的信息相加得到节点的最终向量表达:
$ {\boldsymbol{x}}_{u}^{F}={\boldsymbol{x}}_{u}^{\mathrm{l}\mathrm{o}\mathrm{c}\mathrm{a}\mathrm{l}}+{\boldsymbol{x}}_{u}^{\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}} $ | (20) |
矩阵形式为:
$ {\boldsymbol{X}}_{F}={\boldsymbol{X}}_{\mathrm{l}\mathrm{o}\mathrm{c}\mathrm{a}\mathrm{l}}+{\boldsymbol{X}}_{\mathrm{g}\mathrm{l}\mathrm{o}\mathrm{b}\mathrm{a}\mathrm{l}} $ | (21) |
此时,用户u对商品i的评分可以通过向量表达
$ {\widehat{y}}_{\mathrm{D}\mathrm{C}\mathrm{C}\mathrm{F}}\left(u, i\right)={\left({\boldsymbol{x}}_{u}^{F}\right)}^{\mathrm{T}}{\boldsymbol{x}}_{i}^{F} $ | (22) |
本文模型中的各项参数使用成对BPR损失函数进行优化,通过最大化正样本和负样本之间差距的方式来完成训练:
$ \mathrm{l}\mathrm{o}\mathrm{s}{\mathrm{s}}_{\mathrm{B}\mathrm{P}\mathrm{R}}=\sum \limits_{(u, i, j)\in O}-\mathrm{l}\mathrm{n}\sigma \left({\widehat{y}}_{ui}-{\widehat{y}}_{uj}\right) $ | (23) |
其中:
为了验证DCCF模型的性能表现,本文选择3个公开的常用于推荐算法评价的数据集进行实验。对于每个数据集,选取其中80%的样本作为训练集,剩下20%作为测试集,数据集信息如表 1所示。
![]() |
下载CSV 表 1 数据集信息 Table 1 Datasets information |
本文实验选择以下基于不同网络架构的模型进行对比:
1)BPR-MF[16]:利用BPR损失函数进行优化的矩阵分解模型,以固定维度的向量嵌入代表商品和用户。
2)DMF[24]:通过多层全连接网络从交互矩阵中为用户和商品学习维度统一的向量表达。
3)GC-MC[20]:将用户与商品之间的历史交互组织为二部图的形式,使用单层图卷积网络生成用户和商品的向量表达。
4)NGCF[6]:基于GCN设计的协同过滤模型,在向量嵌入阶段使用多层图卷积网络获取信息。
5)LR-GCCF[8]:在NGCF的基础上进行简化,去掉激活函数和线性变换并引入残差连接。
3.1.3 评价指标为了对本文模型在topK预测和偏好排序任务中的表现进行评价,选取归一化折损累计增益(NDCG@K)和召回率(Recall@K)这2个被广泛应用于推荐算法评估的指标。
NDCG@K对模型返回的候选物品列表进行评价,计算如下:
$ \mathrm{D}\mathrm{C}\mathrm{G}@K=\sum \limits_{i}^{K}\frac{r\left(i\right)}{\mathrm{l}\mathrm{b}\left(i+1\right)} $ | (24) |
$ \mathrm{N}\mathrm{D}\mathrm{C}\mathrm{G}@K=\frac{\mathrm{D}\mathrm{C}\mathrm{G}@K}{\mathrm{I}\mathrm{D}\mathrm{C}\mathrm{G}@K} $ | (25) |
其中:DCG@K是考虑排序顺序因素后推荐列表内商品的得分总和;IDCG@K为归一化参数,是DCG@K能达到的最大值。NDCG@K的计算规则为:候选物品与当前用户的相关性越高则得分越高,高相关性候选物品在列表中的位置越靠前则得分越高。
召回率Recall@K代表真实产生的交互中模型预测正确的比例,计算如下:
$ \mathrm{R}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}@K=\frac{{T}_{\mathrm{P}}}{{T}_{\mathrm{P}}+{F}_{\mathrm{N}}} $ | (26) |
其中:TP是将正样本预测为正样本的数量;FN是将正样本预测为负样本的数量。
本文设置K=10,利用测试集中所有用户的平均指标结果代表模型的训练结果。
3.1.4 实验环境及参数设置实验硬件配置为Intel® Xeon® Bronze 3104处理器,RTX2080ti显卡,512 GB内存,操作系统是Windows10。模型基于深度学习框架PyTorch1.4.0,通过Python语言实现。在对比实验中,采用统一的64维向量来表达用户和商品。对于所有模型,使用BPR-Loss优化各项参数,训练批次大小固定为1 024。其他参数方面,局部卷积通道中的转移概率阈值PΘ设定为0.5,全局卷积通道中3个数据集上的聚类数目分别为[20,100,100],学习率在[0.000 1,0.000 5,0.001,0.005]中选择。对于较为重要的超参数,局部卷积通道中在最高邻域阶数分别为[1,2,3,4]时进行实验,全局卷积通道中邻域节点数目在[10,20,30,40,50]中选择。
3.1.5 模型实现DCCF模型按照第2节中提供的矩阵计算形式实现,模型中涉及的邻接矩阵、各阶转移矩阵以及全局交互图关联矩阵均使用稀疏矩阵的形式存放,使用scipy.sparse计算包实现,而不是完整的数据矩阵,以减少内存和计算开销。在模型训练过程中,PyTorch框架也支持将稀疏矩阵转化为稀疏张量后进行迭代计算。同时,DCCF模型在更新特征的过程中并没有使用激活函数和线性变换,训练参数量相比NGCF模型大幅降低,每一个epoch训练时间低于NGCF的一半。在本文设计的全局卷积通道中,采用聚类的方式构建节点的全局邻域,其中,聚类算法的空间复杂度开销为O(d(N+M+K)),d为向量嵌入的维度,N+M为节点总数,K为聚类数目。聚类所需的空间复杂度开销远小于直接进行所有节点相似度计算的空间复杂度开销O((N+M)2),特别是在大规模数据集下,维护完整的节点关系矩阵需要大量内存和显存资源。
3.2 结果分析 3.2.1 对比实验表 2和表 3是在3个数据集上分别以Recall@10和NDCG@10作为评价指标进行对比实验的结果,其中,DCCF模型的结果加粗标注,“__”代表基准算法中表现最好的模型,“提升”一项则表示DCCF模型相对于基准算法中表现最好的模型的性能提升。从中可以看出,本文DCCF模型在所有数据集上均能取得最佳性能表现,相较基准算法中表现最好的模型,DCCF在Recall@10和NDCG@10两个指标上最高提升2.8%和5.0%,性能提升验证了DCCF对于推荐任务的有效性。GC-MC的性能表现整体上优于MF和DMF,说明在向量嵌入的过程中添加来自邻居节点的协作信号可以提升模型的推荐能力。NGCF的性能表现始终优于GC-MC,原因是GC-MC只考虑节点的一阶邻域,而NGCF通过多层网络堆叠对局部结构中的可达路径进行建模和表达。LR-GCCF在NGCF的基础上进行简化,去掉激活函数和线性变换,并在每一层增加额外的残差连接,改善了模型表现。DCCF在不同数据集上的表现始终优于LR-GCCF,表明DCCF通过构建不同的图卷积运算引入多种类型的高阶关系信息,能进一步提升算法的推荐性能。
![]() |
下载CSV 表 2 模型的Recall@10对比结果 Table 2 Recall@10 comparison results of models |
![]() |
下载CSV 表 3 模型的NDCG@10对比结果 Table 3 NDCG@10 comparison results of models |
GC-MC[20]和NGCF[6]在其模型设计中保留了线性变换矩阵和非线性激活函数这2种结构,但对于协同过滤任务而言,这2种结构并不一定有效,甚至会对算法性能造成负面影响[7-8]。为了保证DCCF模型的推荐性能,对于上述2种结构的不同组合进行对比实验,结果如表 4、表 5所示,其中:n代表非线性激活函数,这里使用LeakyReLU;w代表线性变换。
![]() |
下载CSV 表 4 不同结构下的Recall@10对比结果 Table 4 Recall@10 comparison results under different structures |
![]() |
下载CSV 表 5 不同结构下的NDCG@10对比结果 Table 5 NDCG@10 comparison results under different structures |
从表 4、表 5可以看出:在MovieLens-100K数据集上,同时添加激活函数和线性变换结构后,模型性能表现最差;在Gowalla数据集上,只添加线性变换结构后,模型性能表现最差;相较其他结构组合,去掉线性变换矩阵和激活函数后,DCCF的性能表现在所有数据集上达到最佳。
为了验证本文DCCF模型的局部卷积通道是否能够有效聚合信息,以及全局卷积通道对模型性能的影响,将去掉全局卷积通道后的模型DCCF_Local与NGCF、DCCF进行对比,结果如表 6、表 7所示。
![]() |
下载CSV 表 6 Recall@10消融实验结果 Table 6 Recall@10 ablation experiment results |
![]() |
下载CSV 表 7 NDCG@10消融实验结果 Table 7 NDCG@10 ablation experiment results |
从表 6、表 7可以看出:只保留局部卷积通道的模型DCCF_Local在整体性能表现上优于NGCF,表明本文在局部邻域信息聚合方式上的改进具有有效性;在局部卷积通道的基础上添加全局信息后,模型性能表现再一次得到提升,说明在向量嵌入过程中融合局部特征和全局特征这2种来源不同的高阶信息,可以提升模型的表达能力。
3.2.3 超参数灵敏度分析为了使DCCF的实验性能取得最佳,针对局部通道中的最高邻域阶数以及全局通道中的邻居节点数这2个重要的超参数,在不同取值下进行参数灵敏度实验。首先,设定全局卷积通道中邻居节点数为20,调整局部卷积通道中的最高邻域阶数,在3个数据集上进行对比实验,结果如表 8所示,从整体实验结果来看,模型的性能表现随着邻域阶数的增加而逐渐提升,除MovieLens-100K数据集外,DCCF在最高邻域阶数为3时取得最佳性能。
![]() |
下载CSV 表 8 不同邻域阶数下的实验结果 Table 8 Experimental results under different neighborhood orders |
根据上述结果,设置局部卷积通道的最高邻域阶数为3,调整全局卷积通道中的全局邻域节点数进行实验,结果如图 4所示。从图 4可以看出:在3个数据集上,对于评价指标Recall@10,DCCF在邻居节点数分别为40、30、30时表现最佳;对于评价指标NDCG@10,DCCF在邻居节点数分别为40、30、20时表现最佳。实验结果表明,全局邻域内邻居节点数取值为30左右时模型性能表现较好,这也说明全局邻域内传递的高阶信息并非越多越好,过度的邻域扩展可能会聚合一些不必要的邻居噪声,从而导致模型性能下降。
![]() |
Download:
|
图 4 不同邻居节点数下的模型性能表现 Fig. 4 Performance of the model under different number of neighbor nodes |
本文将图卷积网络与协同过滤推荐算法相结合,提出一种双通道协同过滤推荐算法DCCF,该算法利用2个不同的卷积通道分别聚合局部和全局关联信息。在局部卷积通道中,DCCF结合转移矩阵以及转移阈值来确定用户节点和商品节点的局部邻域构成,使用单层网络完成信息聚合任务。在全局卷积通道中,DCCF以聚类的方式构造全局交互图,并以此为基础构建图卷积运算,从而聚合特征表现相似的节点信息。将上述局部信息和全局信息进行整合,作为用户节点和商品节点的最终向量表示形式。实验结果表明,DCCF算法的推荐性能优于BPR-MF、DMF等基准算法。
下一步将从注意力机制和超图这2个角度对DCCF推荐算法进行改进:引入注意力机制,设计相应的关联强度计算方法[25-26],在确定节点的邻域范围后有区别地聚合信息,从而提升推荐性能;在用户和商品过往交互的基础上,通过设计不同的自定义规则来构建超图,针对不同的交互关系进行细粒度建模,从而提升模型的可解释性。
[1] |
黄立威, 江碧涛, 吕守业, 等. 基于深度学习的推荐系统研究综述[J]. 计算机学报, 2018, 41(7): 1619-1647. HUANG L W, JIANG B T, LÜ S Y, et al. Survey on deep learning based recommender systems[J]. Chinese Journal of Computers, 2018, 41(7): 1619-1647. (in Chinese) |
[2] |
刘军, 杨军, 宋姗姗. 基于用户购买意愿力的协同过滤推荐算法[J]. 吉林大学学报(理学版), 2021, 59(6): 1432-1438. LIU J, YANG J, SONG S S. Collaborative filtering recommendation algorithm based on purchasing intention of users[J]. Journal of Jilin University (Science Edition), 2021, 59(6): 1432-1438. (in Chinese) |
[3] |
徐冰冰, 岑科廷, 黄俊杰, 等. 图卷积神经网络综述[J]. 计算机学报, 2020, 43(5): 755-780. XU B B, CEN K T, HUANG J J, et al. A survey on graph convolutional neural network[J]. Chinese Journal of Computers, 2020, 43(5): 755-780. (in Chinese) |
[4] |
ZHOU J, CUI G Q, HU S D, et al. Graph neural networks: a review of methods and applications[J]. AI Open, 2020, 1: 57-81. DOI:10.1016/j.aiopen.2021.01.001 |
[5] |
WU S W, ZHANG W T, SUN F, et al. Graph neural networks in recommender systems: a survey[EB/OL]. [2021-07-01]. https://arxiv.org/abs/2011.02260.
|
[6] |
WANG X, HE X N, WANG M, et al. Neural graph collaborative filtering[C]//Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York, USA: ACM Press, 2019: 165-174.
|
[7] |
HE X N, DENG K, WANG X, et al. LightGCN: simplifying and powering graph convolution network for recommendation[C]//Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York, USA: ACM Press, 2020: 639-648.
|
[8] |
CHEN L, WU L, HONG R C, et al. Revisiting graph based collaborative filtering: a linear residual graph convolutional network approach[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(1): 27-34. DOI:10.1609/aaai.v34i01.5330 |
[9] |
KIPF T N, WELLING M. Semi-supervised classification with graph convolutional networks[EB/OL]. [2021-07-01]. https://arxiv.org/abs/1609.02907.
|
[10] |
LI Q M, HAN Z C, WU X M. Deeper insights into graph convolutional networks for semi-supervised learning[EB/OL]. [2021-07-01]. https://arxiv.org/abs/1801.07606.
|
[11] |
HUANG W B, RONG Y, XU T Y, et al. Tackling over-smoothing for general graph convolutional networks[EB/OL]. [2021-07-01]. https://arxiv.org/abs/2008.09864.
|
[12] |
HECHTLINGER Y, CHAKRAVARTI P, QIN J. A generalization of convolutional neural networks to graph-structured data[EB/OL]. [2021-07-01]. https://arxiv.org/abs/1704.08165.
|
[13] |
HERLOCKER J L, KONSTAN J A, BORCHERS A, et al. An algorithmic framework for performing collaborative filtering[J]. ACM SIGIR Forum, 2017, 51(2): 227-234. DOI:10.1145/3130348.3130372 |
[14] |
SARWAR B, KARYPIS G, KONSTAN J, et al. Item-based collaborative filtering recommendation algorithms[C]//Proceedings of the 10th International Conference on World Wide Web. New York, USA: ACM Press, 2001: 285-295.
|
[15] |
KOREN Y, BELL R, VOLINSKY C. Matrix factorization techniques for recommender systems[J]. Computer, 2009, 42(8): 30-37. DOI:10.1109/MC.2009.263 |
[16] |
RENDLE S, FREUDENTHALER C, GANTNER Z, et al. BPR: Bayesian personalized ranking from implicit feedback[EB/OL]. [2021-07-01]. https://arxiv.org/abs/1205.2618.
|
[17] |
贾俊杰, 刘鹏涛, 陈旺虎. 融合社交信息的矩阵分解改进推荐算法[J]. 计算机工程, 2021, 47(9): 97-105. JIA J J, LIU P T, CHEN W H. Improved matrix factorization algorithm using social information for recommendation[J]. Computer Engineering, 2021, 47(9): 97-105. (in Chinese) |
[18] |
HE X N, LIAO L Z, ZHANG H W, et al. Neural collaborative filtering[C]//Proceedings of the 26th International Conference on World Wide Web. New York, USA: ACM Press, 2017: 173-182.
|
[19] |
HE X N, HE Z K, SONG J K, et al. NAIS: neural attentive item similarity model for recommendation[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 30(12): 2354-2366. DOI:10.1109/TKDE.2018.2831682 |
[20] |
BERG R, KIPF T N, WELLING M. Graph convolutional matrix completion[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York, USA: ACM Press, 2018: 1-9.
|
[21] |
JI S Y, FENG Y F, JI R R, et al. Dual channel hypergraph collaborative filtering[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York, USA: ACM Press, 2020: 2020-2029.
|
[22] |
FENG Y F, YOU H X, ZHANG Z Z, et al. Hypergraph neural networks[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33: 3558-3565. DOI:10.1609/aaai.v33i01.33013558 |
[23] |
JIANG J, WEI Y, FENG Y, et al. Dynamic hypergraph neural networks[EB/OL]. [2021-07-01]. https://www.ijcai.org/Proceedings/2019/0366.pdf.
|
[24] |
XUE H J, DAI X, ZHANG J, et al. Deep matrix factorization models for recommender systems[EB/OL]. [2021-07-01]. https://www.ijcai.org/Proceedings/2017/0447.pdf.
|
[25] |
WANG X, WANG R J, SHI C, et al. Multi-component graph convolutional collaborative filtering[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(4): 6267-6274. DOI:10.1609/aaai.v34i04.6094 |
[26] |
康雁, 李涛, 李浩, 等. 融合知识图谱与协同过滤的推荐模型[J]. 计算机工程, 2020, 46(12): 73-79, 87. KANG Y, LI T, LI H, et al. Recommendation model fusing with knowledge graph and collaborative filtering[J]. Computer Engineering, 2020, 46(12): 73-79, 87. (in Chinese) |