2. 中国农业大学 信息与电气工程学院, 北京 100083
2. College of Information and Electrical Engineering, China Agriculture University, Beijing 100083, China
开放科学(资源服务)标志码(OSID):
多视角数据是指对于同一个物体,从不同层面观察或从多个源头得到的特征数据[1-2]。多视角数据从不同的角度对同一物体进行描述,比单视角数据更加全面[3-4]。多视角学习[5-7]是根据各个视角间的内在联系及每个视角具有的独特属性对多视角数据进行处理和分析,进而合理充分地利用多视角数据的一种全新的学习方法。多视角学习已经成为机器学习和数据挖掘领域中备受关注的热点问题[8-10]。
随着科学技术的高速发展,人们收集和处理数据的手段越来越多种多样,在信息爆炸式增长的同时也同样面临着数据维度高和高冗余的问题,增加了实验的计算复杂度并引起维数灾难[11-12]。降维是克服维数灾难,获取数据本质特征的一个重要途径,根据是否基于样本标签信息,可以分为无监督降维和有监督降维。目前最主流的无监督降维方法有主成分分析(PCA)[13]、Laplacian特征映射(LE)[14]和t-分布随机近邻嵌入(t-SNE)[15]3种。对于有监督降维,最经典的方法是线性判别分析(LDA)[16]。近年来,多视角降维方法备受关注[17-19],然而由于数据收集的困难性、高额成本或设备故障等,高质量无缺失的多视角数据很少会出现在真实的应用中,人们收集的多视角数据常常包含不完整视角[20-21]。所谓不完整视角是指在该视角下某一样本的部分或全部特征缺失。例如,在对阿兹海默症患者的诊断中,由于脑脊液的获取会对病人产生某种不利影响或攻击性,有些病人会拒绝这项检查,这就导致了该病人脑脊液这一诊断数据的缺失。当处理不完整多视角数据时,传统的多视角降维方法不能实现其良好的性能[22-23]。因此,不完整多视角数据降维方法的研究已经成为多视角学习中一个重大的挑战。
目前,不完整多视角数据的降维方法主要分为两大类。第一类不考虑缺失数据的重构,旨在利用已有样本直接学习投影矩阵及样本的低维表示。2010年,KIMURA等人[24]将典型相关分析(CCA)[25]与主成分分析(PCA)[13]的广义特征值问题结合,提出一种不完整两视角数据降维方法Semi-CCA,希望在最大化两视角间成对样本低维表示相关性的同时,保持每个视角数据的全局结构,最终利用已有数据分别求出两个视角的投影矩阵,但仅限于两视角的问题,并且只适用于线性数据。对于非线性数据,TRIVEDI等人在KCCA(Kernel CCA)[26]的基础上提出了MCIV[27],基于不同视角间的核矩阵一致性的思想重构核矩阵,然后再应用KCCA对重构后的多视角数据降维。但是,这种方法要求至少有一个完整视角,这在实际应用中是难以实现的。
第二类降维方法通常基于某些前提假设补全缺失数据,希望能够减轻不完整数据对后续学习任务的影响。2015年,XU等人提出了MVL-IV[28],基于低秩假设进行矩阵补全。同时,考虑到多视角数据的一致性[29-30],希望利用矩阵分解得到所有视角共同的低维表示,但是这种方法只是单纯地将多视角投影到一个公共子空间,没有考虑到数据的结构信息。TAO等人[31]提出用低秩矩阵近似不完整视角,并通过线性变换学习完整的公共嵌入。此外,为学习到更加合理的低维嵌入,引入了块对角结构先验正则项。2018年,YANG等人[32]基于同一视角下样本的线性相关性与不同视角间同一样本对应的低维表示应该相似[33-35]地假设线性重构缺失样本,同时引入图嵌入项来保持原始空间的局部结构,但是该方法只考虑了完整样本,忽略了重构样本的作用,造成了一定程度的信息损失。ZHANG等人[36]通过引入不同视角间的一致分布约束进行特征级的缺失数据补全,同时通过构建特征同构子空间来捕捉不同视角间的互补性。
本文提出一种基于双重局部保持的不完整多视角降维方法(DLPEL)。利用不同视角间的局部结构一致性以及同一视角下样本的线性相关性来线性重构缺失样本,并构造所有样本点上的图来学习所有视角的公共低维嵌入。在此基础上,为权衡缺失样本对学习结果的影响,设计一个权重来度量样本的可靠性。
1 相关工作 1.1 局部线性嵌入局部线性嵌入(Locality Linear Embedding,LLE)[37]认为数据在局部是线性的,即某个样本可以被它邻域内的样本线性表示,希望降维后能保持高维空间的局部线性结构,是一种无监督非线性降维方法。已知数据集
用样本
| $ \underset{{w}_{1}, {w}_{2}, \cdots , {w}_{m}}{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{i=1}^{m}{‖{x}_{i}-\sum\limits_{j=1}^{m}{w}_{ij}{x}_{j}‖}_{2}^{2} $ | (1) |
| $ \begin{array}{l}\mathrm{s}.\mathrm{t}.\mathrm{ }{w}_{ij}=0, \mathrm{ }j\notin {Q}_{i}\\ \sum\limits_{j=1}^{m}{w}_{ij}=1, i=\mathrm{1, 2}, \cdots , m\end{array} $ | (2) |
其中,
| $ \underset{{y}_{1}, {y}_{2}, \cdots , {y}_{m}}{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{i=1}^{m}{‖{y}_{i}-\sum\limits_{j=1}^{m}{w}_{ij}{y}_{j}‖}_{2}^{2} $ | (3) |
由式(3)即可求出原始样本的低维表示
局部保持投影(Locality Preserving Projection,LPP)[38]是一种经典的线性降维方法,其目标是学习一个投影矩阵P,将原始数据投影到低维子空间中。LPP希望找到的投影矩阵P能够保持原始数据的局部近邻结构,优化问题如下:
| $ \underset{\boldsymbol{P}}{\mathrm{m}\mathrm{i}\mathrm{n}}\frac{1}{2}\sum\limits_{i, j}{W}_{ij}{‖{\boldsymbol{P}}^{\mathrm{T}}{x}_{i}-{\boldsymbol{P}}^{\mathrm{T}}{x}_{j}‖}_{2}^{2} $ | (4) |
其中,
| $ {W}_{ij}=\left\{\begin{array}{l}{\mathrm{e}}^{-{‖{x}_{i}-{x}_{j}‖}_{2}^{2}/{\sigma }^{2}}, \mathrm{若}{x}_{i}\in {N}_{k}\left({x}_{j}\right), {x}_{j}\in {N}_{k}\left({x}_{i}\right)\\ 0, \mathrm{否}\mathrm{则}\end{array}\right. $ | (5) |
或:
| $ {W}_{ij}=\left\{\begin{array}{l}1, \mathrm{若}{x}_{i}\in {N}_{k}\left({x}_{j}\right), {x}_{j}\in {N}_{k}\left({x}_{i}\right)\\ 0, \mathrm{否}\mathrm{则}\end{array}\right. $ | (6) |
其中,σ为热核参数,
对于不完整多视角数据,本文考虑部分样本在所有视角下完整,而其余样本只有部分视角,即缺失样本的整个特征向量在某些视角下缺失的情况。本文模型希望学习所有视角的公共低维嵌入。
已知
|
Download:
|
| 图 1 不完整多视角数据的场景 Fig. 1 Scenario of incomplete multi-view data | |
本文方法是一种两阶段方法。第一阶段线性重构缺失样本,第二阶段求所有视角在
本文认为同一视角下的不同样本不是独立无关的,它们之间具有一定的线性相关性[31],某个样本可以被其余样本线性表示。基于这一假设,对于缺失样本
| $ \underset{{\boldsymbol{l}}_{i}^{u}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖{x}_{i}^{u}-{\boldsymbol{X}}_{a}^{u}{\boldsymbol{l}}_{i}^{u}‖}_{2}^{2}+\lambda {‖{\boldsymbol{l}}_{i}^{u}‖}_{2}^{2} $ | (7) |
其中,第1项为重构误差项,
通过求解上述优化问题,获得了第
| $ \underset{{\left\{{\alpha }_{u}, {\boldsymbol{l}}_{i}^{u}\right\}}_{u\in {V}^{i}}}{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{u\in {V}^{i}}{\alpha }_{u}^{2}{‖{x}_{i}^{u}-{\boldsymbol{X}}_{a}^{u}{\boldsymbol{l}}_{i}^{u}‖}_{2}^{2}+\lambda {‖{\boldsymbol{l}}_{i}^{u}‖}_{2}^{2} $ | (8) |
| $ \mathrm{s}.\mathrm{t}.\sum\limits_{u\in {V}^{i}}{\alpha }_{u}=1, {\alpha }_{u}\ge 0 $ | (9) |
每个视角都对应一个非负权重
| $ {x}_{i}^{v} = \sum\limits_{u\in {V}^{i}}{\alpha }_{u}{\boldsymbol{X}}_{a}^{u}{\boldsymbol{l}}_{i}^{u}(i\in {I}^{v}, v=\mathrm{1, 2}, \cdots , S) $ | (10) |
在第2阶段,基于重构后的完整多视角数据,希望学习所有视角公共的低维
| $ \underset{Y}{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{v=1}^{s}\sum\limits_{i, j=1}^{N}{S}_{ij}^{v}‖{y}_{i}-{y}_{j}‖{}_{2}^{2} $ | (11) |
| $ \mathrm{s}.\mathrm{t}.\boldsymbol{Y}{\boldsymbol{Y}}^{\mathrm{T}}=\boldsymbol{I} $ | (12) |
其中,
| $ {S}_{ij}^{v}={\mathrm{e}}^{-{‖{x}_{i}^{v}-{x}_{j}^{v}‖}_{2}^{2}/\sigma } $ | (13) |
其中,
传统的基于图的降维方法如LPP等都是先学习原始空间的局部结构。显然,如果原始数据有误差或噪声,那么这种误差也会传递到所学的数据结构中。考虑到重构后的数据可能是不精确的,会给最终的学习结果带来一定的误差。因此,本文设计了一种权重来减轻重构样本对模型的影响,如(14)所示:
| $ {S}_{ij}^{v}={\mathrm{e}}^{-{‖{x}_{i}^{v}-{x}_{j}^{v}‖}_{2}^{2}/\sigma -{z}_{ij}} $ | (14) |
其中,惩罚参数
| $ {z}_{ij}=\left\{\begin{array}{l}0, \mathrm{若}{M}_{vi}={M}_{vj}=1\\ \frac{1}{\mathrm{m}\mathrm{i}\mathrm{n}\left({‖M\left(:, i\right)‖}_{1}, {‖M\left(:, j\right)‖}_{1}\right)}, \mathrm{若}{M}_{vi}=0,{M}_{vj}=0\end{array}\right. $ | (15) |
其中,
| $ {M}_{ij}=\left\{\begin{array}{l}1, \mathrm{第}j\mathrm{个}\mathrm{样}\mathrm{本}\mathrm{在}\mathrm{第}i\mathrm{个}\mathrm{视}\mathrm{角}\mathrm{下}\mathrm{是}\mathrm{完}\mathrm{整}\mathrm{的}\\ 0, \mathrm{否}\mathrm{则}\end{array}\right. $ | (16) |
其中,惩罚参数
此外,考虑到多视角数据的互补性,认为每个视角对学习公共嵌入
| $ \underset{Y, \beta }{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{v=1}^{s}{\beta }_{v}^{2}\sum\limits_{i, j=1}^{N}{S}_{ij}^{v}{‖{y}_{i}-{y}_{j}‖}_{2}^{2} $ | (17) |
| $ \mathrm{s}.\mathrm{t}.\boldsymbol{Y}{\boldsymbol{Y}}^{\mathrm{T}}=I, \sum\limits_{v=1}^{s}{\beta }_{v}=1, {\beta }_{v}\ge 0 $ | (18) |
为叙述方便,上述优化问题可以化解为如下形式:
| $ \underset{\boldsymbol{Y}, \beta }{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{v=1}^{s}{\beta }_{v}^{2}\mathrm{t}\mathrm{r}\left(\boldsymbol{Y}{\boldsymbol{L}}^{v}{\boldsymbol{Y}}^{\mathrm{T}}\right) $ | (19) |
| $ \mathrm{s}.\mathrm{t}.\boldsymbol{Y}{\boldsymbol{Y}}^{\mathrm{T}}=I, \sum\limits_{v=1}^{s}{\beta }_{v}=1, {\beta }_{v}\ge 0 $ | (20) |
其中,
对
1) 固定
对第
| $ \underset{{\boldsymbol{l}}_{i}^{u}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖{x}_{i}^{u}-{\boldsymbol{X}}_{a}^{u}{\boldsymbol{l}}_{i}^{u}‖}_{2}^{2}+\frac{\lambda }{{\alpha }_{u}^{2}}{‖{\boldsymbol{l}}_{i}^{u}‖}_{2}^{2} $ | (21) |
计算式(21)中目标函数关于
| $ {\boldsymbol{X}}_{a}^{u\mathrm{T}}{\boldsymbol{X}}_{a}^{u}{\boldsymbol{l}}_{i}^{u}-{\boldsymbol{X}}_{a}^{u\mathrm{T}}{x}_{i}^{u}+\frac{\lambda }{{\alpha }_{u}^{2}}{\boldsymbol{l}}_{i}^{u}=0 $ | (22) |
可得解析解:
| $ {\boldsymbol{l}}_{i}^{u}={\left({\boldsymbol{X}}_{a}^{u\mathrm{T}}{\boldsymbol{X}}_{a}^{u}+\frac{\lambda }{{\alpha }_{u}^{2}}\boldsymbol{I}\right)}^{+}{\boldsymbol{X}}_{a}^{u\mathrm{T}}{x}_{i}^{u} $ | (23) |
其中,
2) 固定
给定
| $ \underset{{\left\{{\alpha }_{u}\right\}}_{u\in {V}^{i}}}{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{u\in {V}^{i}}{\alpha }_{u}^{2}{‖{x}_{i}^{u}-{\boldsymbol{X}}_{a}^{u}{\boldsymbol{l}}_{i}^{u}‖}_{2}^{2} $ | (24) |
| $ \mathrm{s}.\mathrm{t}.\sum\limits_{u\in {V}^{i}}{\alpha }_{u}=1, {\alpha }_{u}\ge 0 $ | (25) |
为简单起见,式(24)中的目标函数可写为:
| $ \sum\limits_{u\in {V}^{i}}{\alpha }_{u}^{2}{‖{x}_{i}^{u}-{\boldsymbol{X}}_{a}^{u}{\boldsymbol{l}}_{i}^{u}‖}_{2}^{2}=\\ \sum\limits_{u\in {V}^{i}}{\alpha }_{u}^{2}{‖{\boldsymbol{X}}^{u}{e}_{i}-{\boldsymbol{X}}^{u}\left(\begin{array}{c}{\boldsymbol{I}}_{p\times p}\\ {O}_{(n-p)\times p}\end{array}\right){\boldsymbol{l}}_{i}^{u}‖}_{2}^{2}= $ |
| $ \sum\limits_{u\in {V}^{i}}{\alpha }_{u}^{2}{‖{\boldsymbol{X}}^{u}\left({e}_{i}-\left(\begin{array}{c}{\boldsymbol{I}}_{p\times p}\\ {O}_{(n-p)\times p}\end{array}\right){\boldsymbol{l}}_{i}^{u}\right)‖}_{2}^{2}=\\ \sum\limits_{u\in {V}^{i}}{\alpha }_{u}^{2}\mathrm{t}\mathrm{r}\left({\boldsymbol{X}}^{u}{\boldsymbol{H}}^{u}{{\boldsymbol{X}}^{u}}^{\mathrm{T}}\right) $ | (26) |
其中,
| $ {\boldsymbol{H}}^{u}=\left({e}_{i}-\left(\begin{array}{l}{\boldsymbol{I}}_{p\times p}\\ {O}_{(n-p)\times p}\end{array}\right){\boldsymbol{l}}_{i}^{u}\right){\left({e}_{i}-\left(\begin{array}{l}{\boldsymbol{I}}_{p\times p}\\ {O}_{(n-p)\times p}\end{array}\right){\boldsymbol{l}}_{i}^{u}\right)}^{\mathrm{T}}\\ \underset{{\left\{{\alpha }_{u}\right\}}_{u\in {V}^{i}}}{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{u\in {V}^{i}}{\alpha }_{u}^{2}\mathrm{t}\mathrm{r}\left({\boldsymbol{X}}^{u}{\boldsymbol{H}}^{u}{\boldsymbol{X}}^{u\mathrm{T}}\right) $ | (27) |
| $ \mathrm{s}.\mathrm{t}.\sum\limits_{u\in {V}^{i}}{\alpha }_{u}=1, {\alpha }_{u}\ge 0 $ | (28) |
引入拉格朗日乘子
| $ L( {\alpha }_{u}, \gamma )= \sum\limits_{u\in {V}^{i}}{\alpha }_{u}^{2}\mathrm{t}\mathrm{r}\left({\boldsymbol{X}}^{u}{\boldsymbol{H}}^{u}{\boldsymbol{X}}^{u\mathrm{T}}\right)-\gamma \left(\sum\limits_{u\in {V}^{i}}{\alpha }_{u}-1\right) $ | (29) |
令
| $ {\alpha }_{u}=\frac{\frac{1}{\mathrm{t}\mathrm{r}\left({\boldsymbol{X}}^{u}{\boldsymbol{H}}^{u}{\boldsymbol{X}}^{u\mathrm{T}}\right)}}{\sum\limits_{u\in {V}^{i}}\frac{1}{\mathrm{t}\mathrm{r}\left({\boldsymbol{X}}^{u}{\boldsymbol{H}}^{u}{\boldsymbol{X}}^{u\mathrm{T}}\right)}} $ | (30) |
重构阶段的迭代过程如算法1所示。
算法1 重构阶段
输入 不完整多视角数据集
输出 重构样本
1.for
2.for
3.while
4.初始化:
5.while未达到停止准则do
6.根据式(23)更新
7.根据式(24)更新
8.end for
9.end for
10.
与重构阶段类似,优化问题式(19)、式(20)是有非线性约束的非凸问题,无法找到其全局最优解。因此,本文设计了一种交替迭代优化算法来求问题的局部最优解。
1) 固定
给定权重向量
| $ \underset{\boldsymbol{Y}}{\mathrm{m}\mathrm{i}\mathrm{n}}\mathrm{t}\mathrm{r}\left(\boldsymbol{Y}\boldsymbol{L}{\boldsymbol{Y}}^{T}\right) $ | (31) |
| $ \mathrm{s}.\mathrm{t}.\boldsymbol{Y}{\boldsymbol{Y}}^{\mathrm{T}}=\boldsymbol{I} $ | (32) |
其中,
2) 固定Y,更新
已知低维嵌入Y,关于
| $ \underset{\boldsymbol{\beta }}{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{v=1}^{s}{\beta }_{v}^{2}\mathrm{t}\mathrm{r}\left(\boldsymbol{Y}{\boldsymbol{L}}^{v}{\boldsymbol{Y}}^{\mathrm{T}}\right) $ | (33) |
| $ \mathrm{s}.\mathrm{t}.\sum\limits_{v=1}^{s}{\beta }_{v}=1, {\beta }_{v}\ge 0 $ | (34) |
求解权重向量
| $ {\beta }_{v}=\frac{\frac{1}{\mathrm{t}\mathrm{r}\left(\boldsymbol{Y}{\boldsymbol{L}}^{v}{\boldsymbol{Y}}^{\mathrm{T}}\right)}}{\sum\limits_{v=1}^{s}\frac{1}{\mathrm{t}\mathrm{r}\left(\boldsymbol{Y}{\boldsymbol{L}}^{v}{\boldsymbol{Y}}^{\mathrm{T}}\right)}} $ | (35) |
降维阶段的迭代过程如算法2所示。
算法2 降维阶段
输入 重构后的多视角数据集
输出 公共嵌入
1.计算拉普拉斯阵
2.初始化:
3.while未达到停止准则do
4.求解优化问题式(31)、式(32)更新
5.for
6.根据式(35)更新
7.end for
4 实验本节将在3个经典的图像数据集上,通过数值实验与一些相关的不完整多视角降维方法进行比较,并根据K-means聚类结果验证本文模型的有效性。
4.1 数据集实验中用到的3个图像数据集如下:
1) Yale人脸数据集由耶鲁大学计算机视觉与控制中心创建,包含15个人的165张人脸图像。每个人有11张图像,分别对应快乐、正常、悲伤、困倦、惊喜、眨眼、左侧光、右侧光、戴眼镜和不戴眼镜等不同的面部表情、光照条件或姿态,图 2为其中一人的11张图像。
|
Download:
|
| 图 2 Yale人脸数据集中某人的11张图像 Fig. 2 11 images of one person in the Yale face dataset | |
2) ORL人脸数据集由剑桥大学AT & T实验室采集,包含40个人的400张人脸图像。实验室在不同的时间以光照条件、面部表情和面部饰物为变量给每个人拍摄了10张照片。
3) COIL-20数据集来自哥伦比亚大学图像数据库,包含20个物体,如图 3所示。每个物体旋转360°,每隔5°拍摄一张照片,因此数据集共有1 440张照片。
|
Download:
|
| 图 3 COIL-20数据集中的20个物体 Fig. 3 20 objects in the COIL-20 dataset | |
本文运用3种广泛应用的指标度量聚类结果的好坏,分别是准确率(ACC)、标准化互信息(NMI)和纯度(Purity)。
| $ {A_{{\rm{ACC}}}}=\frac{\sum\limits_{i=1}^{n}\delta ({y}_{i}, \mathrm{m}\mathrm{a}\mathrm{p}({c}_{i}\left)\right)}{n} $ | (36) |
其中,
| $ {N}_{\mathrm{N}\mathrm{M}\mathrm{I}}=\frac{I({T}_{\mathrm{T}\mathrm{L}};{C}_{\mathrm{C}\mathrm{L}})}{\sqrt{E\left({T}_{\mathrm{T}\mathrm{L}}\right)E\left({C}_{\mathrm{C}\mathrm{L}}\right)}} $ | (37) |
其中,
| $ {P_{{\rm{purity}}}}=\sum\limits_{i=1}^{k}\frac{{n}_{i}}{n}\underset{j}{\mathrm{m}\mathrm{a}\mathrm{x}}\left({P}_{ij}\right) $ | (38) |
其中,
本文选择了近几年具有代表性的5种不完整多视角降维方法,包括Mean value、Semi-CCA[24]、MCIV[27]、MVL-IV[28]、IML-BDR[31]。其中Mean value利用同一视角下的完整样本平均值补全缺失样本,使用本文的多视角降维方法对学习到的嵌入进行K-means聚类,其他几种对比方法的更多细节见概述部分。
从数据集的图像中提取出灰度值强度(GSI)、方向梯度直方图(HOG)和局部二元模式(LBP)3个视角的特征,得到3个完整的多视角数据集。为去除原始特征的冗余信息,利用主成分分析(PCA)对数据预处理。通过构造不完整数据集,随机选取70%的样本作为成对样本,然后在每个视角剩余的样本中分别选取10%的样本用1填充。由于MCIV要求至少有一个完整视角,因此在第2个、第3个视角中选取15%的样本作为缺失样本,并用1填充。
4.4 实验结果在Yale、ORL和COIL-20数据集上的实验结果如表 1~表 3所示,分别对应ACC、NMI和Purity值,值越高,证明模型的性能越好,其中黑色粗体表示最优结果。
|
下载CSV 表 1 Yale、ORL和COIL-20数据集上的ACC结果 Table 1 ACC results on Yale, ORL andCOIL-20 datasets |
|
下载CSV 表 2 Yale、ORL和COIL-20数据集上的NMI结果 Table 2 NMI results on Yale, ORL and COIL-20 datasets |
|
下载CSV 表 3 Yale、ORL和COIL-20数据集上的Purity结果 Table 3 Purity results on Yale, ORL and COIL-20 datasets |
1) 与DLPEL方法相比,Mean value方法的聚类结果更差。这表明直接用均值向量填充缺失样本是不合理的,并且这种补全方式影响了后续的聚类。本文模型利用了多视角数据的一致性,更好地实现了缺失样本重构。
2) MCIV方法要求至少有一个完整视角,该方法可以更好地利用多视角数据的互补性,但仍没有DLPEL方法效果好,表明了本文方法处理一般不完整多视角数据的有效性,可以更广泛地应用到实际问题中。
从以上结果可以看出,本文方法DLPEL在3个数据集上相比其他方法都具有更好的性能。
4.5 参数分析参数
由图 4~图 6可知,DLPEL关于参数
|
Download:
|
|
图 4 Yale数据集上NMI随 |
|
|
Download:
|
|
图 5 ORL数据集上NMI随 |
|
|
Download:
|
|
图 6 COIL-20数据集上NMI随 |
|
|
Download:
|
| 图 7 Yale、ORL和COIL-20数据集上NMI随σ变化的折线 Fig. 7 Line chart of NMI changes with σ on Yale, ORL and COIL-20 datasets | |
本文结合多视角数据局部结构的一致性与特征空间的线性结构,提出一种基于双重局部保持的不完整多视角降维方法。通过引入一个惩罚参数,减轻了缺失样本对学习结果的影响,得到了保持原始数据局部结构的公共低维嵌入。实验结果表明,与MVL-IV算法相比,该方法可以获得较好的聚类结果,验证了本文模型处理不完整多视角数据时的有效性。本文模型分两阶段考虑了缺失数据的补全和降维,但有可能导致算法的性能退化,下一步将提出一个统一的目标函数,在补全数据的同时获取样本的低维表示,通过两者的相互促进提高算法的性能。
| [1] |
TANG Jingjing, TIAN Yingjie. Overview of multi-view learning[J]. Mathematical Modeling and Its application, 2017, 6(3): 1-15. (in Chinese) 唐静静, 田英杰. 多视角学习综述[J]. 数学建模及其应用, 2017, 6(3): 1-15. DOI:10.3969/j.issn.2095-3070.2017.03.001 |
| [2] |
ZONG Linlin, ZHANG Xianchao, ZHAO Long, et al. Multi-view clustering via multi-manifold regularized non-negative matrix factorization[J]. Neural Networks, 2017, 88: 74-89. DOI:10.1016/j.neunet.2017.02.003 |
| [3] |
LIU Jialu, WANG Chi, GAO Jing, et al. Multi-view clustering via joint nonnegative matrix factorization[C]//Proceedings of 2013 SIAM International Conference on Data Mining. Austin, USA: [s.n.], 2013: 252-260.
|
| [4] |
SUN Shiliang. A survey of multi-view machine learning[J]. Neural Computing and Applications, 2013, 23(7): 2031-2038. DOI:10.1007%2Fs00521-013-1362-6 |
| [5] |
COLLINS M, SINGER Y. Unsupervised models for named entity classification[C]//Proceedings of 1999 Joint SIGDAT Conference on Empirical Methods in Natural Language Processing and Very Large Corpora. Florham, USA: [s.n.], 1999: 100-110.
|
| [6] |
GHANI R. Combining labeled and unlabeled data for text classification with a large number of categories[C]//Proceedings of International Conference on Data Mining. San Jose, USA: IEEE Press, 2001: 597-598.
|
| [7] |
MUSLEA I, MINTON S, KNOBLOCK C, et al. Active learning with multiple views[J]. Journal of Artificial Intelligence Research, 2006, 27(1): 203-233. |
| [8] |
BLUM A, MITCHELL T M. Combining labeled and unlabeled data with co-training[C]//Proceedings of the 11th Annual Conference on Learning Theory. Washington D.C., USA: IEEE Press, 1998: 92-100.
|
| [9] |
HECKMANN M, BERTHOMMIER F, KROSCHEL K. Noise adaptive stream weighting in audio-visual speech recognition[J]. EURASIP Journal on Advances in Signal Processing, 2002(11): 1-14. DOI:10.1155/S1110865702206150 |
| [10] |
WU Y, CHANG E Y, CHANG K C C, et al. Optimal multimodal fusion for multimedia data analysis[C]//Proceedings of the 12th Annual ACM International Conference on Multimedia. New York, USA: ACM Press: 2004: 572-579.
|
| [11] |
WANG Yang, ZHANG Wenjie, WU Lin, et al. Unsupervised metric fusion over multiview data by graph random walk-based cross-view diffusion[J]. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(1): 57-70. DOI:10.1109/TNNLS.2015.2498149 |
| [12] |
INDYK P, MOTWANI R. Approximate nearest neighbors: towards removing the curse of dimensionality[C]//Proceedings of the 30th Annual ACM Symposium on Theory of Computing. New York, USA: ACM Press, 1998: 604-613.
|
| [13] |
JOLLIFFE I T. Principal Component Analysis[M]. Berlin, Germany: Springer, 2011.
|
| [14] |
BELKIN M, NIYOGI P. Laplacian eigenmaps for dimensionality reduction and data representation[J]. Neural computation, 2003, 15(6): 1373-1396. DOI:10.1162/089976603321780317 |
| [15] |
DER M L V, HINTON G E. Visualizing data using t-SNE[J]. Journal of Machine Learning Research, 2008, 31(5): 2579-2605. |
| [16] |
MOORE B A, MCLACHLAN G J. Discriminant analysis and statistical pattern recognition[J]. Biometrical Journal, 1993, 35(7): 784-784. DOI:10.1002/bimj.4710350703 |
| [17] |
XIA Tian, TAO Dacheng, MEI Tao, et al. Multiview spectral embedding[J]. IEEE Transactions on Systems, Man and Cybernetics, 2010, 40(6): 1438-1446. DOI:10.1109/TSMCB.2009.2039566 |
| [18] |
KAMALIKA C, SHAM M K. Multi-view clustering via canonical correlation analysis[C]//Proceedings of International Conference on Machine Learnig. Montreal, Canada: [s.n.], 2009: 129-136.
|
| [19] |
TAEKYUN K, JOSEF K, ROBERTO C. Discriminative learning and recognition of image set classes using canonical correlations[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 1005-1018. DOI:10.1109/TPAMI.2007.1037 |
| [20] |
HU Menglei, CHEN Songcan. Doubly aligned incomplete multi-view clustering[C]//Proceedings of IEEE International Joint Conference on Artificial Intelligence. Washington D.C., USA: IEEE Press, 2018: 2262-2268.
|
| [21] |
LI Shaoyuan, JIANG Yuan, ZHOU Zhihua. Partial multi-view clustering[C]//Proceedings of AAAI Conference on Artificial Intelligence. [S.1.]: AAAI Press, 2014: 1968-1974.
|
| [22] |
CHRISTOPH H L, OLIVER K. Weakly-paired maximum covariance analysis for multimodal dimensionality reduction and transfer learning[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2010: 566-579.
|
| [23] |
CHEN Xiaohong, CHEN Songcan, XUE Hui, et al. A unified dimensionality reduction framework for semi-paired and semi-supervised multi-view data[J]. Pattern Recognition, 2012, 45(5): 2005-2018. DOI:10.1016/j.patcog.2011.11.008 |
| [24] |
KIMURA A, KAMEOKA H, SUGIYAMA M, et al. SemiCCA: efficient semi-supervised learning of canonical correlations[C]//Proceedings of the 20th International Conference on Pattern Recognition. Washington D.C., USA: IEEE Press, 2010: 2933-2936.
|
| [25] |
HOTELING H. Relations between two sets of variates[J]. Biometrika, 1936, 28(4): 321-377. |
| [26] |
HARDOON D R, SZEDMAK S, SHAWETYLOR J, et al. Canonical correlation analysis: an over view with application to learning methods[J]. Neural Computation, 2004, 16(12): 2639-2664. DOI:10.1162/0899766042321814 |
| [27] |
TRIVEDI A, RAI P, DUVALL S. Multi-view clustering with incomplete views[C]//Proceedings of Workshop on Machine Learning for Social Computing. Whistler, Canada: [s.n.], 2010: 656-579.
|
| [28] |
XU Chang, TAO Dacheng, XU Chao. Multi-view learning with incomplete views[J]. IEEE Transactions on Image Processing, 2015, 24(12): 5812-5825. DOI:10.1109/TIP.2015.2490539 |
| [29] |
ARGYRIOU A, EVGENIOU T, PONYIL M. Multi-task feature learning[C]//Proceedings of Advances in Neural Information Processing Systems. Washington D.C., USA: IEEE Press, 2007: 19-41.
|
| [30] |
WANG Xin, BI Jinbo, YU Shipeng, et al. On multiplicative multitask feature learning[C]//Proceedings of Advances in Neural Information Processing Systems. Washington D.C., USA: IEEE Press, 2014: 2411-2419.
|
| [31] |
TAO Hong, HOU Chenping, YI Dongyun, et al. Joint embedding learning and low-rank approximation: a framework for incomplete multi-view learning[J]. IEEE Transactions on Cybernetics, 2019, 65(5): 1-14. |
| [32] |
YANG Wanqi, SHI Yinghuan, GAO Yang, et al. Incomplete-data oriented multiview dimension reduction via sparse low-rank representation[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(12): 6276-6291. DOI:10.1109/TNNLS.2018.2828699 |
| [33] |
CHEN Ning, ZHU Jun, SUN Fuchun, et al. Large-margin predictive latent subspace learning for multi-view data analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(12): 2365-2378. DOI:10.1109/TPAMI.2012.64 |
| [34] |
MARTHA W, ZHANG X, DALE S, et al. Convex multi-view subspace learning[C]//Proceedings of NIPS'12. Cambridge, USA: MIT Press, 2012: 1673-1681.
|
| [35] |
SHARMA A, KUMAR A, DAUME H, et al. Generalized multi-view analysis: a discriminative latent space[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. [S.1.]: IEEE Computer Society, 2012: 2160-2167.
|
| [36] |
ZHANG Lei, ZHAO Yao, ZHU Zhenfeng, et al. Multi-view missing data completion[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 30(7): 1296-1309. DOI:10.1109/TKDE.2018.2791607 |
| [37] |
SAM T R, LAWRENCE K S. Nonlinear dimension reduction by locally linear embedding[J]. Science, 2000, 290: 2323-2326. DOI:10.1126/science.290.5500.2323 |
| [38] |
HE X F, PARTHA N. Locality preserving projections[C]//Proceedings of NIPS'02. Cambridge, USA: MIT Press, 2002: 153-160.
|
| [39] |
YIN Qiyue, WU Shu, WANG Liang. Multiview clustering via unified and view-specific embeddings learning[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(11): 5541-5553. DOI:10.1109/TNNLS.2017.2786743 |
2021, Vol. 47
