«上一篇 下一篇»
  计算机工程  2021, Vol. 47 Issue (6): 83-87, 97  DOI: 10.19678/j.issn.1000-3428.0057932
0

引用本文  

陶洋, 鲍灵浪, 胡昊. 结合表示学习与嵌入子空间学习的降维方法[J]. 计算机工程, 2021, 47(6), 83-87, 97. DOI: 10.19678/j.issn.1000-3428.0057932.
TAO Yang, BAO Linglang, HU Hao. Dimensionality Reduction Method Combining Representation Learning and Embedded Subspace Learning[J]. Computer Engineering, 2021, 47(6), 83-87, 97. DOI: 10.19678/j.issn.1000-3428.0057932.

基金项目

重庆市自然科学基金(cstc2018jcyjAX0344)

作者简介

陶洋(1964-), 男, 教授、博士, 主研方向为异构网络、并行传输;
鲍灵浪, 硕士研究生;
胡昊, 硕士研究生

文章历史

收稿日期:2020-04-01
修回日期:2020-05-08
结合表示学习与嵌入子空间学习的降维方法
陶洋 , 鲍灵浪 , 胡昊     
重庆邮电大学 通信与信息工程学院, 重庆 400065
摘要:在对样本数据进行降维时,子空间学习模型无法揭示数据结构和处理训练样本外的新样本。提出一种融合表示学习和嵌入子空间学习的降维方法。将低秩表示、加权稀疏表示和低维子空间学习构建到一个统一的框架中,并采用交替优化策略,实现数据表示系数矩阵和数据投影矩阵的同时学习和相互优化,最终达到重建效果最优的降维精度。在3个数据库上的实验结果表明,与PCA、NPE、LRPP等主流方法相比,该方法不仅可以解决无法训练新样本的问题,而且具有较优的分类性能。
关键词低秩表示    稀疏表示    降维    联合学习    图像分类    
Dimensionality Reduction Method Combining Representation Learning and Embedded Subspace Learning
TAO Yang , BAO Linglang , HU Hao     
School of Communication and Information Engineering, Chongqing University of Posts and Telecommunications, Chongqing 400065, China
Abstract: When reducing the dimension of sample data, the subspace learning model cannot reveal the data structure or process new samples apart from the training samples.This paper proposes a dimension reduction method that fuses representation learning and embedded subspace learning.The method constructs a unified framework that integrates low-rank representation, weighted sparse representation and low-dimensional subspace learning.Then the alternative optimization strategy is adopted to realize the simultaneous learning and mutual optimization of the coefficient matrix and the data projection matrix, finally achieving the dimension reduction precision that enables optimal reconstruction effect.The experimental results on three databases show that, compared with the mainstream methods such as PCA, NPE and LRPP, this method can solve the problem of new sample training, and has better classification performance.
Key words: low rank representation    sparse representation    dimensionality reduction    joint learning    image classification    

开放科学(资源服务)标志码(OSID):

0 概述

在实际应用中,观察到的样本数据通常位于高维空间,这不仅增加了计算量和存储代价,而且会导致“维数灾难”问题[1]。因此,如何处理高维样本数据已成为计算机视觉领域的研究热点[2]。通过将原始高维数据映射到一个既包含大部分固有信息又保留区分能力[3]的低维子空间是非常具有挑战性的任务,而降维是获得观测数据紧凑低维表示的一种直接有效的方法。

从不同角度对降维算法有若干种分类方式,如根据降维过程是否使用标签信息可分为监督学习[4]和无监督学习。由于在现实场景中无标签数据的获取更为方便,因此无监督学习成为降维过程中的研究重点,如主成分分析(PCA)[5]、局部保留投影(LPP)[6]、领域保留嵌入(NPE)[7]和稀疏保留投影(SPP)[8]等算法,都可以被视为基于图的特征提取算法。

遮挡、照明和原始图像中的噪声会严重影响降维算法的性能,因此,基于低秩的特征提取引起了人们的重视,核主成分分析(KPCA)算法[9]和核线性判别分析算法(KLDA)[10]是其中的经典算法。文献[11]提出一种用于特征提取的低秩嵌入(LRE)算法,通过鲁棒线性降维来挖掘观测数据的潜在局部关系。低秩表示(LRR)[12]通过丢弃分解出的噪声部分,可以有效消除噪声、照明和遮挡的影响。考虑到稀疏性能够捕获局部结构的数据信息,低秩模型能够帮助获得全局结构信息,文献[13]提出一种低秩稀疏表示算法。文献[14]提出一种增强的低秩表示(ELRR)方法,其中流形结构被引入以充当正则项。LRR假定子空间是独立的,但在实际情况下,这种假设是不正确的。为解决这个问题,文献[15]提出一种结构约束的低秩表示算法用于解决不相交的子空间聚类。文献[16]提出的低秩稀疏保留投影(LSPP)算法,则能在保留固有几何结构的同时学习鲁棒表示。

然而,上述算法仅考虑了数据的局部结构或全局结构,即使同时考虑低秩性和稀疏性来捕获数据结构,也无法处理训练样本外的新样本,这是因为目标函数不具有任何映射功能。良好的数据表示并不意味着良好的分类性能,应尽可能同时获得降维(映射函数)和最合适的信息判别表示,但是这两者都不是预先可知的。为解决上述问题,本文提出一种表示学习与嵌入子空间学习相结合的降维算法。利用投影样本的低秩表示对观测样本的相似性判别信息进行编码,同时通过加权稀疏的低秩正则化项来保持投影样本的全局相似性,从而更有效地保护数据的局部结构。在此基础上,通过迭代学习优化稀疏低秩表示和投影矩阵表示过程,最终实现有效分类。

1 低秩稀疏表示

由于本文的工作主要基于低秩稀疏表示,因此本节简要介绍低秩稀疏表示算法。令矩阵$ \boldsymbol{X}=[{\boldsymbol{x}}_{1}, {\boldsymbol{x}}_{2}, \cdots , {\boldsymbol{x}}_{n}]\in {\mathbb{R}}^{m\times n} $是来自$ c $个不同类别的$ n $个训练样本的集合,其中,$ {\boldsymbol{x}}_{i} $是代表来自X的第$ i $个训练样本的列向量,$ m $是特征维数,其值通常较高。降维算法的目标是获得最佳映射函数$ \boldsymbol{P}=[{\boldsymbol{p}}_{1}, {\boldsymbol{p}}_{2}, \cdots , {\boldsymbol{p}}_{d}]\in $ $ {\mathbb{R}}^{m\times d} $,将$ m $维空间中的数据转换为$ d $维子空间数据,其中,$ d\ll m $。LRR是用于从观察数据中保留子空间结构的子空间聚类算法,旨在捕获在给定词典中观察到的数据的最低秩表示。由于秩函数是NP难问题,同时考虑到实际应用中观测到的数据通常会包含噪声和离群值,因此LRR的目标函数可以表示为:

$ \mathrm{m}\mathrm{i}\mathrm{n}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\lambda {‖\boldsymbol{E}‖}_{l}, \begin{array}{c}\end{array}\mathrm{s}.\mathrm{t}.\boldsymbol{X}=\boldsymbol{A}\boldsymbol{Z}+\boldsymbol{E} $ (1)

其中,$ {‖\boldsymbol{Z}‖}_{\mathrm{*}} $表示核范数,$ {‖\boldsymbol{E}‖}_{l} $表示数据噪声,根据不同的噪声模型,$ {‖·‖}_{l} $可以选取不同的范数,$ \lambda $是一个非负常数,$ \boldsymbol{A}\in {\mathbb{R}}^{d\times n} $代表由许多基向量组成的“字典”,它可以构造一个线性子空间来表示观测到的数据$ \boldsymbol{X} $。当获得式(1)中的最优解$ {\boldsymbol{Z}}^{\mathrm{*}} $$ {\boldsymbol{E}}^{\mathrm{*}} $时,可以使用$ \boldsymbol{A}{\boldsymbol{Z}}^{\mathrm{*}}+{\boldsymbol{E}}^{\mathrm{*}} $恢复原始观测数据$ \boldsymbol{X} $。为简单起见,选择将观测数据$ \boldsymbol{X} $本身用作式(1)所示模型的“字典”,然后使用增强拉格朗日乘数(ALM)算法[17]获得该优化问题的解。尽管LRR可以针对聚类问题实现更好的鲁棒性能,但其不能用于获取投影矩阵进行降维。因此,文献[16]提出一种用于寻找低维映射矩阵的低秩稀疏保持投影算法,其目标函数为:

$ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{E}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{Z}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}\\ \mathrm{s}.\mathrm{t}.\begin{array}{c}\end{array}\boldsymbol{X}=\boldsymbol{X}\boldsymbol{Z}+\boldsymbol{E}, \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g}\left(\boldsymbol{Z}\right)=0\end{array} $ (2)

其中,$ \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g}\left(\boldsymbol{Z}\right)=0 $用于约束矩阵$ \boldsymbol{Z} $的对角元素为0,$ \gamma $是平衡参数。式(2)所示模型通过同时对表示系数施加低秩约束和稀疏约束来得到数据的全局结构及内部的局部结构。得到低秩稀疏表示矩阵$ \boldsymbol{Z} $后,将其嵌入低维子空间以寻找投影矩阵,即:

$ \underset{P}{\mathrm{m}\mathrm{i}\mathrm{n}}{\sum\limits_{i=1}^{n}‖{\boldsymbol{P}}^{\mathrm{T}}{\boldsymbol{x}}_{i}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}{\boldsymbol{z}}_{i}‖}_{2}^{2} $ (3)

其中,$ {\boldsymbol{z}}_{i} $是样本$ {\boldsymbol{x}}_{i} $对应的低秩稀疏表示,$ \boldsymbol{P} $是投影矩阵,$ {\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X} $即为降维后的低维空间。

2 本文降维算法

低秩稀疏表示算法虽然可以捕获数据的全局结构和内部子空间的局部结构,但该算法缺少映射函数,无法直接用于特征提取进行降维。本文提出一种表示学习与嵌入子空间学习相结合的降维算法,通过将低秩表示、稀疏表示和降维集成到一个统一的框架中,并设计一种交替优化策略,使投影矩阵和加权稀疏的低秩表示系数矩阵联合学习和优化。

2.1 目标函数构建

在本文算法中,低秩表示、加权稀疏表示和低维子空间可以联合学习,以实现更鲁棒的特征提取。其中,低秩表示可以获得观测样本的全局结构信息,加权稀疏表示可以更好地保持所观察样本的局部几何结构关系,低维子空间可以学习用于降维的映射函数$ \boldsymbol{P} $。本文算法的目标函数表示为:

$ \begin{array}{l}\underset{\boldsymbol{P}, \boldsymbol{Z}, \boldsymbol{E}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{M}\odot \boldsymbol{Z}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}+\\ \mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\beta \sum\limits_{i, j=1}^{n}{‖{\boldsymbol{P}}^{\mathrm{T}}{\boldsymbol{x}}_{i}-{\boldsymbol{P}}^{\mathrm{T}}{\boldsymbol{x}}_{j}‖}^{2}{\boldsymbol{W}}_{ij}\end{array} $
$ \mathrm{s}.\mathrm{t}.\begin{array}{cc}& {\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}={\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}+\boldsymbol{E}, {\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{P}=\boldsymbol{I}\end{array} $ (4)

其中,第1项是低秩约束,第2项是$ \boldsymbol{M}\odot \boldsymbol{Z} $$ {l}_{1} $范数,第3项表示对数据噪声$ \boldsymbol{E} $施加$ {l}_{\mathrm{2, 1}} $范数,第4项表示低维子空间学习。本文将加权稀疏约束条件集成到LRR算法中以获得更具区分性的低秩表示。在目标函数中,参数$ \gamma $$ \lambda $$ \beta $均为正数。对于权重$ \boldsymbol{M} $的构造,本文考虑使用[18]样本的形状交互信息。令样本$ \boldsymbol{X} $的瘦形奇异值分解为$ {\boldsymbol{U}}_{r}\sum\limits_{r}({\boldsymbol{V}}_{r}{)}^{\mathrm{T}} $$ r $为矩阵$ \boldsymbol{X} $的秩,则每个样本$ {\boldsymbol{x}}_{i} $的形状交互表示为$ {\boldsymbol{H}}_{i}=\sum\limits_{r}^{-1}{\boldsymbol{U}}_{r}^{\mathrm{T}}{\boldsymbol{x}}_{i} $。对$ {\boldsymbol{H}}_{i} $进行规则化处理$ {\boldsymbol{H}}_{i}=\frac{{\boldsymbol{H}}_{i}}{{‖{\boldsymbol{H}}_{i}‖}_{2}} $,则形状交互权重表示为:

$ {\boldsymbol{M}}_{ij}={‖{\boldsymbol{H}}_{i}-{\boldsymbol{H}}_{j}‖}_{2} $ (5)

其中,第1项是局部流形保持正则化项,其目的是在执行降维过程时,使投影样本在低维空间中保留原始样本在高维子空间中的局部流形结构。本文使用KNN构造图权重矩阵$ \boldsymbol{W} $,其中元素表示为:

$ {W}_{ij}=\left\{\begin{array}{l}1\begin{array}{cc}, {\boldsymbol{x}}_{i}\in {N}_{k}\left({\boldsymbol{x}}_{i}\right)\mathrm{或}\begin{array}{c}{\boldsymbol{x}}_{j}\in {N}_{k}\left({\boldsymbol{x}}_{j}\right)\end{array}& \begin{array}{c}\end{array}\end{array}\\ 0\begin{array}{cc}, \mathrm{其}\mathrm{他}& \end{array}\end{array}\right. $ (6)
2.2 模型优化求解

由于式(4)所示模型中有多个变量,包括$ \boldsymbol{Z} $$ \boldsymbol{E} $$ \boldsymbol{P} $,因此不能直接求得最优解。本文提出一种迭代更新算法来优化该模型,主要思想是每次优化一个变量而保持其他变量不变,具体如下:

1) 固定变量$ \boldsymbol{P} $,更新变量$ \boldsymbol{Z} $$ \boldsymbol{E} $

当固定变量$ \boldsymbol{P} $时,式(4)所示模型可等式于:

$ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{E}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{M}\odot \boldsymbol{Z}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}\\ \mathrm{s}.\mathrm{t}.\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}={\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}+\boldsymbol{E}\end{array} $ (7)

引入辅助变量$ \boldsymbol{J} $后,式(7)可以表示为:

$ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{E}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{M}\odot \boldsymbol{J}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}\\ \mathrm{s}.\mathrm{t}.\begin{array}{c}\end{array}{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}={\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}+\boldsymbol{E}, \boldsymbol{Z}=\boldsymbol{J}\end{array} $ (8)

式(8)所示的优化问题可以通过ALM来解决,其对应的增强拉格朗日函数表示为:

$ \begin{array}{l}L={‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{M}\odot \boldsymbol{J}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}+\\ {{{}_{}}_{}}_{}\mathrm{T}\mathrm{r}\left({\boldsymbol{Y}}_{1}^{{}^{\mathrm{T}}}\left({\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}-\boldsymbol{E}\right)\right)+\mathrm{T}\mathrm{r}\left({\boldsymbol{Y}}_{2}^{{}^{\mathrm{T}}}\left(\boldsymbol{Z}-\boldsymbol{J}\right)\right)+\\ {{{}_{}}_{}}_{}\frac{\mu }{2}\left({‖{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}-\boldsymbol{E}‖}_{\mathrm{F}}^{2}+{‖\boldsymbol{Z}-\boldsymbol{J}‖}_{\mathrm{F}}^{2}\right)\end{array} $ (9)

其中,$ {\boldsymbol{Y}}_{1} $$ {\boldsymbol{Y}}_{2} $是拉格朗日乘子。通过分别固定式(9)中的任何其他两个变量,使函数$ L $最小化以交替更新变量$ \boldsymbol{Z} $$ \boldsymbol{J} $$ \boldsymbol{E} $,从而获得式(9)的最优解。每个变量的更新规则如下:

$ \begin{array}{l}{\boldsymbol{Z}}^{\mathrm{*}}={\left({\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}+\boldsymbol{I}\right)}^{-1}\\ \left({\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}\left({\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-\boldsymbol{E}\right)+\boldsymbol{J}+\frac{({\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}{\boldsymbol{Y}}_{1}-{\boldsymbol{Y}}_{2})}{\mu }\right)\end{array} $ (10)
$ {\boldsymbol{J}}^{\mathrm{*}}=\underset{J}{\mathrm{a}\mathrm{r}\mathrm{g}\mathrm{m}\mathrm{i}\mathrm{n}}\gamma {‖\boldsymbol{M}\odot \boldsymbol{J}‖}_{1}+\frac{\mu }{2}{‖\boldsymbol{Z}-\boldsymbol{J}+\frac{{\boldsymbol{Y}}_{2}}{\mu }‖}_{\mathrm{F}}^{2} $ (11)
$ {\boldsymbol{E}}^{\mathrm{*}}=\underset{\boldsymbol{E}}{\mathrm{a}\mathrm{r}\mathrm{g}\mathrm{m}\mathrm{i}\mathrm{n}}\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}+\frac{\mu }{2}{‖{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}-\boldsymbol{E}+\frac{{\boldsymbol{Y}}_{1}}{\mu }‖}_{\mathrm{F}}^{2} $ (12)

2) 更新变量$ \boldsymbol{P} $

$ \boldsymbol{Z} $$ \boldsymbol{E} $固定时,式(4)所示模型可等价于:

$ \begin{array}{l}\underset{\boldsymbol{P}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}‖}_{\mathrm{F}}^{2}+\gamma \mathrm{ }\mathrm{T}\mathrm{r}\left({\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{L}{\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}\right)\begin{array}{c}\end{array}\\ \mathrm{s}.\mathrm{t}{.}_{}{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{P}=\boldsymbol{I}\end{array} $ (13)

其中,$ \boldsymbol{L}=\boldsymbol{D}-\boldsymbol{W} $是拉普拉斯矩阵,$ \boldsymbol{D} $是对角矩阵,且$ {D}_{ii}=\sum\limits_{j}{W}_{ij} $。式(13)可进一步转换为:

$ \begin{array}{l}\underset{\boldsymbol{P}}{\mathrm{m}\mathrm{i}\mathrm{n}}\mathrm{T}\mathrm{r}\left({\boldsymbol{P}}^{\mathrm{T}}\right((\boldsymbol{X}-\boldsymbol{X}\boldsymbol{Z})(\boldsymbol{X}-\boldsymbol{X}\boldsymbol{Z})+\gamma \mathrm{ }\boldsymbol{X}\boldsymbol{L}{\boldsymbol{X}}^{\mathrm{T}}\left)\boldsymbol{P}\right)\\ \mathrm{s}.\mathrm{t}.\mathrm{ }\mathrm{ }{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{P}=\boldsymbol{I}\end{array} $ (14)

通过求解最小特征值问题易得式(14)的解:

$ (\boldsymbol{X}-\boldsymbol{X}\boldsymbol{Z})(\boldsymbol{X}-\boldsymbol{X}\boldsymbol{Z})+\gamma \boldsymbol{X}\boldsymbol{L}{\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}=\lambda \boldsymbol{P} $ (15)

由式(15)可得$ \boldsymbol{P}=[{\boldsymbol{p}}_{1}, {\boldsymbol{p}}_{2}, \cdots , {\boldsymbol{p}}_{{}_{d}}] $,其中向量$ {\boldsymbol{p}}_{i} $对应于第$ i $个最小特征值的特征向量。因此,可以通过迭代更新$ \boldsymbol{Z} $$ \boldsymbol{P} $来获得式(4)所示目标函数的解。

为验证交替优化策略的收敛性,在Yale B[19]人脸数据库和COIL20[20]数据库上进行一组实验。图 1显示了本文算法的目标函数值在这两个数据库上迭代次数的变化,可以看出,目标函数值随着迭代次数的增加而稳定下降。

Download:
图 1 本文算法在两个图像数据库上的收敛曲线 Fig. 1 Convergence curves of the proposed algorithm on two image databases
3 实验与结果分析

为评估本文算法的有效性,将其与目前主流的特征提取算法PCA、NPE、SPP、SPCA[21]和LRPP[22]进行比较。这些对比算法在提取观测数据的特征后都使用最近邻分类器执行分类任务。为进行公平比较,每种算法在测试数据库上独立运行5次。此外,对比算法的参数设置参考其文献出处或手动调整为最佳。

3.1 实验数据库

在Yale B人脸数据库、CMU PIE人脸数据库[23]和COIL20图像数据库上验证本文算法的分类性能。3个数据库的示例样本图像如图 2所示,其中每个对象的任意10张或20张图像都被用作训练样本,每个对象的其余图像被用作测试样本,具体设置如表 1所示。

Download:
图 2 3个数据库的示例图像 Fig. 2 Sample images of three databases
下载CSV 表 1 数据库设置 Table 1 Setting of databases
3.2 参数选择

本文算法包含3个相关参数,即$ \gamma $$ \lambda $$ \beta $,本节在COIL20数据库上进行实验,以验证这些参数对本文算法的影响。从图 3所示结果可以发现,参数$ \gamma $$ \lambda $的变化对算法的性能影响很小,即本文算法对参数$ \gamma $$ \lambda $非常鲁棒。此外还可以看出,参数$ \beta $的最佳范围应为1.00~1.75,当参数$ \beta $小于1.00时,算法性能急剧下降。

Download:
图 3 本文算法分类精度与参数的关系(COIL20数据库) Fig. 3 The relationship between the classification accuracy of the proposed algorithm and parameters (COIL20 database)
3.3 实验对比分析

通过观察分类精度随不同图像数据库样本的特征维度$ d $及训练样本数$ m $的变化,验证本文算法的性能优势。6种算法的平均分类精度如表 2~表 4所示,其中加粗数据表示最优数据,从中可以看出:

下载CSV 表 2 不同特征维度下6种算法的分类精度(Yale B数据库) Table 2 Classification accuracies of six algorithms under different feature dimensions (Yale B database)  
下载CSV 表 3 不同特征维度下6种算法的分类精度(CMU PIE数据库) Table 3 Classification accuracies of six algorithms under different feature dimensions(CMU PIE database)  
下载CSV 表 4 不同特征维度下6种算法的分类精度(COIL20数据库) Table 4 Classification accuracies of six algorithms under different feature dimensions (COIL20 database)  

1) 本文算法能够在3个公共图像数据库中实现最高分类精度。

2) 无论样本特征维度如何变化,本文算法的分类精度均优于对比算法。

3) 低秩表示可以很好地保留所观察样本的全局结构信息,加权稀疏表示也可以很好地保留局部邻域关系。

4) 线性保留投影可以获得有效的低维投影空间,从而保留高维空间中的大部分数据信息。

由此可见,与对比算法相比,本文算法具有更强的鲁棒性和更好的分类性能。

4 结束语

本文提出一种联合表示学习和投影学习的降维算法。该算法同时获得观测样本的低维特征表示和稀疏表示,其通过交替优化策略,可以稀疏地进行低秩表示和投影学习,以实现合适的特征表示,得到更准确的相似性结构。基于公共面部数据库和对象图像库的实验结果表明,与其他的对比算法相比,该算法具有性能优势。但是在很多实际应用场景中,并不是所有的图像数据都是无标签的,这些图像数据往往带有少部分标签,因此,下一步将研究如何在降维算法中有效利用这些少量标签数据。

参考文献
[1]
HU Rongyao, LIU Xingyi, CHENG Debo, et al. Robust low-rank self-representation feature selection algorithm[J]. Computer Engineering, 2017, 43(9): 43-50. (in Chinese)
胡荣耀, 刘星毅, 程德波, 等. 鲁棒自表达的低秩属性选择算法[J]. 计算机工程, 2017, 43(9): 43-50. DOI:10.3969/j.issn.1000-3428.2017.09.009
[2]
ZHANG Lefei, ZHANG Qian, DU Bo, et al. Simultaneous spectral-spatial feature selection and extraction for hyperspectral images[J]. IEEE Transactions on Cybernetics, 2016, 48(1): 16-28.
[3]
ZHANG Yupei, XIANG Ming, YANG Bo. Low-rank preserving embedding[J]. Pattern Recognition, 2017, 70: 112-125. DOI:10.1016/j.patcog.2017.05.003
[4]
WANG Guoqiang, OU Zongying, LIU Dianting. Face recognition based on supervised neighborhood preserving projections[J]. Computer Engineering, 2008, 34(8): 4-6. (in Chinese)
王国强, 欧宗瑛, 刘典婷. 基于监督保持近邻投影的人脸识别[J]. 计算机工程, 2008, 34(8): 4-6.
[5]
BAJORSKI P. Statistical inference in PCA for hyper-spectral images[J]. IEEE Journal of Selected Topics in Signal Processing, 2011, 5(3): 438-445. DOI:10.1109/JSTSP.2011.2105244
[6]
HE Xiaofei, YAN Shuicheng, HU Yuxiao, et al. Face recognition using Laplacianfaces[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(3): 328-340. DOI:10.1109/TPAMI.2005.55
[7]
HE Xiaofei, CAI Deng, YAN Shuicheng, et al. Neighborhood preserving embedding[C]//Proceedings of the 10th IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2005: 1208-1213.
[8]
YANG Wenhui, DAI Daoqing. Two-dimensional maximum margin feature extraction for face recognition[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B(Cybernetics), 2009, 39(4): 1002-1012. DOI:10.1109/TSMCB.2008.2010715
[9]
PAPAIOANNOU A, ZAFEIRIOU S. Principal component analysis with complex kernel: the widely linear model[J]. IEEE Transactions on Neural networks and Learning Systems, 2013, 25(9): 1719-1726.
[10]
ZHENG Wenming, LIN Zhouchen, WANG Haixian. L1-norm kernel discriminant analysis via Bayes error bound optimization for robust feature extraction[J]. IEEE Transactions on Neural Networks and Learning Systems, 2013, 25(4): 793-805.
[11]
WONG W K, LAI Z H, WEN J J, et al. Low-rank embedding for robust image feature extraction[J]. IEEE Transactions on Image Processing, 2017, 26(6): 2905-2917. DOI:10.1109/TIP.2017.2691543
[12]
LIU Guangcan, LIN Zhouchen, YAN Shuicheng, et al. Robust recovery of subspace structures by low-rank representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 35(1): 171-184.
[13]
MA Long, WANG Chunheng, XIAO Baihua, et al. Sparse representation for face recognition based on discriminative low-rank dictionary learning[C]//Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2012: 2586-2593.
[14]
LIU Junmin, CHEN Yijun, ZHANG Jiangshe, et al. Enhancing low-rank subspace clustering by manifold regularization[J]. IEEE Transactions on Image Processing, 2014, 23(9): 4022-4030. DOI:10.1109/TIP.2014.2343458
[15]
TANG Kewei, LIU Risheng, SU Zhixun, et al. Structure-constrained low-rank representation[J]. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(12): 2167-2179. DOI:10.1109/TNNLS.2014.2306063
[16]
XIE Luofeng, YIN Ming, YIN Xiangyun, et al. Low-rank sparse preserving projections for dimensionality reduction[J]. IEEE Transactions on Image Processing, 2018, 27(11): 5261-5274. DOI:10.1109/TIP.2018.2855426
[17]
BORWEIN J M, ZHU Q J. A variational approach to Lagrange multipliers[J]. Journal of Optimization Theory and Applications, 2016, 171(3): 727-756. DOI:10.1007/s10957-015-0756-2
[18]
LIU Bo, JING Liping, YU Jian, et al. Robust graph learning via constrained elastic-net regularization[J]. Neurocomputing, 2016, 171(C): 299-312.
[19]
TRON R, VIDAL R. A benchmark for the comparison of 3-d motion segmentation algorithms[C]//Proceedings of 2007 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2007: 1-8.
[20]
MOHAN B C, CHAITANYA T K, TIRUPAL T. Fast and accurate content based image classification and retrieval using Gaussian hermite moments applied to COIL 20 and COIL 100[C]//Proceedings of the 10th International Conference on Computing, Communication and Networking Technologies. Washington D.C., USA: IEEE Press, 2019: 1-5.
[21]
ZOU H, HASTIE T, TIBSHIRANI R. Sparse principal component analysis[J]. Journal of Computational and Graphical Statistics, 2006, 15(2): 265-286. DOI:10.1198/106186006X113430
[22]
LU Yuwu, LAI Zhihui, XU Yong, et al. Low-rank preserving projections[J]. IEEE Transactions on Cybernetics, 2016, 46(8): 1900-1913. DOI:10.1109/TCYB.2015.2457611
[23]
SIM T, BAKER S, BSAT M. The CMU Pose, Illumination, and Expression(PIE) database[C]//Proceedings of the 5th IEEE International Conference on Automatic Face Gesture Recognition. Washington D.C., USA: IEEE Press, 2002: 53-58.