开放科学(资源服务)标志码(OSID):
在实际应用中,观察到的样本数据通常位于高维空间,这不仅增加了计算量和存储代价,而且会导致“维数灾难”问题[1]。因此,如何处理高维样本数据已成为计算机视觉领域的研究热点[2]。通过将原始高维数据映射到一个既包含大部分固有信息又保留区分能力[3]的低维子空间是非常具有挑战性的任务,而降维是获得观测数据紧凑低维表示的一种直接有效的方法。
从不同角度对降维算法有若干种分类方式,如根据降维过程是否使用标签信息可分为监督学习[4]和无监督学习。由于在现实场景中无标签数据的获取更为方便,因此无监督学习成为降维过程中的研究重点,如主成分分析(PCA)[5]、局部保留投影(LPP)[6]、领域保留嵌入(NPE)[7]和稀疏保留投影(SPP)[8]等算法,都可以被视为基于图的特征提取算法。
遮挡、照明和原始图像中的噪声会严重影响降维算法的性能,因此,基于低秩的特征提取引起了人们的重视,核主成分分析(KPCA)算法[9]和核线性判别分析算法(KLDA)[10]是其中的经典算法。文献[11]提出一种用于特征提取的低秩嵌入(LRE)算法,通过鲁棒线性降维来挖掘观测数据的潜在局部关系。低秩表示(LRR)[12]通过丢弃分解出的噪声部分,可以有效消除噪声、照明和遮挡的影响。考虑到稀疏性能够捕获局部结构的数据信息,低秩模型能够帮助获得全局结构信息,文献[13]提出一种低秩稀疏表示算法。文献[14]提出一种增强的低秩表示(ELRR)方法,其中流形结构被引入以充当正则项。LRR假定子空间是独立的,但在实际情况下,这种假设是不正确的。为解决这个问题,文献[15]提出一种结构约束的低秩表示算法用于解决不相交的子空间聚类。文献[16]提出的低秩稀疏保留投影(LSPP)算法,则能在保留固有几何结构的同时学习鲁棒表示。
然而,上述算法仅考虑了数据的局部结构或全局结构,即使同时考虑低秩性和稀疏性来捕获数据结构,也无法处理训练样本外的新样本,这是因为目标函数不具有任何映射功能。良好的数据表示并不意味着良好的分类性能,应尽可能同时获得降维(映射函数)和最合适的信息判别表示,但是这两者都不是预先可知的。为解决上述问题,本文提出一种表示学习与嵌入子空间学习相结合的降维算法。利用投影样本的低秩表示对观测样本的相似性判别信息进行编码,同时通过加权稀疏的低秩正则化项来保持投影样本的全局相似性,从而更有效地保护数据的局部结构。在此基础上,通过迭代学习优化稀疏低秩表示和投影矩阵表示过程,最终实现有效分类。
1 低秩稀疏表示由于本文的工作主要基于低秩稀疏表示,因此本节简要介绍低秩稀疏表示算法。令矩阵
| $ \mathrm{m}\mathrm{i}\mathrm{n}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\lambda {‖\boldsymbol{E}‖}_{l}, \begin{array}{c}\end{array}\mathrm{s}.\mathrm{t}.\boldsymbol{X}=\boldsymbol{A}\boldsymbol{Z}+\boldsymbol{E} $ | (1) |
其中,
| $ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{E}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{Z}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}\\ \mathrm{s}.\mathrm{t}.\begin{array}{c}\end{array}\boldsymbol{X}=\boldsymbol{X}\boldsymbol{Z}+\boldsymbol{E}, \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g}\left(\boldsymbol{Z}\right)=0\end{array} $ | (2) |
其中,
| $ \underset{P}{\mathrm{m}\mathrm{i}\mathrm{n}}{\sum\limits_{i=1}^{n}‖{\boldsymbol{P}}^{\mathrm{T}}{\boldsymbol{x}}_{i}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}{\boldsymbol{z}}_{i}‖}_{2}^{2} $ | (3) |
其中,
低秩稀疏表示算法虽然可以捕获数据的全局结构和内部子空间的局部结构,但该算法缺少映射函数,无法直接用于特征提取进行降维。本文提出一种表示学习与嵌入子空间学习相结合的降维算法,通过将低秩表示、稀疏表示和降维集成到一个统一的框架中,并设计一种交替优化策略,使投影矩阵和加权稀疏的低秩表示系数矩阵联合学习和优化。
2.1 目标函数构建在本文算法中,低秩表示、加权稀疏表示和低维子空间可以联合学习,以实现更鲁棒的特征提取。其中,低秩表示可以获得观测样本的全局结构信息,加权稀疏表示可以更好地保持所观察样本的局部几何结构关系,低维子空间可以学习用于降维的映射函数
| $ \begin{array}{l}\underset{\boldsymbol{P}, \boldsymbol{Z}, \boldsymbol{E}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{M}\odot \boldsymbol{Z}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}+\\ \mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\beta \sum\limits_{i, j=1}^{n}{‖{\boldsymbol{P}}^{\mathrm{T}}{\boldsymbol{x}}_{i}-{\boldsymbol{P}}^{\mathrm{T}}{\boldsymbol{x}}_{j}‖}^{2}{\boldsymbol{W}}_{ij}\end{array} $ |
| $ \mathrm{s}.\mathrm{t}.\begin{array}{cc}& {\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}={\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}+\boldsymbol{E}, {\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{P}=\boldsymbol{I}\end{array} $ | (4) |
其中,第1项是低秩约束,第2项是
| $ {\boldsymbol{M}}_{ij}={‖{\boldsymbol{H}}_{i}-{\boldsymbol{H}}_{j}‖}_{2} $ | (5) |
其中,第1项是局部流形保持正则化项,其目的是在执行降维过程时,使投影样本在低维空间中保留原始样本在高维子空间中的局部流形结构。本文使用KNN构造图权重矩阵
| $ {W}_{ij}=\left\{\begin{array}{l}1\begin{array}{cc}, {\boldsymbol{x}}_{i}\in {N}_{k}\left({\boldsymbol{x}}_{i}\right)\mathrm{或}\begin{array}{c}{\boldsymbol{x}}_{j}\in {N}_{k}\left({\boldsymbol{x}}_{j}\right)\end{array}& \begin{array}{c}\end{array}\end{array}\\ 0\begin{array}{cc}, \mathrm{其}\mathrm{他}& \end{array}\end{array}\right. $ | (6) |
由于式(4)所示模型中有多个变量,包括
1) 固定变量
当固定变量
| $ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{E}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{M}\odot \boldsymbol{Z}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}\\ \mathrm{s}.\mathrm{t}.\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}={\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}+\boldsymbol{E}\end{array} $ | (7) |
引入辅助变量
| $ \begin{array}{l}\underset{\boldsymbol{Z}, \boldsymbol{E}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{M}\odot \boldsymbol{J}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}\\ \mathrm{s}.\mathrm{t}.\begin{array}{c}\end{array}{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}={\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}+\boldsymbol{E}, \boldsymbol{Z}=\boldsymbol{J}\end{array} $ | (8) |
式(8)所示的优化问题可以通过ALM来解决,其对应的增强拉格朗日函数表示为:
| $ \begin{array}{l}L={‖\boldsymbol{Z}‖}_{\mathrm{*}}+\gamma {‖\boldsymbol{M}\odot \boldsymbol{J}‖}_{1}+\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}+\\ {{{}_{}}_{}}_{}\mathrm{T}\mathrm{r}\left({\boldsymbol{Y}}_{1}^{{}^{\mathrm{T}}}\left({\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}-\boldsymbol{E}\right)\right)+\mathrm{T}\mathrm{r}\left({\boldsymbol{Y}}_{2}^{{}^{\mathrm{T}}}\left(\boldsymbol{Z}-\boldsymbol{J}\right)\right)+\\ {{{}_{}}_{}}_{}\frac{\mu }{2}\left({‖{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}-\boldsymbol{E}‖}_{\mathrm{F}}^{2}+{‖\boldsymbol{Z}-\boldsymbol{J}‖}_{\mathrm{F}}^{2}\right)\end{array} $ | (9) |
其中,
| $ \begin{array}{l}{\boldsymbol{Z}}^{\mathrm{*}}={\left({\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}+\boldsymbol{I}\right)}^{-1}\\ \left({\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}\left({\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-\boldsymbol{E}\right)+\boldsymbol{J}+\frac{({\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}{\boldsymbol{Y}}_{1}-{\boldsymbol{Y}}_{2})}{\mu }\right)\end{array} $ | (10) |
| $ {\boldsymbol{J}}^{\mathrm{*}}=\underset{J}{\mathrm{a}\mathrm{r}\mathrm{g}\mathrm{m}\mathrm{i}\mathrm{n}}\gamma {‖\boldsymbol{M}\odot \boldsymbol{J}‖}_{1}+\frac{\mu }{2}{‖\boldsymbol{Z}-\boldsymbol{J}+\frac{{\boldsymbol{Y}}_{2}}{\mu }‖}_{\mathrm{F}}^{2} $ | (11) |
| $ {\boldsymbol{E}}^{\mathrm{*}}=\underset{\boldsymbol{E}}{\mathrm{a}\mathrm{r}\mathrm{g}\mathrm{m}\mathrm{i}\mathrm{n}}\lambda {‖\boldsymbol{E}‖}_{\mathrm{2, 1}}+\frac{\mu }{2}{‖{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}-\boldsymbol{E}+\frac{{\boldsymbol{Y}}_{1}}{\mu }‖}_{\mathrm{F}}^{2} $ | (12) |
2) 更新变量
当
| $ \begin{array}{l}\underset{\boldsymbol{P}}{\mathrm{m}\mathrm{i}\mathrm{n}}{‖{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}-{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{Z}‖}_{\mathrm{F}}^{2}+\gamma \mathrm{ }\mathrm{T}\mathrm{r}\left({\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{X}\boldsymbol{L}{\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}\right)\begin{array}{c}\end{array}\\ \mathrm{s}.\mathrm{t}{.}_{}{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{P}=\boldsymbol{I}\end{array} $ | (13) |
其中,
| $ \begin{array}{l}\underset{\boldsymbol{P}}{\mathrm{m}\mathrm{i}\mathrm{n}}\mathrm{T}\mathrm{r}\left({\boldsymbol{P}}^{\mathrm{T}}\right((\boldsymbol{X}-\boldsymbol{X}\boldsymbol{Z})(\boldsymbol{X}-\boldsymbol{X}\boldsymbol{Z})+\gamma \mathrm{ }\boldsymbol{X}\boldsymbol{L}{\boldsymbol{X}}^{\mathrm{T}}\left)\boldsymbol{P}\right)\\ \mathrm{s}.\mathrm{t}.\mathrm{ }\mathrm{ }{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{P}=\boldsymbol{I}\end{array} $ | (14) |
通过求解最小特征值问题易得式(14)的解:
| $ (\boldsymbol{X}-\boldsymbol{X}\boldsymbol{Z})(\boldsymbol{X}-\boldsymbol{X}\boldsymbol{Z})+\gamma \boldsymbol{X}\boldsymbol{L}{\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{P}=\lambda \boldsymbol{P} $ | (15) |
由式(15)可得
为验证交替优化策略的收敛性,在Yale B[19]人脸数据库和COIL20[20]数据库上进行一组实验。图 1显示了本文算法的目标函数值在这两个数据库上迭代次数的变化,可以看出,目标函数值随着迭代次数的增加而稳定下降。
|
Download:
|
| 图 1 本文算法在两个图像数据库上的收敛曲线 Fig. 1 Convergence curves of the proposed algorithm on two image databases | |
为评估本文算法的有效性,将其与目前主流的特征提取算法PCA、NPE、SPP、SPCA[21]和LRPP[22]进行比较。这些对比算法在提取观测数据的特征后都使用最近邻分类器执行分类任务。为进行公平比较,每种算法在测试数据库上独立运行5次。此外,对比算法的参数设置参考其文献出处或手动调整为最佳。
3.1 实验数据库在Yale B人脸数据库、CMU PIE人脸数据库[23]和COIL20图像数据库上验证本文算法的分类性能。3个数据库的示例样本图像如图 2所示,其中每个对象的任意10张或20张图像都被用作训练样本,每个对象的其余图像被用作测试样本,具体设置如表 1所示。
|
Download:
|
| 图 2 3个数据库的示例图像 Fig. 2 Sample images of three databases | |
|
下载CSV 表 1 数据库设置 Table 1 Setting of databases |
本文算法包含3个相关参数,即
|
Download:
|
| 图 3 本文算法分类精度与参数的关系(COIL20数据库) Fig. 3 The relationship between the classification accuracy of the proposed algorithm and parameters (COIL20 database) | |
通过观察分类精度随不同图像数据库样本的特征维度
|
下载CSV 表 2 不同特征维度下6种算法的分类精度(Yale B数据库) Table 2 Classification accuracies of six algorithms under different feature dimensions (Yale B database) |
|
下载CSV 表 3 不同特征维度下6种算法的分类精度(CMU PIE数据库) Table 3 Classification accuracies of six algorithms under different feature dimensions(CMU PIE database) |
|
下载CSV 表 4 不同特征维度下6种算法的分类精度(COIL20数据库) Table 4 Classification accuracies of six algorithms under different feature dimensions (COIL20 database) |
1) 本文算法能够在3个公共图像数据库中实现最高分类精度。
2) 无论样本特征维度如何变化,本文算法的分类精度均优于对比算法。
3) 低秩表示可以很好地保留所观察样本的全局结构信息,加权稀疏表示也可以很好地保留局部邻域关系。
4) 线性保留投影可以获得有效的低维投影空间,从而保留高维空间中的大部分数据信息。
由此可见,与对比算法相比,本文算法具有更强的鲁棒性和更好的分类性能。
4 结束语本文提出一种联合表示学习和投影学习的降维算法。该算法同时获得观测样本的低维特征表示和稀疏表示,其通过交替优化策略,可以稀疏地进行低秩表示和投影学习,以实现合适的特征表示,得到更准确的相似性结构。基于公共面部数据库和对象图像库的实验结果表明,与其他的对比算法相比,该算法具有性能优势。但是在很多实际应用场景中,并不是所有的图像数据都是无标签的,这些图像数据往往带有少部分标签,因此,下一步将研究如何在降维算法中有效利用这些少量标签数据。
| [1] |
HU Rongyao, LIU Xingyi, CHENG Debo, et al. Robust low-rank self-representation feature selection algorithm[J]. Computer Engineering, 2017, 43(9): 43-50. (in Chinese) 胡荣耀, 刘星毅, 程德波, 等. 鲁棒自表达的低秩属性选择算法[J]. 计算机工程, 2017, 43(9): 43-50. DOI:10.3969/j.issn.1000-3428.2017.09.009 |
| [2] |
ZHANG Lefei, ZHANG Qian, DU Bo, et al. Simultaneous spectral-spatial feature selection and extraction for hyperspectral images[J]. IEEE Transactions on Cybernetics, 2016, 48(1): 16-28. |
| [3] |
ZHANG Yupei, XIANG Ming, YANG Bo. Low-rank preserving embedding[J]. Pattern Recognition, 2017, 70: 112-125. DOI:10.1016/j.patcog.2017.05.003 |
| [4] |
WANG Guoqiang, OU Zongying, LIU Dianting. Face recognition based on supervised neighborhood preserving projections[J]. Computer Engineering, 2008, 34(8): 4-6. (in Chinese) 王国强, 欧宗瑛, 刘典婷. 基于监督保持近邻投影的人脸识别[J]. 计算机工程, 2008, 34(8): 4-6. |
| [5] |
BAJORSKI P. Statistical inference in PCA for hyper-spectral images[J]. IEEE Journal of Selected Topics in Signal Processing, 2011, 5(3): 438-445. DOI:10.1109/JSTSP.2011.2105244 |
| [6] |
HE Xiaofei, YAN Shuicheng, HU Yuxiao, et al. Face recognition using Laplacianfaces[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(3): 328-340. DOI:10.1109/TPAMI.2005.55 |
| [7] |
HE Xiaofei, CAI Deng, YAN Shuicheng, et al. Neighborhood preserving embedding[C]//Proceedings of the 10th IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2005: 1208-1213.
|
| [8] |
YANG Wenhui, DAI Daoqing. Two-dimensional maximum margin feature extraction for face recognition[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B(Cybernetics), 2009, 39(4): 1002-1012. DOI:10.1109/TSMCB.2008.2010715 |
| [9] |
PAPAIOANNOU A, ZAFEIRIOU S. Principal component analysis with complex kernel: the widely linear model[J]. IEEE Transactions on Neural networks and Learning Systems, 2013, 25(9): 1719-1726. |
| [10] |
ZHENG Wenming, LIN Zhouchen, WANG Haixian. L1-norm kernel discriminant analysis via Bayes error bound optimization for robust feature extraction[J]. IEEE Transactions on Neural Networks and Learning Systems, 2013, 25(4): 793-805. |
| [11] |
WONG W K, LAI Z H, WEN J J, et al. Low-rank embedding for robust image feature extraction[J]. IEEE Transactions on Image Processing, 2017, 26(6): 2905-2917. DOI:10.1109/TIP.2017.2691543 |
| [12] |
LIU Guangcan, LIN Zhouchen, YAN Shuicheng, et al. Robust recovery of subspace structures by low-rank representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 35(1): 171-184. |
| [13] |
MA Long, WANG Chunheng, XIAO Baihua, et al. Sparse representation for face recognition based on discriminative low-rank dictionary learning[C]//Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2012: 2586-2593.
|
| [14] |
LIU Junmin, CHEN Yijun, ZHANG Jiangshe, et al. Enhancing low-rank subspace clustering by manifold regularization[J]. IEEE Transactions on Image Processing, 2014, 23(9): 4022-4030. DOI:10.1109/TIP.2014.2343458 |
| [15] |
TANG Kewei, LIU Risheng, SU Zhixun, et al. Structure-constrained low-rank representation[J]. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(12): 2167-2179. DOI:10.1109/TNNLS.2014.2306063 |
| [16] |
XIE Luofeng, YIN Ming, YIN Xiangyun, et al. Low-rank sparse preserving projections for dimensionality reduction[J]. IEEE Transactions on Image Processing, 2018, 27(11): 5261-5274. DOI:10.1109/TIP.2018.2855426 |
| [17] |
BORWEIN J M, ZHU Q J. A variational approach to Lagrange multipliers[J]. Journal of Optimization Theory and Applications, 2016, 171(3): 727-756. DOI:10.1007/s10957-015-0756-2 |
| [18] |
LIU Bo, JING Liping, YU Jian, et al. Robust graph learning via constrained elastic-net regularization[J]. Neurocomputing, 2016, 171(C): 299-312. |
| [19] |
TRON R, VIDAL R. A benchmark for the comparison of 3-d motion segmentation algorithms[C]//Proceedings of 2007 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2007: 1-8.
|
| [20] |
MOHAN B C, CHAITANYA T K, TIRUPAL T. Fast and accurate content based image classification and retrieval using Gaussian hermite moments applied to COIL 20 and COIL 100[C]//Proceedings of the 10th International Conference on Computing, Communication and Networking Technologies. Washington D.C., USA: IEEE Press, 2019: 1-5.
|
| [21] |
ZOU H, HASTIE T, TIBSHIRANI R. Sparse principal component analysis[J]. Journal of Computational and Graphical Statistics, 2006, 15(2): 265-286. DOI:10.1198/106186006X113430 |
| [22] |
LU Yuwu, LAI Zhihui, XU Yong, et al. Low-rank preserving projections[J]. IEEE Transactions on Cybernetics, 2016, 46(8): 1900-1913. DOI:10.1109/TCYB.2015.2457611 |
| [23] |
SIM T, BAKER S, BSAT M. The CMU Pose, Illumination, and Expression(PIE) database[C]//Proceedings of the 5th IEEE International Conference on Automatic Face Gesture Recognition. Washington D.C., USA: IEEE Press, 2002: 53-58.
|
2021, Vol. 47
