«上一篇 下一篇»
  计算机工程  2021, Vol. 47 Issue (12): 256-265  DOI: 10.19678/j.issn.1000-3428.0059394
0

引用本文  

史玉华, 张闯, 迟兆鑫. 基于多元特征的立体图像质量评价方法[J]. 计算机工程, 2021, 47(12), 256-265. DOI: 10.19678/j.issn.1000-3428.0059394.
SHI Yuhua, ZHANG Chuang, CHI Zhaoxin. Method for Stereoscopic Image Quality Assessment Based on Multiple Features[J]. Computer Engineering, 2021, 47(12), 256-265. DOI: 10.19678/j.issn.1000-3428.0059394.

基金项目

中国博士后科学基金(2015M571781);江苏省优势学科资助项目;江苏省高校品牌专业建设资助项目

通信作者

张闯(通信作者), 副教授、博士

作者简介

史玉华(1994-), 女, 硕士研究生, 主研方向为图像质量评价;
迟兆鑫, 学士

文章历史

收稿日期:2020-08-31
修回日期:2020-11-24
基于多元特征的立体图像质量评价方法
史玉华1 , 张闯1,2 , 迟兆鑫1     
1. 南京信息工程大学 电子与信息工程学院, 南京 210044;
2. 江苏省气象探测与信息处理重点实验室, 南京 210044
摘要:立体图像质量评价(SIQA)是评估立体成像系统性能的一种有效方法。考虑到深度信息是立体图像的重要特征,提出一种结合卷积神经网络(CNN)与立体图像深度显著性特征的无参考SIQA方法。分别利用改进显著特征检测模型和高斯差分滤波器提取立体图像的显著特征和深度特征,并通过小波变换融合两者得到深度显著性特征。在此基础上,将深度显著性特征、对比度特征和亮度系数归一化特征作为输入特征对CNN进行模型训练,从而预测图像的质量分数。该方法在LIVE 3D IQA Phase Ⅰ、Phase Ⅱ、NBU 3D IQA图像库上的皮尔森线性相关系数分别为0.948、0.962、0.943,斯皮尔曼秩相关系数分别为0.937、0.961、0.902,在Phase Ⅱ、NBU 3D IQA跨数据库上的斯皮尔曼秩相关系数分别为0.832、0.673。实验结果表明,该方法预测的质量分数符合人类主观感知,且具有较好的适用性和鲁棒性。
关键词立体图像质量评价    多元特征    立体显著性    无参考图像评价    卷积神经网络    
Method for Stereoscopic Image Quality Assessment Based on Multiple Features
SHI Yuhua1 , ZHANG Chuang1,2 , CHI Zhaoxin1     
1. School of Electronic and Information Engineering, Nanjing University of Information Science and Technology, Nanjing 210044, China;
2. Jiangsu Key Laboratory of Meteorological Observation and Information Processing, Nanjing 210044, China
Abstract: Stereoscopic Image Quality Assessment(SIQA) is an effective method to evaluate the performance of stereoscopic imaging systems.Considering that depth information is an important feature of stereoscopic images, an method of non-reference SIQA is proposed by combining a Convolutional Neural Network(CNN) and depth saliency features of stereoscopic images.The method employs the improved saliency feature detection model and the difference of Gaussian filter to extract the saliency features and depth features. Then the two kinds of features are fused by using wavelet transform to obtain depth saliency features.On this basis, the depth saliency features, contrast features and brightness coefficient normalization features are input into the CNN for training, and then the quality score of the image is predicted.The method is tested with stereoscopic images for quality evaluation in multiple databases, including LIVE 3D IQA PhaseⅠ, Phase Ⅱ, and NBU 3D IQA.Experimental results show that the proposed method exhibits a Pearson linear correlation coefficient of 0.948 on LIVE 3D IQA Phase Ⅰ, 0.962 on LIVE 3D IQA Phase Ⅱ, and 0.943 on NBU 3D IQA.Its Spearman rank correlation coefficients on the above three database are 0.937, 0.961, and 0.902 respectively.The experimental results on the Phase Ⅱ and NBU 3D IQA cross-database show that the method exhibits a Spearman rank correlation coefficient of 0.832 and 0.673.The method can generate quality scores that conform to human perception, and displays high applicability and robustness.
Key words: Stereoscopic Image Quality Assessment(SIQA)    multiple features    stereoscopic saliency    non-reference quality evaluation    Convolutional Netural Network(CNN)    

开放科学(资源服务)标志码(OSID):

0 概述

立体图像质量越高,人们从中获得信息越丰富,视觉体验也越舒适。在立体图像成像及处理过程中,由于经过采集、编码、压缩、传输、存储、显示等步骤,图像失真或者质量下降都是难以避免的,因此必须使用立体图像质量评价(Stereoscopic Image Quality Assessment,SIQA)方法来衡量立体图像的质量。SIQA结果也是图像采集、传输、还原的一个标尺。

SIQA分为主观SIQA和客观SIQA两类。主观SIQA是人们根据主观感受给图像打分,其过程复杂耗时。因此,主观SIQA很难应用于实际工作中。客观SIQA是根据图像统计信息来评价,其应用广泛,分为全参考(Full Reference,FR)、半参考(Reduced Reference,RR)和无参考(No Reference,NR)。FR-SIQA以原始图像作为对照,评估失真图像质量;RR-SIQA只需要原始图像的部分信息;NR-SIQA不需要原始图像的信息,相比FR-SIQA和RR-SIQA,其具有更广的应用前景。

SIQA的研究重点是构建符合人类视觉系统的感知模型,实现图像质量的准确预测。由于2D图像和3D图像的成像机理不同,并且3D图像的每个视图不仅会产生单目失真,还存在对称或非对称单目失真,包括双目混淆、深度感知误差、视觉不适等双目失真,因此SIQA与图像质量评价(Image Quality Assessment,IQA)的本质差异是SIQA不仅考虑立体图像左右视图的单目失真,还考虑其双目的立体感知特性,如深度、视差等。

文献[1]利用2D IQA模型的方法研究SIQA。文献[2]提出基于2D IQA的NR-SIQA,该方法分别计算左视图和右视图的质量,并将2个质量得分相结合来预测3D图像的质量得分。文献[3]通过研究多种不同的2D IQA,并将其分别应用于SIQA,再辅以视差信息评价图像质量。由于这些方法未考虑人们视觉特性,对于立体图像质量的预测达不到很好的效果,尤其是引入不对称失真时,评价效果更差。文献[4]提出采用叠加立体图像视差/深度特征算法,对立体图像质量实现了较准确的评价,表明深度是影响人眼立体感知的重要特征。

随着深度学习的发展,文献[5]提出一种传统算法与深度学习算法结合的方法——基于双目自相似性(Binocular Self-similarity,BS)和深层神经网络(Deep Neural Network,DNN)的NR-SIQA方法。文献[6]将卷积神经网络(Convolutional Neural Network,CNN)应用于SIQA,利用2个卷积层、2个池化层进行特征提取,并在网络最后层引入多层感知机(Multilayer Perceptron,MLP),将学习到的特征进行全连接得到质量分数。文献[7]采用多任务CNN同时学习图像质量预测和失真类型识别。

基于深度学习的SIQA方法没有考虑立体图像的深度性和显著性,无法准确反映立体图像的感知质量。本文提出一种基于多元特征的SIQA方法。通过提取失真图像对的深度显著性特征、对比度特征和亮度系数归一化特征作为CNN的输入特征进行训练,评价立体图像的质量。

1 基于多元特征的SIQA 1.1 图像特征提取

在IQA中,人眼注意不到的图像信息属于冗余信息。IQA方法在对图像进行系统训练过程中剔除一些质量不高的数据以提高方法的有效性[8]。立体图像的颜色、深度、边缘等特征在人眼对图像的理解中具有重要作用,也是IQA的重要因素。因此,本文模拟人眼视觉特性,提取立体图像的深度显著特征和对比度特征作为网络的输入。

1.2 立体图像深度显著性特征

视觉显著性体现了人眼的关注度,图像中优先被人眼感知的区域称为图像显著性区域。研究表明图像的失真会导致显著图发生变化[9]。图像显著性特点使得图像显著性本身和图像质量息息相关。从心理和物理角度来看,视觉显著性受低层次特征(如颜色、边缘、深度信息)影响[10],低层次特征对显著性信息提取具有一定作用,而传统深度学习方法通常无法很好地学习图像的低层语义特征。因此,本文构建一种基于图像融合的立体图像显著性特征提取模型。深度显著性特征提取流程如图 1所示。首先,通过左右视图相减求得视差图,并对视差图进行高斯差分滤波器(Difference of Gaussian,DoG)[11]得到立体图像的深度特征;其次,改进SDSP[12]模型以提取立体图像的颜色、边缘显著;最后,将深度特征图和显著图融合得到最终的立体深度显著图。

Download:
图 1 深度显著性特征提取流程 Fig. 1 Extraction procedure of depth saliency feature
1.2.1 立体图像深度特征

深度信息能有效反映物体的深度变化程度,是立体图像深度感知特征的重要衡量指标[13],深度信息一般通过计算左右视图的视差图来获取[11]。由于DoG[11]滤波器与神经元的接收区相似,并且能够模拟人眼视觉系统(Human Visual System,HVS)的中心环绕机制[14]。DoG滤波过程如图 2所示。

Download:
图 2 DoG滤波过程 Fig. 2 Filtering process of DoG

本文采用DoG滤波器对视差图进行处理以提取立体图像的轮廓特征和深度边缘特征,具体过程如式(1)所示:

$ \begin{array}{l}G(x, y, \sigma )=\frac{1}{\sqrt{2\mathrm{\pi }}}\left[\frac{1}{{\sigma }_{1}}{\mathrm{e}}^{-\frac{{x}^{2}+{y}^{2}}{2{{\sigma }_{1}}^{2}}}-\frac{1}{{\sigma }_{2}}{\mathrm{e}}^{-\frac{{x}^{2}+{y}^{2}}{2{K}^{2}{{\sigma }_{2}}^{2}}}\right]=\\ \;\;\;\;\;\;\;\;\;\;\; G(x, y, {\sigma }_{1})-G(x, y, {\sigma }_{2})\end{array} $ (1)

其中:(xy)为该点像素的坐标;$ \sigma $为控制滤波器尺度。本文$ {\sigma }_{1} $设置为1,$ {\sigma }_{2} $设置1.6。

失真图与深度特征图如图 3所示,图像库包含高斯模糊(Gussian Blur,BLUR)、快衰落(Fast Fading,FF)、JP2K(JP2000)、JPEG压缩、白噪声(White Noise,WN)。失真图如图 3(a)~图 3(e)所示,对应生成的深度特征图如图 3(f)~图 3(j)所示。从图 3可以看出,利用DoG滤波器能够更准确地提取出目标的轮廓和边缘纹理特征。

Download:
图 3 失真图与深度特征图 Fig. 3 Distortion images and depth feature images
1.2.2 颜色与边缘特征提取

SDSP模型[12]提取的特征图像只关注图像的中心位置,造成信息损失,但人眼更容易感知边缘位置的变化。本文通过边缘显著取代中心位置显著,改进SDSP模型。首先,暖色比冷色对人更具吸引力;其次,带通滤波能准确地模拟人类视觉系统在视觉场景中检测到显著物体的特征[12];最后,人眼对于图像边缘的变化敏感。

本文通过提取这3种图像形成独眼图,作为图像的显著特征图,最终显著图的计算方法如式(2)所示:

$ {S}_{\mathrm{S}\mathrm{D}\mathrm{S}\mathrm{P}}\left(x\right)={S}_{\mathrm{C}}\left(x\right)\times {S}_{\mathrm{F}}\left(x\right)\times {S}_{\mathrm{E}}^{}\left(x\right) $ (2)

其中:SC为点x处的颜色显著;SF为点x处的显著性;SE为边缘显著。

失真图与颜色、边缘显著图如图 4所示,5种失真类型下的失真左视图如图 4(a)~图 4(e)所示,对相应失真图像提取的颜色、边缘显著图如图 4(f)~图 4(j)所示。从图 4可以看出,该方法能够准确地提取图像的边缘、颜色等视觉显著特征并减少信息损失。

Download:
图 4 失真图与颜色、边缘显著图 Fig. 4 Distortion images and color, edge saliency images
1.2.3 图像融合

图像融合具有图像增强、相互补充信息、去除噪声和冗余的优点。图像融合的方法包括基于加权平均的融合方法、基于主成分分析的融合方法、多尺度变换的融合方法和基于小波变换的图像融合方法。

小波变换有水平、垂直和对角三种高频子带,是一种正交变换[15],具有完善的重构能力。小波变换能够将立体图像的深度特征和显著特征融合从而得到立体图像深度显著图。深度显著图如图 5所示,从图 5可以看出,通过融合实现了图像边缘,深度等特征的互补作用。

Download:
图 5 深度显著图 Fig. 5 Depth saliency images
1.3 立体图像对比度特征

对比度特征是立体图像的底层特征之一,能够充分表达立体图像的内容,对基于人眼视觉感知的SIQA方法具有积极的作用。立体图像对比度的提取方法是通过自适应找到分割阈值向量以增强立体图像对比度。图像库5种失真类型中失真图与对比度特征图如图 6所示,在图像失真严重的情况下,对比度特征图能准确反映图像的结构。

Download:
图 6 失真图与对比度特征图 Fig. 6 Distortion images and contrast feature images
1.4 亮度系数归一化

如果将左视图或右视图直接作为CNN输入,导致算法耗时过长,这对处理图片数量较多的情况是不利的。如何在提高算法求解速度和精度的同时保留立体图像结构特征是亟待解决的问题。

文献[16]发现失真程度不同的自然图像经过亮度系数归一化后,其概率密度更符合高斯分布。这种亮度系数归一化后的图像所保留的结构,被证明能够提高IQA的性能[17]

MSCN概率密度分布大致左右对称,符合高斯分布的特点。失真图和提取的亮度系数归一化特征如图 7所示。本文通过亮度系数归一化处理左右视图,相应概率密度分布如图 8所示。MSCN系数由于失真的存在从而改变特征统计特性,量化这些变化可以预测影响图像失真类型及其感知质量。

Download:
图 7 失真图和亮度系数归一化图 Fig. 7 Distortion images and brightness coefficient normalization images
Download:
图 8 概率密度分布 Fig. 8 Probability density distribution
2 SIQA网络结构

CNN中VGG Net结构简单且具有较高的有效性,将其应用到SIQA模型中。VGG-16有5段卷积,每段内有2、3个卷积层,卷积核的大小均为3×3,每段的卷积核数量相同。5段卷积中的卷积核数量逐次递增:64、128、256、512、512。在第1~4段内每段卷积后连接1个池化层,主要是减小图片尺寸,网络最后层有3个全连接层。

网络中全连接层过多存在参数冗余、深度信息损失多、空间结构性表达不足等问题。针对以上问题,CNN结构如图 9所示。

Download:
图 9 卷积神经网络结构 Fig. 9 Structure of convolutional neural network

本文在已有的VGG-16网络基础上做了改进:在第5段卷积结束后,将得到的6个特征层级联再进行1次卷积和池化,最后连接1个全连接层。改进后的网络能够最大程度保留立体图像的深度特征,同时减小内存,提高算法的速度和精度。在网络最后的全连接层中加入dropout层以防止过拟合现象,丢失率设置为0.5。

目标变量和预测值之间的平方距离之和如式(3)所示:

$ {M}_{\mathrm{S}}=\frac{\sum\limits _{i=1}^{n}({y}_{{}_{i}}-{y}_{i}^{\mathrm{p}}{)}^{2}}{n} $ (3)

其中:yi为目标变量的真实值;yip为预测结果。

3 实验与分析 3.1 数据准备

本文采用图像库是德州大学奥斯汀分校和视频工程实验室制作的LIVE 3D Image Quality Database—Phase Ⅰ[18]/Phase Ⅱ[19]图像库以及由Mobile3DTV和MPEG提供的NBU-3D图像库[20]。LIVE 3D图像库包含5种失真类型的图像,分别为JP2K、JPEG压缩、Blur、White Noise、Fast Fading。其中Blur失真共含45组图像共90张,另外4种失真类型每种含80组图像,各160张图像,共730张图像。NBU-3D立体图像测试库包含12对原始立体图像和312对失真立体图像,包含Blur、White Noise、JPEG、JP2K以及H.264编码5种失真类型,左右图像均为失真程度相同的对称失真,并给出每组失真立体图像的DMOS值。DMOS值越低代表图像质量越好,反之代表图像质量越差。

LIVE 3D IQA Phase Ⅰ图像库JP2K失真的左视图和右视图如图 10所示,失真程度从左到右递减。

Download:
图 10 LIVE 3D IQA Phase Ⅰ图像库不同DMOS对应的JP2K失真图像对 Fig. 10 JP2K distortion image pairs corresponding to different DMOS on LIVE 3D IQA Phase Ⅰ image library
3.2 实验过程

本文提出NR-SIQA方法总体结构如图 11所示。首先设计图像特征提取函数制作数据集,提取了3种立体图像特征组合成特征图像数据集。由于存在全连接层,因此输入图像的维度必须是固定的,将图像切块为128像素×128像素作为输入,图像库提供DMOS制作为标签。图像库中图片失真为均匀失真,所以每个输入块的质量分数与原图像相同。对CNN进行训练以预测图像的质量分数。最后预测DMOS为一幅图像中所有图像块DMOS的平均值。为防止过拟合,本文方法将数据集随机分配得到训练集和测试集,数量比例为4∶1。

Download:
图 11 NR-SIQA方法总体结构 Fig. 11 Overall structure of NR-SIQA method

本文选取皮尔森线性相关系数(Pearson Linear Correlation Coefficient,PLCC)、斯皮尔曼秩相关系数(Spearman Rank Correlation Coefficient,SROCC)、均方根误差(Root Mean Square Error,RMSE)对模型进行评估[21],其中,PLCC衡量模型预测的DMOS和图像库提供的DMOS之间的相关性;SROCC衡量两个变量之间的单调相关性;RMSE用于衡量预测DMOS和DMOS之间的偏差。PLCC和SROCC的值越接近1,表明预测值和真值之间的相关性越高。RMSE值越低表明预测值和真值差距越小,模型的预测效果越好。

3.3 实验结果与分析

本文图像库的数据以4∶1分为训练集和测试集。模型训练的意义在于使预测的质量分数尽量向图像库提供的质量分数靠近。在显卡GTX 1050Ti、处理器i5的电脑上进行实验,批次大小为10,迭代次数为5 000,模型训练时间和测试时间如表 1所示。3个图像库制作的数据集中随机选取1/5的图片作为测试集,模型测试图片数和每张图片测试时间如表 2所示。从表 2可以看出,模型测试时间可以达到实时。

下载CSV 表 1 不同图像库模型训练时间和预测时间对比 Table 1 Training time and prediction time comparison of model on different images library
下载CSV 表 2 不同图像库模型测试图片数量和每张图片测试时间 Table 2 Number of test pictures and test time per picture of model on different images library

为了更全面地分析实验结果,LIVE 3D IQA Phase Ⅰ中5种失真类型下预测DMOS和图像库中DMOS散点线性拟合如图 12所示。说明本文提出图像质量评价方法无论在总体还是在5种失真类型下得到的结果都具有较好的主观一致性。

Download:
图 12 LIVE 3D IQA Phase Ⅰ图像库不同失真类型的DMOS散点线性拟合 Fig. 12 DMOS scatter linear fitting of different distortion types on LIVE 3D IQA Phase Ⅰ image library

本文方法在LIVE 3D IQA Phase Ⅱ上预测的结果如图 13所示,与LIVE 3D IQA Phase Ⅰ相比,LIVE 3D IQA Phase Ⅱ包含240对不对称失真图片。从图 13可以看出,本文方法在LIVE 3D IQA Phase Ⅱ上取得了较好的预测效果,针对非对称失真图像也能较准确地预测出质量分数。

Download:
图 13 LIVE 3D IQA Phase Ⅱ图像库不同失真类型的DMOS散点线性拟合 Fig. 13 DMOS scatter linear fitting of different distortion types on LIVE 3D IQA Phase Ⅱ image library

本文方法在NBU 3D IQA图像库训练后预测结果如图 14所示。由图 14可以看出,本文方法在NBU 3D IQA图像库上的预测结果与人类感知具有较高的一致性。

Download:
图 14 NBU 3D IQA图像库的测试结果 Fig. 14 Test results on NBU 3D IQA image library

本文选取13种有代表性的方法与本文提出的方法进行比较。一类包括7种FR-SIQA方法[1, 3, 22-26];另一类是6种NR-SIQA方法[17, 19, 27-30]。在这6个NR-SIQA方法[28-30]中,文献[19]是基于深度感知的3D NR-SIQA指标;文献[29]将一组手工制作的自然场景统计特征作为稀疏自编码器的输入,通过softmax回归汇总到其相应的质量得分。文献[30]提出的模型是基于孪生神经网络,以2个图像块作为输入,对2个输入图像块之间质量分数进行排序。与其他基于深度学习的SIQA不同,本文方法是从人眼视觉特性和立体图像的感知特征出发,结合深度学习,实现立体图像的多元特征到质量分数的映射。

在LIVE 3D IQA Phase Ⅰ、LIVE 3D IQA Phase Ⅱ和NBU 3D IQA图像库不同方法的评价指标对比如表 3表 4所示。表中-为原论文没有提供相应的实验结果,也没有找到相应的源代码来重现实验结果。

下载CSV 表 3 LIVE 3D IQA Phase Ⅰ和Phase Ⅱ图像库不同方法的评价指标对比 Table 3 Evaluation indexs comparison among different methods on LIVE 3D IQA Phase Ⅰ and Phase Ⅱ image library
下载CSV 表 4 NBU 3D IQA图像库不同方法的评价指标对比 Table 4 Evaluation indexs comparison among different methods on NBU 3D IQA image library

表 3表 4可以看出,无论是NR-SIQA还是FR-SIQA,本文方法在3个图像库均取得了较好的性能,特别是在LIVE 3D IQA phase Ⅱ图像库上。本文方法所预测的DMOS与原始DMOS具有较好的相关性,进一步证明该方法在SIQA方面的有效性。

10种方法在LIVE 3D IQA phaseⅠ和phaseⅡ图像库不同失真类型的评价指标对比如表 5表 6所示。本文方法在单个失真类型上具有稳定的性能。

下载CSV 表 5 LIVE 3D IQA phase Ⅰ图像库不同失真类型的评价指标对比 Table 5 Evaluation indexs comparison among different distortion types on LIVE 3D IQA phase Ⅰ image library
下载CSV 表 6 LIVE 3D IQA Phase Ⅱ图像库不同失真类型的评价指标对比 Table 6 Evaluation indexs comparison among different distortion types on LIVE 3D IQA phase Ⅱ image library

利用跨数据库测试进一步分析本文方法的性能,LIVE 3D IQA PhaseⅠ作为训练集,LIVE 3D IQA PhaseⅡ和NBU 3D IQA图像库作为测试集。将测试结果与文献[17]、文献[27]和文献[29]3种IQA指标进行对比。SROCC的结果如表 7所示,因NBU 3D IQA图像库包含的H.264编码失真类型在LIVE 3D IQA PhaseⅠ中不存在,所以在NBU 3D IQA图像库上测试结果不佳。实验结果表明,本文方法具有较好的泛化性和鲁棒性。

下载CSV 表 7 跨数据库上不同方法的SROCC对比 Table 7 SROCC comparison among different methods on cross-database
4 结束语

本文根据人眼视觉特性和立体图像特点,提出一种多元立体图像特征与CNN结合的SIQA方法。通过提取失真图像对的深度显著性特征、对比度特征和亮度系数归一化后的左右视图作为CNN输入训练模型,预测立体图像的质量分数。实验结果表明,本文方法能够准确评价对称和不对称失真立体图像,评价结果符合人类主观感知,且具有较好的适用性和鲁棒性。后续将考虑视觉多通道分解性和人眼误差等因素,进一步提高SIQA的准确性。

参考文献
[1]
BENOIT A, CALLET P L, CAMPISI P, et al. Quality assessment of stereoscopic images[J]. EURASIP Journal on Image and Video Processing, 2008, 1: 1-13.
[2]
ZHOU W J, YU L. Binocular responses for no-reference 3D image quality assessment[J]. IEEE Transactions on Multimedia, 2016, 18(6): 1077-1084. DOI:10.1109/TMM.2016.2542580
[3]
YOU J Y, XING L Y, PERKIS A, et al. Perceptual quality assessment for stereoscopic images based on 2D Image quality metrics and disparity analysis[C]//Proceedings of the 5th International Workshop on Video Processing and Quality Metrics for Consumer Electronics. Arizona, USA: [s. n. ], 2010: 1-7.
[4]
谭红宝. 基于机器学习的无参考立体图像质量评价方法研究[D]. 无锡: 江南大学, 2016.
TAN H B. Research on non-reference stereo image quality evaluation method based on machine learning[D]. Wuxi: Jiangnan University, 2016. (in Chinese)
[5]
LV Y Q, YU M, JIANG G Y, et al. No-reference stereoscopic image quality assessment using binocular self-similarity and deep neural network[J]. Signal Processing: Image Communication, 2016, 47: 346-357. DOI:10.1016/j.image.2016.07.003
[6]
ZHANG W, QU C F, MA L, et al. Learning structure of stereoscopic image for no-reference quality assessment with convolutional neural network[J]. Pattern Recognition, 2016, 59: 176-187. DOI:10.1016/j.patcog.2016.01.034
[7]
SHI Y Q, GUO W Z, NIU Y Z, et al. No-reference stereoscopic image quality assessment using a multitask CNN and registered distortion representation[J]. Pattern Recognition, 2019, 100: 1-12.
[8]
朱玲莹, 桑庆兵, 顾婷婷. 基于视差信息的无参考立体图像质量评价[J]. 计算机科学, 2020, 47(9): 150-156.
ZHUN L Y, SANG Q B, GU T T. No-reference stereo image quality assessment based on disparity information[J]. Computer Science, 2020, 47(9): 150-156. (in Chinese)
[9]
马亚男, 李思原. 基于视觉显著性的立体图像质量评价算法[J]. 工业控制计算机, 2018, 31(10): 70-71.
MA Y N, LI S Y. Stereoscopic image quality evaluation algorithm based on visual saliency[J]. Industrial Control Computer, 2018, 31(10): 70-71. (in Chinese)
[10]
曹春红, 孙榕, 钟琴. 基于图像显著性识别的自动抠图系统[J]. 计算机工程, 2019, 45(9): 248-252.
CAO C H, SUN R, ZHONG Q. Automatic matting system based on image saliency recognition[J]. Computer Engineering, 2019, 45(9): 248-252. (in Chinese)
[11]
周洋, 何永健, 唐向宏, 等. 融合双目多维感知特征的立体视频显著性检测[J]. 中国图象图形学报, 2017, 22(3): 305-314.
ZHOU Y, HE Y J, TANG X H, et al. Stereoscopic video saliency detection combining binocular multi-dimensional perception features[J]. Journal of Image and Graphics, 2017, 22(3): 305-314. (in Chinese)
[12]
ZHANG L, GU Z Y, Li H Y. SDSP: a novel saliency detection method by combining simple priors[C]//Proceedings of IEEE International Conference on Image Processing. Washington D.C., USA: IEEE Press, 2014: 171-175.
[13]
DIDYK P, RITSCHEL T, EISEMANN E, et al. A perceptual model for disparity[J]. ACM Transactions on Graphics, 2011, 30(4): 1-10.
[14]
WANG J, DA SILVA M P, LE C P, et al. Computational model of stereoscopic 3D visual saliency[J]. IEEE Transactions on Image Processing, 2013, 22(6): 2151-2165. DOI:10.1109/TIP.2013.2246176
[15]
ZHANG H X, CAO X. A way of image fusion based on wavelet transform[C]//Proceedings of the 9th International Conference on Mobile Ad-hoc and Sensor Networks. Washington D.C., USA: IEEE Press, 2014: 498-501.
[16]
RUDERMAN D L. The statistics of natural images[J]. Network: Computation in Neural Systems, 1994, 5(4): 517-548. DOI:10.1088/0954-898X_5_4_006
[17]
MITTAL A, MOORTHY A K, BOVIK A C. No-reference image quality assessment in the spatial domain[J]. IEEE Transactions on Image Processing Society, 2012, 21(12): 4695-4708. DOI:10.1109/TIP.2012.2214050
[18]
MOORTHY A K, SU C C, MITTAL A, et al. Subjective evaluation of stereoscopic image quality[J]. Signal Processing: Image Communication, 2013, 28(8): 870-883. DOI:10.1016/j.image.2012.08.004
[19]
CHEN M J, CORMACK L K, BOVIK A C. No-reference quality assessment of natural stereopairs[J]. IEEE Transactions on Image Processing, 2013, 22(9): 3379-3391. DOI:10.1109/TIP.2013.2267393
[20]
SHAO F, LIN W S, GU S B, et al. Perceptual full-reference quality assessment of stereoscopic images by considering binocular visual characteristics[J]. IEEE Transactions on Image Processing, 2013, 22(5): 1940-1953. DOI:10.1109/TIP.2013.2240003
[21]
LI S M, HAN X, ZUBAIR M, et al. Stereo image quality assessment based on sparse binocular fusion convolution neural network[C]//Proceedings of IEEE Conference on Visual Communications and Image Processing. Washington D.C., USA: IEEE Press, 2020: 1-4.
[22]
WANG J H, REHMAN A, ZENG K, et al. Quality prediction of asymmetrically distorted stereoscopic 3D images[J]. IEEE Transactions on Image Processing, 2015, 24(11): 3400-3414. DOI:10.1109/TIP.2015.2446942
[23]
CHEN M J, SU C C, KWON D K, et al. Full-reference quality assessment of stereopairs accounting for rivalry[J]. Signal Processing: Image Communication, 2013, 28(9): 1143-1155. DOI:10.1016/j.image.2013.05.006
[24]
SHAO F, LI K, LIN W S, et al. Full-reference quality assessment of stereoscopic images by learning binocular receptive field properties[J]. IEEE Transactions on Image Processing, 2015, 24(10): 2971-2983. DOI:10.1109/TIP.2015.2436332
[25]
SAMEEULLA K M, CHANNAPPAYYA S S. Sparsity based stereoscopic image quality assessment[C]//Proceedings of the 50th Asilomar Conference on Signals, Systems and Computers. Washington D.C., USA: IEEE Press, 2017: 1858-1862.
[26]
SAMEEULLA K M, APPINA B, CHANNAPPAYYA S S. Full-reference stereo image quality assessment using natural stereo scene statistics[J]. IEEE Signal Processing Letters, 2015, 22(11): 1985-1989. DOI:10.1109/LSP.2015.2449878
[27]
SAAD M A, BOVIK A, CHARRIER C. Blind image quality assessment: a natural scene statistics approach in the DCT domain[J]. IEEE Transactions on Image Processing, 2012, 21(8): 3339-3352. DOI:10.1109/TIP.2012.2191563
[28]
SHAO F, LI K, LIN W S, et al. Learning blind quality evaluator for stereoscopic images using joint sparse representation[J]. IEEE Transactions on Multimedia, 2016, 18(10): 2104-2114. DOI:10.1109/TMM.2016.2594142
[29]
JIANG Q P, SHAO F, LIN W S, et al. Learning a referenceless stereopair quality engine with deep nonnegativity constrained sparse autoencoder[J]. Pattern Recognition, 2018, 76: 242-255. DOI:10.1016/j.patcog.2017.11.001
[30]
NIU Y Z, HUANG D, SHI Y Q, et al. Siamese-network-based learning to rank for no-reference 2D and 3D image quality assessment[J]. IEEE Access, 2019, 7: 101583-101595. DOI:10.1109/ACCESS.2019.2930707