近年来, 受图形处理单元硬件支持的深度卷积神经网络(Deep Convolutional Neural Network, DCNN)被证明具有强大的特征学习和非线性映射能力, 将其应用于图像降噪领域后, 在执行效率和降噪效果2个关键评价指标上相对于传统降噪算法具有明显优势[1-3]。
目前, IRCNN(Image Restoration CNN)[4]、DnCNN(Denoising CNN)[5]、UDNet(Universal Denoising Network)[6]和FFDNet(Fast and Flexible Denoising Network)[7]等基于DCNN的主流降噪模型, 克服了传统降噪算法依赖人工提取图像先验知识的缺点, 在改善降噪效果的同时大幅提高了算法的执行效率。上述模型在本质上都是基于数据驱动(data-driven)策略实现的, 通过在大量数据集上进行训练, 端到端学习噪声图像与无失真图像或残差图像(噪声图像与无失真图像之间的差图)之间复杂的映射关系, 从而实现噪声图像的高质量复原。
以DnCNN降噪模型为例, 该模型以噪声图像及其对应的残差图像作为深度卷积神经网络的输入-输出训练对(Training Pairs, TP), 通过训练实现一个降噪效果好且执行效率高的高斯降噪模型。然而, 受技术路线的内在制约, 基于DCNN网络构建的DnCNN等降噪模型的降噪性能在很大程度上依赖于训练图像集, 只有在待降噪图像的噪声水平值与训练降噪模型所用图像集的噪声水平值相一致或近似的条件下, 才能获得最佳的降噪效果。DnCNN模型需要针对给定噪声图像的噪声水平值, 调用专门针对这一噪声水平值训练的降噪模型, 才能获得最佳的降噪效果, 这意味着在噪声水平值变化范围内需要训练多个降噪模型。为解决该问题, FFDNet降噪模型[7]调整了DnCNN网络模型的输入结构, 除输入噪声图像外, 还增加了噪声水平映射图(Noise Level Map, NLM)作为辅助输入通道。引入的NLM映射图与噪声图像大小相同, 但噪声水平图中各个点的亮度值为噪声水平值。经过训练后所获得的FFDNet降噪模型中的网络参数不再依赖图像噪声水平值, 这意味着只需训练一个降噪模型就可处理任意噪声图像的降噪问题。此外, FFDNet降噪模型在网络模型的输入端和输出端分别设置下采样和上采样模块, 这种结构有助于提高模型的降噪效果和执行效率。与DnCNN等深度降噪模型相比, FFDNet模型具有更好的降噪能力、更快的执行速度以及更高的灵活性, 但是发挥这些优越性能的前提是FFDNet降噪模型需要以待降噪图像噪声水平值生成的NLM映射图作为网络模型的输入数据, 模型性能取决于能否准确地对待降噪图像中的噪声水平值进行测定。
对给定噪声图像的噪声水平值进行准确测定的方法称为噪声水平估计(Noise Level Estimation, NLE)算法[8-10]。对于NLE算法而言, 估计准确性是衡量其性能的重要评价指标。为获得较准确的估计结果, ZORAN等人[11]利用自然图像经DCT(Discrete Cosine Transform)变换后所得到的边缘带通系数的峰度(Kurtosis)统计值具有尺度不变的特性, 通过构建目标优化函数并迭代搜索目标函数最优值来估计噪声图像的噪声水平值。ZORAN所提算法在中、低噪声水平下具有较好的预测准确性, 但是在高水平噪声条件下预测性能下降。此外, 该算法执行时间较长, 在目标寻优过程中可能失败。为此, DONG等人[12]综合利用带通域上Kurtosis值的分段平稳性和正则性, 将噪声水平估计问题转化为迭代优化拟合Kurtosis模型的问题。DONG所提算法能够准确地估计图像噪声水平值, 但其执行效率仍然较低。
GUPTA等人[13]利用DCT滤波响应的局部对比度归一化系数分布统计值的尺度不变性, 实现了一种NLE算法, 其具有较好的预测准确性, 但计算复杂度较高。除了利用图像变换后的统计规律构建NLE算法之外, 利用图像中同质图块的协方差矩阵对噪声水平值进行估计也是一种常见的NLE方法。FANG等人[14]利用组合系数对协方差矩阵最小特征值和多个冗余维度的特征值进行线性组合, 克服了采用最小特征值估计噪声水平值时的不足, 在各个噪声水平下都具有较高的估计准确性和鲁棒性, 但是, 其仍然需要采用迭代的方式来选择同质图块, 执行时间较长。综上, 现有的多数NLE算法为保证预测准确性而构造复杂的推演过程, 导致算法执行效率普遍较低, 而作为各种非盲降噪算法的前置模块, NLE算法的执行效率很重要, 其效率较低将影响整个降噪过程的执行效率。
为了使得FFDNet降噪模型在实际应用中能获得最佳的降噪效果并保持较高的执行效率, 在分析其网络模型结构的基础上, 本文建立一种由浅层卷积神经网络(Shallow Convolutional Neural Network, SCNN)和BP(Back-Propagation)神经网络2种串行网络模块构成的NLE模型, 并将其作为FFDNet降噪模型的前置模块。采用与FFDNet模型相同的网络架构, 但以SCNN网络方式构建噪声分离模型将噪声信号从噪声图像中分离出来, 得到粗略的噪声映射图(Noise Mapping, NM)。NM的标准差与真实噪声水平值之间有一定偏差, 但鉴于它们之间具有极高的相关性, 本文利用预训练的BP神经网络修正模型, 将初估值修正为最终的噪声水平值, 从而获得一种准确而快速的NLE模型。将该NLE模型与FFDNet降噪模型相结合, 使得FFDNet转换为盲降噪模型BFFDNet。
1 FFDNet降噪模型 1.1 模型架构与传统降噪算法以及近年来兴起的DCNN降噪模型相比, FFDNet降噪模型能够取得更好的降噪效果, 且在执行效率方面具有优势。如图 1所示, FFDNet降噪网络的隐含层共有d层, 每一层都由卷积(Conv)、非线性激活(Rectified Linear Units, ReLU)[15]和批归一化(Batch Normalization, BN)[16]3种操作的特定组合构成, 第1层为Conv+ReLU, 第2层~第(d-1)层为Conv+BN+ReLU, 最后一层为Conv。其中, 每个卷积层的卷积核大小均为3×3, ReLU激活函数能够加快整个网络的收敛速度, BN操作用于减少内部协变量转移现象[16]对网络参数选取的影响。为了进一步加快网络模型的执行速度, FFDNet模型在网络输入端采用下采样算子, 将大小为W×H×C(C=1表示灰度图像, C=3表示彩色图像)的噪声图像y生成对应的4张大小为
![]() |
Download:
|
图 1 FFDNet降噪模型的网络架构 Fig. 1 Network architecture of FFDNet denoising model |
FFDNet降噪模型以噪声图像y的下采样子图像和映射图N共同作为网络的输入, 对应的无失真子图像作为输出进行训练, 降噪模型可形式化描述为
FFDNet降噪模型使用NLM映射图作为辅助信息, 有助于提高模型的降噪性能, 但仍然需要用户准确地给定σ值的大小才能获得最佳的降噪效果。当设置的σ值与噪声图像中真实噪声水平值不一致时, 模型的降噪效果将下降。如图 2所示, 对原始无失真的Lena图像施加噪声水平值σtrue=40的高斯噪声, 使用σtest=10, 20, 30, 40, 50, 60, 70不同的噪声水平值作为FFDNet降噪模型的输入参数分别对该噪声图像进行降噪。从图 2可以看出, 当设置的噪声水平值σtest小于待降噪图像的真实噪声水平值σtrue时, 复原图像中仍然残留了部分噪声, 如图 2(c)~图 2(e)所示, 且模型的降噪效果随σtest与σtrue之间差值的增大而降低; 当σtest大于σtrue时, 复原图像的边缘区域过于平滑, 纹理细节丢失, 如图 2(g)~图 2(i)所示, 且σtest与σtrue之间的差值越大, 模型的边缘保持能力越差; 当且仅当σtest与σtrue相等时, 模型能够取得最佳的降噪效果, 复原图像的PSNR(Peak Signal to Noise Ratio)值为30.25 dB。因此, 在实际应用中, 采用一个预测准确性好且执行效率高的NLE算法作为FFDNet降噪模型的前置模块, 对于保障FFDNet模型的降噪效果十分重要。
![]() |
Download:
|
图 2 不同σtest值情况下FFDNet模型的降噪效果对比 Fig. 2 Comparison of denoising effect of FFDNet model under different σtest values |
对于一张原始无失真图像x, 受高斯噪声n污染后得到的噪声图像可以表示为y=x+n。由上文可知, 基于噪声图像y, 使用FFDNet深度卷积神经网络可获得估计无失真图像
为了避免直接使用深度FFDNet降噪模型来估计噪声水平值并实现一种准确而快速的图像噪声水平值估计模型, 本文提出利用人工神经网络技术预训练NLE的网络预测模型, 采用粗、精两阶段实现策略完成NLE任务。图 3所示为本文所提出的NLE模型的整体流程框图。为了获得较高的执行效率, 利用SCNN网络将噪声信号从噪声图像中分离出来获得NM映射图, 其中, SCNN网络是FFDNet降噪模型的浅层简化版本, 仅含有1层Conv+BN+ReLU结构。上述过程所获得的NM映射图的标准差σ即为初步估计的噪声水平值。由于SCNN网络所获得的NM映射图不够准确, 对应的标准差σ与噪声水平真实值σtrue之间存在一定差距, 不能直接作为噪声水平估计值
![]() |
Download:
|
图 3 本文NLE模型流程 Fig. 3 Procedure of NLE model in this paper |
本文所设计的SCNN网络模型由3层卷积层构成, 其中, 第1层为Conv+ReLU, 第2层为Conv+BN+ReLU, 第3层为Conv, 每一层的卷积核大小均为3×3×64。在最后一层卷积层输出NM映射图之后, 计算该NM映射图的标准差σ, 将其作为图像的噪声水平估计值σ。为训练基于浅层卷积神经网络的噪声分离模型, 从BSD数据库[17]中随机选取100张原始无失真图像, 并对这100张图像分别施加噪声水平值为1~100、步长为1的高斯噪声生成10 000张噪声图像, 然后将噪声图像减去对应的无失真图像得到相应的NM映射图, 以噪声图像集和残差图像集作为所构建网络模型的TP训练对进行训练。SCNN网络仅具有3层卷积层, 通过SCNN来完成噪声水平值估计任务时具有较高的执行效率, 但其噪声图像与噪声信号的分离精度低于DCNN网络, 导致SCNN所获得的NM映射图像的标准差只能作为噪声水平初步估计值σ使用。
为了分析SCNN浅层网络结构对噪声分离性能的影响, 分别使用1层Conv+BN+ReLU(即浅层结构, 记为layer=1)和15层Conv+BN+ReLU(即深层结构, 记为layer=15)来构建初步降噪网络。以大小为512像素×512像素、噪声水平为60的Lena噪声图像为例, 分别使用上述2种网络模型对噪声图像中的噪声进行分离, 得到NM映射图。将噪声图像减去降噪网络的输出(即残差图像)可获得降噪后的图像, 计算降噪后图像的PSNR值和相应的执行时间, 噪声分离以及降噪效果如图 4所示, 其中, Time为执行时间。从图 4可以看出, 使用上述2种网络结构所得到的降噪、噪声分离效果相差不大, 这意味着基于NM映射图像计算的标准差σ与噪声图像中噪声水平真值具有很高的一致性。然而, 深层模型的执行时间是浅层模型的5倍, 因此, 本文后续使用1层Conv+BN+ReLU网络来构建噪声分离网络模型。
![]() |
Download:
|
图 4 使用不同网络层数构建的初步降噪网络降噪效果对比 Fig. 4 Comparison of denoising effect of preliminary denoising network constructed with different network layers |
为验证σ与σtrue之间是否具有较高的相关性, 如图 5所示, 对Barbara、Boat、Cameraman、Couple、Hill、House、Lena、Man、Monarch和Peppers这10张常用测试图像, 分别施加噪声水平值为10、20、40、60、80和100的高斯噪声, 使用预先训练好的SCNN噪声分离模型获取对应的残差映射图, 计算每个残差映射图的标准差并作为噪声水平初步估计值σ。各噪声图像上的噪声水平真实值σtrue与相对应的噪声水平初步估计值σ之间的PLCC(Pearson Linear Correlation Coefficient)、SROCC(Spearman Rank-Order Correlation Coefficient)和KROCC(Kendall Rank-Order Correlation Coefficient)3种相关系数[18]如表 1所示。从表 1可以看出, 通过SCNN网络获得的噪声水平初步估计值σ与真实噪声水平值存在一定的差距, 总体上σ < σtrue, 且随着噪声水平值的增加, 噪声水平初估值与真实噪声水平值之间的差值也同步增加, 但是两者之间的PLCC系数值达到0.990 0以上, SROCC和KROCC系数值均为1.000 0。
![]() |
Download:
|
图 5 10张常用测试图像 Fig. 5 Ten common test images |
![]() |
下载CSV 表 1 单张图像噪声水平初步估计值与噪声水平真值之间的相关性 Table 1 Correlation between the initial estimated noise level and the true noise level of a single image |
在表 1中, 相关性系数均是在包括6个数据点的1张图像上获得的, 为了排除图像内容对相关性指标的影响, 选用BSD数据库[17]中不同于训练集的50张图像, 并对其施加噪声水平值为1~100、间隔为1的高斯噪声构成包含各种图像内容的测试集, 该测试集包含5 000个数据点, 在测试集上再次计算各噪声图像的噪声水平初步估计值σ与噪声水平真值之间的3种相关系数, 结果如表 2所示。从表 2可以看出, SROCC相关性指标值有所下降, 但是仍然达到了0.91以上, PLCC和KROCC指标值很高, 体现出σ与σtrue两者间的强相关性。由表 1、表 2可知, 噪声水平初步估计值σ与噪声水平真实值σtrue之间具有强相关性, 这意味着它们之间存在某种形式的非线性映射关系, 且不受图像内容的影响。因此, 可以考虑采用某种修正方法, 如训练某种非线性映射模型来对噪声水平初步估计值σ进行修正处理, 从而实现准确的噪声水平估计。
![]() |
下载CSV 表 2 多张不同噪声图像噪声水平初步估计值与噪声水平真值之间的相关性 Table 2 Correlation between the initial estimated noise level and the true noise level of multiple images with different noises |
表 1、表 2中的数据表明, 初步估计的噪声水平值σ与噪声水平真实值σtrue之间具有强相关性。因此, 可以利用非线性映射函数对σ值进行修正。为构建合适的映射函数, 对50张BSD图像分别施加噪声水平值为5、15、25、35、45、55、65和75的高斯噪声, 使用预先训练好的SCNN噪声分离模型获取对应的残差映射图, 计算每个残差映射图的标准差并作为噪声水平初步估计值, 再以噪声水平估计值σ作为输入, 对应的噪声水平真实值σtrue作为输出, 分别利用具有2层隐含层、每个隐含层的神经元个数为6的BP神经网络以及3种常规多项式拟合函数p(x)=p1xn+p2xn-1+…+pnx+pn+1, 在大量训练数据集合上学习σ与σtrue之间的非线性映射函数f, 并计算在各个噪声水平值下预测值与真值之间的均方根误差(Root Mean Squared Error, RMSE), 结果如表 3所示, 最优结果加粗表示。从表 3可以看出, 虽然BP神经网络的映射时间比多项式拟合函数长, 但在各个噪声水平值下使用BP神经网络所获得的均方根误差最小, 表明其修正效果最好。综合考虑执行时间和预测性能, 在图 3所示的第2阶段, 本文使用BP神经网络对噪声水平初步估计值进行修正。该模型训练完成后即可获得最终的噪声水平估计值
![]() |
下载CSV 表 3 50张BSD图像上噪声水平预测值与真值之间的均方根误差 Table 3 RMSE between predicted value and true value of noise level on 50 BSD images |
综上, 对于一张待降噪图像, 本文所提的NLE模型对其噪声水平值进行估计的整个执行过程, 只需依靠2个事先训练好的神经网络模型而没有繁琐的迭代过程, 执行效率高, 这使得其作为FFDNet的前置模型具有一定优势。
2.6 优势分析与其他NLE算法相比, 本文所提NLE模型优点如下:
1) 采用预训练的SCNN网络和BP神经网络粗、精相结合, 两阶段串行运行即可实现准确的噪声水平值估计, 没有过多迭代求解过程, 具有较高的执行效率。
2) 在模型训练完成后, 仅需利用训练得到的网络权重值就可直接将待降噪图像映射为残差映射图, 易于使用。
SCNN网络所获得的NM映射图像的精度虽然低于深度FFDNet降噪模型, 但是SCNN网络能够充分利用在大量训练图像集合上学习的先验知识, 捕获图像受噪声干扰后规律性的变化特点。因此, NM映射图像的标准差σ与噪声图像中噪声水平真值具有极高的相关性, 基于这一特性, 利用BP修正网络模型后可以快速、准确地获得最终的噪声水平估计值
为了评估本文所提NLE模型的性能, 将其与文献[11]算法、文献[19]算法、文献[9]算法、文献[20]算法、文献[13]算法和文献[14]算法共6种代表性NLE算法, 在预测准确性、实际应用效果和执行效率3个方面进行比较。测试图像集合是由BSD数据库[17]中的50张图像(不同于NLE模型训练时所使用的图像)构成的纹理图像集, 其中, 10张具有代表性的图像如图 6所示, 纹理图像集中的图像内容具有更为复杂的细节特征, 适用于测试算法的鲁棒性。所有实验均在统一的环境下完成, 硬件平台为CPU IntelⓇ CoreTM i7-6700 @ 3.40 GHz RAM 16 GB, 软件环境为Windows 10.0操作系统, 编程环境为Matlab R2017b。
![]() |
Download:
|
图 6 BSD数据库中的10张代表性图像 Fig. 6 Ten representative images in BSD database |
对BSD数据库中50张图像分别施加噪声水平值为5、15、25、35、45、55、65和75的高斯噪声, 然后利用各种对比算法对每张噪声图像的噪声水平值进行估计, 计算每个噪声级别下各个算法所获得的噪声水平估计值与真实值之间的均方根误差, 结果如表 4所示。从表 4可以看出, 本文NLE模型在所有噪声水平下的均方根误差均值最小, 且在各个噪声条件下获得的均方根误差值相差不大, 说明其预测准确性更为稳定, 且在处理复杂图像内容时具有较高的鲁棒性。
![]() |
下载CSV 表 4 50张BSD图像上各算法噪声水平预测值与真值之间的均方根误差 Table 4 RMSE between predicted value and true value of noise level of each algorithm on 50 BSD images |
为了验证本文所提NLE模型的实际应用效果, 将其与FFDNet降噪模型相结合, 构建BFFDNet模型, 使用噪声水平预测值完成盲降噪任务, 并与使用真实噪声水平值的FFDNet降噪模型在常用图像集和纹理图像集2个测试图像集合上进行对比实验。对2个测试图像集的图像依次施加噪声水平值为10、20、30、40、50和60的高斯噪声, 计算2个模型在每个噪声比例下复原所有图像获得的PSNR均值, 结果如表 5、表 6所示。从表 5、表 6可以看出, BFFDNet降噪模型的降噪效果总体上与FFDNet降噪模型相差不大, σtrue=10时差距较大, 但在视觉上效果差别较小, 当σtrue≥20时两者几乎没有区别, 从而有效地验证了本文NLE模型的预测准确性, 其估计值可以达到与真实噪声水平值相近的效果。
![]() |
下载CSV 表 5 FFDNet与BFFDNet降噪模型在常用图像集上的PSNR均值比较 Table 5 Comparison of PSNR mean values of FFDNet and BFFDNet denoising model on common image sets |
![]() |
下载CSV 表 6 FFDNet与BFFDNet降噪模型在纹理图像集上的PSNR均值比较 Table 6 Comparison of PSNR mean values of FFDNet and BFFDNet denoising model on texture image sets |
NLE算法作为多种非盲降噪算法的前置预处理模块, 其执行效率关系到图像降噪算法的整体性能。为了更全面地评估本文所提NLE模型的执行效率, 对大小为512像素×512像素的Lena图像施加噪声水平值为30的高斯噪声, 计算各个对比算法估计该图像噪声水平值时的执行时间, 结果如表 7所示。从表 7可以看出, 在所有对比NLE算法中, 本文NLE模型具有最少的执行时间, 其在预测准确性和执行效率2个方面的综合性能最佳, 且本文所构建的BFFDNet模型在单张Lena图像上的总执行时间为3.2 s, 其中, 噪声水平估计模块的执行时间为0.01 s, 几乎可以忽略不计, 表明FFDNet降噪模型与所提NLE模块相结合后只需花费很少的时间代价便可实现盲降噪, 且能获得较好的降噪效果, 具有很强的实用性。
![]() |
下载CSV 表 7 噪声水平值估计的执行时间比较 Table 7 Comparison of execution time of noise level estimation |
引入NLM映射图后的FFDNet仅需训练一个降噪模型即可对具有任意噪声水平值的噪声图像进行降噪, 但是其在实际应用中, 必须通过准确的噪声水平估计值构建NLM映射图后才能获得最佳降噪效果。为此, 本文建立一种基于神经网络的两阶段NLE模型, 并将其作为FFDNet降噪模型的前置模块, 从而构建BFFDNet盲降噪模型。实验结果表明, 该NLE模型具有较高的预测准确性和执行效率, BFFDNet盲降噪模型的降噪效果与原FFDNet降噪模型的最佳降噪效果相近, 验证了所提NLE模型的有效性。本文NLE模型除了可以与FFDNet降噪模型相结合外, 也可与多数非盲降噪算法兼容使用。下一步考虑将所提噪声水平估计模型中的浅层降噪网络和BP神经网络集成为一个网络, 进一步提高模型在训练和应用时的便捷性。
[1] |
LI Mengmeng, XIA Yang, LI Xinru, et al. Dynamic hybrid recommendation algorithm based on stacked denoising autoencoder[J]. Computer Engineering, 2019, 45(8): 184-189. (in Chinese) 李梦梦, 夏阳, 李心茹, 等. 基于栈式降噪自动编码器的动态混合推荐算法[J]. 计算机工程, 2019, 45(8): 184-189. |
[2] |
ZHANG Guoling, WANG Xiaodan, LI Rui, et al. Extreme learning machine based on stacked denoising sparse auto-encoder[J]. Computer Engineering, 2020, 46(9): 61-67. (in Chinese) 张国令, 王晓丹, 李睿, 等. 基于栈式降噪稀疏自编码器的极限学习机[J]. 计算机工程, 2020, 46(9): 61-67. |
[3] |
LV Xiaoqi, WU Liang, GU Yu, et al. Low dose CT lung denoising model based on deep convolution neural network[J]. Journal of Electronics and Information Technology, 2018, 40(6): 87-93. (in Chinese) 吕晓琪, 吴凉, 谷宇, 等. 基于深度卷积神经网络的低剂量CT肺部去噪[J]. 电子与信息学报, 2018, 40(6): 87-93. |
[4] |
ZHANG Kai, ZUO Wangmeng, GU Shuhang, et al.Learning deep CNN denoiser prior for image restoration[C]//Preceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2017: 2808-2817.
|
[5] |
ZHANG Kai, ZUO Wangmeng, CHEN Yunjin, et al. Beyond a Gaussian denoiser:residual learning of deep CNN for image denoising[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3142-3155. DOI:10.1109/TIP.2017.2662206 |
[6] |
LEFKIMMIATIS S.Universal denoising networks: a novel CNN architecture for image denoising[C]//Preceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2018: 145-168.
|
[7] |
ZHANG Kai, ZUO Wangmeng, ZHANG Lei. FFDNet:toward a fast and flexible solution for CNN based image denoising[J]. IEEE Transactions on Image Processing, 2018, 27(9): 4608-4622. DOI:10.1109/TIP.2018.2839891 |
[8] |
PYATYKH S, HESSER J, ZHENG L. Image noise level estimation by principal component analysis[J]. IEEE Transactions on Image Processing, 2013, 22(2): 687-699. |
[9] |
LIU X H, TANAKA M, OKUTOMI M. Single-image noise level estimation for blind denoising[J]. IEEE Transactions on Image Processing, 2013, 22(12): 5226-5237. DOI:10.1109/TIP.2013.2283400 |
[10] |
XU Shaoping, ZENG Xiaoxia, TANG Yiling. Fast noise level estimation algorithm based on two-stage support vector regression[J]. Journal of Computer-Aided Design and Computer Graphics, 2018, 30(3): 447-458. (in Chinese) 徐少平, 曾小霞, 唐祎玲. 基于两阶段支持向量回归的快速噪声水平估计算法[J]. 计算机辅助设计与图形学学报, 2018, 30(3): 447-458. |
[11] |
DANIEL Z, YAIR W.Scale invariance and noise in natural images[C]//Proceedings of 2009 IEEE International Conference on Computer Vision.Washington D.C., USA: IEEE Press, 2009: 2209-2216.
|
[12] |
DONG Li, ZHOU Jiantao, TANG Yuanyan. Noise level estimation for natural images based on scale-invariant kurtosis and piecewise stationarity[J]. IEEE Transactions on Image Processing, 2017, 26(2): 1017-1030. |
[13] |
GUPTA P, BAMPIS C G, JIN Y, et al.Natural scene statistics for noise estimation[C]//Proceedings of 2018 IEEE Southwest Symposium on Image Analysis and Interpretation.Washington D.C., USA: IEEE Press, 2018: 85-88.
|
[14] |
FANG Zhuang, YI Xuming.A novel natural image noise level estimation based on flat patches and local statistics[EB/OL].[2020-03-10].https://doi.org/10.1007/s11042-018-7137-4.
|
[15] |
RAWAT W, WANG Z H. Deep convolutional neural networks for image classification:a comprehensive review[J]. Neural Computation, 2017, 29(9): 2352-2449. DOI:10.1162/neco_a_00990 |
[16] |
IOFFE S, SZEGEDY C.Batch normalization: accelerating deep network training by reducing internal covariate shift[EB/OL].[2020-03-10].https://arxiv.org/abs/1502.03167.
|
[17] |
PABLO A, MICHAEL M, CHARLESS F, et al. Contour detection and hierarchical image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(5): 898-916. DOI:10.1109/TPAMI.2010.161 |
[18] |
ZHANG Lin, ZHANG Lei, MOU Xuanqin, et al.A comprehensive evaluation of full reference image quality assessment algorithms[C]//Proceedings of the 19th IEEE International Conference on Image Processing.Washington D.C., USA: IEEE Press, 2012: 1477-1480.
|
[19] |
YANG S M, TAI S C. Fast and reliable image-noise estimation using a hybrid approach[J]. Journal of Electronic Imaging, 2010, 19(3): 033007. DOI:10.1117/1.3476329 |
[20] |
CHEN G, ZHU F, HENG P A.An efficient statistical method for image noise level estimation[C]//Proceedings of IEEE International Conference on Computer Vision.Washington D.C., USA: IEEE Press, 2015: 477-485.
|