«上一篇 下一篇»
  计算机工程  2021, Vol. 47 Issue (3): 249-255  DOI: 10.19678/j.issn.1000-3428.0057168
0

引用本文  

姜玉宁, 李劲华, 赵俊莉. 基于生成式对抗网络的图像超分辨率重建算法[J]. 计算机工程, 2021, 47(3), 249-255. DOI: 10.19678/j.issn.1000-3428.0057168.
JIANG Yuning, LI Jinhua, ZHAO Junli. Image Super-Resolution Reconstruction Algorithm Based on Generative Adversarial Networks[J]. Computer Engineering, 2021, 47(3), 249-255. DOI: 10.19678/j.issn.1000-3428.0057168.

基金项目

国家自然科学基金(61702293);山东省重点研发计划重大科技创新工程项目(2019JZZY020101)

通信作者

李劲华(通信作者), 教授、博士

作者简介

姜玉宁(1993-), 女, 硕士研究生, 主研方向为计算机图形学、计算机视觉;
赵俊莉, 副教授、博士

文章历史

收稿日期:2020-01-10
修回日期:2020-02-24
基于生成式对抗网络的图像超分辨率重建算法
姜玉宁1 , 李劲华1,2 , 赵俊莉1     
1. 青岛大学 数据科学与软件工程学院, 山东 青岛 266071;
2. 青岛市船舶建造智能精度测量工程研究中心, 山东 青岛 266071
摘要:针对传统图像超分辨率重建算法存在网络训练困难与生成图像存在伪影的问题,提出一种利用生成式对抗网络的超分辨率重建算法。去除生成式对抗网络的批量归一化层降低计算复杂度,将其中的残差块替换为密集残差块构成生成网络,使用VGG19网络作为判别网络的基础框架,以全局平均池化代替全连接层防止过拟合,引入纹理损失函数、感知损失函数、对抗损失函数和内容损失函数构成生成器的总目标函数,利用纹理损失增强局部信息匹配度,采用激活层前的特征信息计算感知损失获取更多细节特征,使用WGAN-GP理论优化网络模型的对抗损失加速收敛,运用内容损失提升图像低频信息的准确性。实验结果表明,该算法重建图像的平均峰值信噪比为27.97 dB,平均结构相似性为0.777,与SRGAN和EDSR等算法相比,其在未延长较多运行时间的情况下,重建结果的纹理细节更清晰且亮度信息更准确,更符合视觉感官评价要求。
关键词超分辨率重建    生成式对抗网络    密集卷积网络    纹理损失    梯度惩罚Wasserstein生成式对抗网络    
Image Super-Resolution Reconstruction Algorithm Based on Generative Adversarial Networks
JIANG Yuning1 , LI Jinhua1,2 , ZHAO Junli1     
1. School of Data Science and Software Engineering, Qingdao University, Qingdao, Shandong 266071, China;
2. Qingdao Shipbuilding Intelligent Precision Measurement Engineering Research Center, Qingdao, Shandong 266071, China
Abstract: The existing image Super-Resolution (SR) reconstruction algorithms have difficulty in network training and cause artifacts in the generated images.To address the problem, this paper proposes a SR reconstruction algorithm based on Generative Adversarial Networks (GAN).The Batch Normalization(BN)layer of the Generative Adversarial Networks(SRGAN)is removed to reduce the computational complexity, and the Residual Block (RB) is replaced by Residual Dense Block (RDB) to form the generative network.VGG19 network is used as the basic framework of the discrimination network.The Global Average Pooling (GAP)is used to replace the full connection layer to prevent over fitting.Texture loss function, perceptual loss function, adversarial loss function and content loss function are introduced to form the overall objective function of the generator. Texture loss is used to enhance the matching degree of local information, and the feature information in front of the activation layer is used to calculate the perceptual loss to obtain more detailed features. Wasserstein Generative Adversarial Nets-Gradient Penalty(WGAN-GP) theory is used to optimize the adversarial loss of the network model to accelerate the convergence, and content loss is used to improve the accuracy of low-frequency information of the image.Experimental results show that the average Peak Signal to Noise Ratio (PSNR) of the image reconstructed by the proposed algorithm is 27.97 dB, and its average Structural Similarity(SSIM)is 0.777.Compared with SRGAN and EDSR algorithms, the proposed algorithm improves the texture details and brightness of the reconstructed image, making it more in line with the requirements of visual sensory evaluation without prolonging much running time.
Key words: Super-Resolution(SR) reconstruction    Generative Adversarial Networks(GAN)    Dense Convolutional Networks(DenseNet)    texture loss    Wasserstein Generative Adversarial Nets-Gradient Penalty (WGAN-GP)    
0 概述

单帧图像超分辨率(Single Image Super-Resolution,SISR)重建作为低层次计算机视觉处理任务,在军事、遥感、医学和视频监控等领域应用广泛。SISR的目标是从单幅低分辨率(Low Resolution,LR)图像中恢复出高分辨率(High Resolution,HR)图像,主要有基于插值的算法、基于重建的算法和基于学习的算法。基于插值的算法[1-3]是利用相邻像素点的信息预估HR图像像素值,其计算较简单,可在线性时间内生成图像的超分辨率(Super-Resolution,SR),但其未考虑整张图像的语义,导致生成的图像缺少原始图像高频细节信息且无法实现图像锐化,即使增加图像的像素点视觉效果也较模糊,存在严重的失真现象。基于重建的算法是在LR图像与HR图像之间引入图像先验或约束条件,利用样本信息计算得到真实数据的分布情况。基于重建的算法包括凸集投影法[4]、迭代反投影法[5]和最大后验概率估计法[6],该算法由于受计算资源和先验条件约束,因此无法生成高质量图像。

近年来,基于深度学习的算法相继出现。文献[7]采用SRCNN方法将卷积神经网络(Convolutional Neural Networks,CNN)应用于SISR重建,随后多种基于CNN的网络架构设计[8-9]和训练策略[10-11]被提出,然而这些方法均倾向于输出过度平滑且高频细节缺失的结果。针对该问题,文献[12]提出在特征空间而非像素空间计算的感知损失优化超分辨率模型,有效避免了输出过度平滑与高频细节缺失问题。文献[9, 13]将生成式对抗网络(Generative Adversarial Networks,GAN)[14]引入超分辨率重建任务,以促使网络生成更真实自然的图像。文献[15]在超分辨率生成式对抗网络(Super-Resolution Generative Adversarial Networks,SRGAN)结构的基础上使用去除批量归一化(Batch Normalization,BN)层的残差块(Residual Block,RB)并提出增强深度残差网络,获得更丰富的高频细节信息。文献[16]以残差密集块(Residual Dense Block,RDB)作为生成网络的主体,虽然可提升图像重建效果,但图像伪影较多。

为提高图像重建质量,本文提出一种纹理增强的生成式对抗网络超分辨率(Texture Enhanced Super-Resolution Generative Adversarial Networks,TESRGAN)重建算法。使用去除批量归一化层的残差密集块构成生成网络,以VGG19网络作为判别网络的基本框架,在加强前向特征复用、减少参数量的同时控制生成图像的训练方向,融合纹理损失函数、感知损失函数、对抗损失函数和内容损失函数构成生成器的目标函数,并在Set5、Set14和BSD100数据集上重建图像。

1 相关理论 1.1 生成式对抗网络

GAN是一种通过对抗过程估计深度学习中生成模型的新框架,其结构如图 1所示,主要包括生成器G和判别器D。GAN的基本思想是零和博弈论,其采取对抗学习的方式训练和优化模型达到纳什平衡[17],估测数据样本的潜在分布并生成新的数据样本目标。GAN的生成器和判别器用任意可微分的函数表示,分别以随机变量z和真实数据x作为输入。Gz)表示由生成器生成的服从真实样本分布pdata的数据。判别器D可视为二分类器,如果判别器D的输入为真实数据,则其输出1,否则其输出0。生成器G的目标是迷惑判别器D使其对生成器G输出的评价结果接近1。生成器G与判别器D相互对抗迭代优化,直到判别器D无法区分输入样本是来自生成器G还是来自pdata,此时可认为已获得目标生成器G

Download:
图 1 GAN结构 Fig. 1 GAN structure

GAN目标函数的表达式为:

$\begin{aligned} \min\limits_{G} \max\limits_{D} V(D, G)=& E_{x \sim p_{\text {data }}}(x)[\lg D(x)]+\\ & E_{z \sim p_{z}(z)}(z)[\lg (1-D(G(z)))] \end{aligned}$ (1)

生成器G要最小化目标函数以生成能更好地迷惑判别器D的样本数据,而判别器D要最大化目标函数,使判别器D能更好地分辨样本数据的真伪。

1.2 密集卷积网络

在深度学习网络中,梯度消失和梯度弥散问题常随网络层数的增加而加重。针对该问题,ResNets[18]、Highway Networks[19]和Stochastic depth[20]等网络应运而生。虽然这些网络的结构与训练过程不同,但其关键点都在于创建了从前期特征层到后期特征层的短路径。为保证不同特征层之间信息流的最大程度传递,文献[21]提出一种密集卷积网络(Dense Convolutional Networks,DenseNet)。DenseNet的每一层均从其所有前馈层中获得额外的特征输入,并将其自身的特征图传到后续所有层中进行有效训练。假设DenseNet有L层,则其中有(L+1)/2个连接,而L层的传统神经网络有L个连接。因此,DenseNet是一种更深层和有效的卷积网络,其密集连接机制如图 2所示(其中C表示级连接操作)。该网络可显著缓解梯度消失问题,其增强特征传播、鼓励特征复用的结构设计可大幅减少参数量。目前DenseNet已广泛应用于图像分类[21]、语义切割[22]和语音识别[23]等领域。

Download:
图 2 DenseNet的密集连接机制 Fig. 2 Dense connection mechanism of DenseNet
1.3 WGAN-GP

为解决GAN训练不稳定与网络易崩溃的问题,文献[24]提出Wasserstein生成式对抗网络(Wasserstein Generative Adversarial Networks,WGAN),用Wasserstein距离代替JS散度来度量真实样本和生成样本之间的距离,无需平衡生成器与判别器的训练程度并可确保生成样本的多样性。但WGAN采取的权重剪枝策略会导致参数集中化以及调参时梯度爆炸与梯度消失问题。为此,文献[25]在WGAN基础上提出梯度惩罚Wasserstein生成式对抗网络(Wasserstein Generative Adversarial Nets - Gradient Penalty,WGAN-GP),进一步改进网络的目标函数并惩罚判别器对输入的梯度,其性能优于WGAN。WGAN-GP可稳定训练针对图像生成和语言模型的GAN架构,不需调整超参数,并能以更快的收敛速度生成比WGAN质量更高的样本。WGAN-GP未改变GAN结构,仅从目标函数的表达式及优化方法的选择上对WGAN进行改进。

2 TESRGAN算法

本文提出的TESRGAN算法以生成式对抗网络为框架,主要包括生成网络和判别网络,TESRGAN算法结构如图 3所示。生成网络的输入是LR图像,经卷积提取特征后输入残差模型进行非线性映射,再通过上采样层和卷积层重建图像后输出生成的HR图像,并将其与真实HR图像输入判别网络,经由卷积(Conv)层、LeakyReLU函数和BN层构成的特征提取模块以及由全局平均池化(Global Average Pooling,GAP)操作、LeakyReLU函数、全连接层(Dense(1))与Sigmoid函数构成的线性分类模块处理后,可判别输入样本的真假。

Download:
图 3 TESRGAN算法结构 Fig. 3 Structure of TESRGAN algorithm
2.1 网络结构 2.1.1 生成网络

网络的BN层在训练期间易引入伪影并限制泛化能力,去除BN层可降低网络的计算复杂性,并提高网络在超分辨率任务[15]和去模糊任务[26]上的重建性能。为提高图像重建质量,本文提出的TESRGAN在SRGAN生成网络的结构上进行改进,移除SRGAN中所有BN层,用LeakyReLU函数代替ReLU函数作为网络的非线性激活函数以避免梯度消失,LeakyReLU函数的计算公式如下:

$y=\max (0, x)+a \times \min (0, x)$ (2)

其中,x为输入,y为输出,a为范围为(0,1)的实数。

由于深层次网络与多级连接可提高网络性能[23, 27-28],因此本文使用残差密集块代替SRGAN的残差块构成生成网络基本单元。残差密集块比残差块结构更深且更复杂,其兼具残差网络与密集连接的优势,能在增加网络深度的同时提升图像特征信息利用率,最终提高重建图像的质量,残差块和残差密集块的结构如图 4所示。本文TESRGAN算法的生成网络为包含36个残差块的深层网络,因此其具有更大的容量和更强的语义信息捕捉能力,能减少重建图像的噪音,生成具有真实精细纹理的图像。

Download:
图 4 残差块和残差密集块的结构 Fig. 4 Structure of residual block and residual dense block
2.1.2 判别网络

TESRGAN算法的判别网络以经典的VGG19网络为基础架构,包括特征提取模块和线性分类模块。特征提取模块共有16个卷积层,在每个卷积层后使用LeakyReLU作为激活函数。为避免梯度消失并增强网络稳定性,特征提取模块中除了首个卷积层之外,其他每个卷积层后均设置BN层。判别网络需对输入的样本图像进行真假判断。为避免网络训练速度过慢与增大过拟合风险,本文使用全局平均池化[29]操作代替全连接层,计算特征提取模块中每层特征图的像素平均值,并对其进行线性融合后输入Sigmoid激活函数,最终网络输出判别器对输入样本图像的分类结果。判别网络的训练有助于生成网络重建出更接近真实图像的高分辨率图像。

2.2 损失函数

损失函数是影响图像重建质量的重要因素。为恢复图像高频信息,提升图像直观视觉体验,本文采用调整的感知损失函数Lper、纹理损失函数Ltex、内容损失函数Lcon以及对抗损失函数Ladv的加权值作为训练生成网络的目标函数LG,并在优化过程中分别从高频、低频两个角度完成目标图像重建,损失函数表达式如下:

$L_{G}=L_{\mathrm{per}}+L_{\mathrm{tex}}+\lambda L_{\mathrm{adv}}+\eta L_{\mathrm{con}}$ (3)

其中,λη为损失函数的平衡系数。

1)内容损失

为保证重建图像与低分辨率图像之间低频信息的一致性,本文采用均方误差(Mean Squared Error,MSE)损失函数作为网络的内容损失函数,用于优化生成的HR图像与真实HR图像对应像素之间的平方差,缩小像素之间的差值能有效保证重建图像信息的准确性,从而使重建图像获得较高的峰值信噪比。内容损失函数的计算公式为:

$L_{\mathrm{con}}=L_{\mathrm{MSE}}(\theta)=\frac{1}{N} \sum\limits_{i=1}^{N}\left\|I_{i}^{H}-G\left(I_{i}^{L}, \theta\right)\right\|^{2}$ (4)

其中,IiH为真实HR图像,IiL为LR图像,N为训练样本的数量,G(x, θ)为生成网络学习到的LR图像和HR图像之间的映射函数。

2)对抗损失

基于生成网络和判别网络的对抗博弈机制,生成网络输出一张HR图像后利用判别网络可得到该图像真假概率。为使重建图像通过判别器D甄别的概率最大化,本文采用WGAN-GP的对抗损失函数替代GAN的对抗损失函数以惩罚判别器D对输入的梯度,对抗损失函数的计算公式为:

$L_{\mathrm{adv}}=E_{x \sim p_{G}}[D(x)]-E_{x \sim p_{\mathrm{data}}}[D(x)]+ \\\lambda E_{x \sim \mathrm{penalty}}\left[\left(\| \nabla_{x} D(x)||-1\right)^{2}\right]$ (5)

优化后的对抗损失函数可稳定训练针对图像生成和语言模型的GAN,无需调整超参数,能以更快的收敛速度生成质量更高的样本。

3)感知损失

为获得亮度信息准确与纹理逼真的图像,本文设置基于VGG网络的感知损失函数Lper,使用激活前的特征层信息进行计算,在预训练深度网络激活层上定义Lper以最小化两个激活特征之间的距离,感知损失函数的计算公式为:

$L_{\mathrm{per}}=\frac{1}{W_{i j} H_{i j}} \sum\limits_{x=1}^{W_{i j}} \sum\limits_{y=1}^{H_{i j}}\left(\phi^{i j}\left(I^{\mathrm{HR}}\right)_{x, y}-\phi^{i j}\left(G\left(I^{\mathrm{LR}}\right)\right)_{x, y}\right)^{2}$ (6)

其中,WijHij为VGG网络中特征图的维度,ϕij为VGG网络中第j次卷积后第i次最大池化操作前得到的特征图。感知损失函数Lper改进了原始设计的不足:(1)对深层次网络,激活后的特征会很稀疏,而稀疏特征只能提供弱监督造成图像质量低劣;(2)使用激活后的特征层信息导致重建图像的亮度与真实HR图像不一致。

4)纹理损失

感知损失虽然能整体提升重建图像的质量,但会引入多余的高频结构,本文采用文献[13]提出的纹理损失函数构成生成器总损失函数。纹理损失函数Ltex可促进纹理信息进行局部匹配,分别提取生成网络和判别网络卷积中间层输出的特征映射图并计算相应的Gram矩阵,利用得到的中间层Gram矩阵值和损失函数L2计算网络的纹理损失函数,其计算公式为:

$L_{\mathrm{tex}}=\| \boldsymbol{G}\left(\phi\left(I^{\mathrm{gen}}\right)-\boldsymbol{G}\left(\phi\left(I^{\mathrm{HR}}\right)\right) \|_{2^{\prime}}^{2}\right.$ (7)

其中,G为Gram矩阵,G(F)=FFT。纹理损失函数为减少图像伪影以及产生更逼真的纹理提供了有效监督。

3 实验与结果分析 3.1 实验准备

本文通过图像重建实验对TESRGAN算法进行验证。实验环境为NVIDIA显卡GeForceMX150、Intel® CoreTM i7-8550U CPU @ 2.00 GHz、8 GB RAM,编译软件为Pycharm 2017和MATLAB 2018a。实验采用DIV2K数据集对网络进行训练,该数据集有1 000张RGB图像,分别取其中的800张、100张和100张图像作为训练集、验证集与测试集,通过将图像随机水平翻转和垂直旋转对训练集进行扩展。在常用的基准数据集Set5、Set14以及BSD100上进行测试实验,HR图像与LR图像之间的下采样因子为4,HR图像被裁切为128像素×128像素的图像块,输入批量大小设置为16。

实验训练过程如下:先训练以损失L1为目标函数的生成网络,以此网络作为生成器G的初始化设置,使用损失函数LG训练生成器G,其中λ=5.0×10-3η=1.0×10-2,初始学习率为1.0×10-4。训练过程中使用Adam算法进行优化,交替更新生成网络和判别网络直到网络模型收敛。此外,为保证深层次网络的稳定训练,在TESRGAN算法中采用残差缩放策略通过乘以常数β∈(0,1)来缩小残差(本文中β=0.2),再将其添加到主路径,以防止训练过程不稳定并修正错误的初始化参数,从而避免因初始参数设置不合理造成网络输入信号的错误被放大的可能性。

为准确评价图像质量并证明TESRGAN算法的有效性,本文采用峰值信噪比(Peak Signal to Noise Ratio,PSNR)和结构相似性(Structural Similarity,SSIM)作为图像质量评价指标。PSNR从像素点差异衡量图像的失真度,SSIM从亮度、对比度和结构衡量图像的相似度。若PSNR值与SSIM值越大,则表示图像重建结果越接近原始高分辨率图像,其计算公式如下:

$\operatorname{PSNR}=10 \times \lg \frac{255^{2} \times W \times H \times C}{\sum\limits_{i=1}^{W} \sum\limits_{j=1}^{H} \sum\limits_{z=1}^{C}[\bar{x}(i, j)-x(i, j)]^{2}+1.0 \times 10^{-9}}$ (8)
$\operatorname{SSIM}(X, Y)=\frac{\left(2 \mu_{X} \mu_{Y}+C_{1}\right)\left(2 \sigma_{X Y}+C_{2}\right)}{\left(\mu_{X}^{2}+\mu_{Y}^{2}+C_{1}\right)\left(\sigma_{X}^{2}+\sigma_{Y}^{2}+C_{2}\right)}$ (9)
3.2 结果分析 3.2.1 客观效果

本文在Set5数据集和Set14数据集上进行超分辨率实验,对比分析引入RDB结构、纹理损失函数Ltex和改进对抗损失函数Ladv、感知损失函数Lper对图像超分辨率重建算法性能的影响。表 1为不同条件下图像超分辨率重建算法在Set5和Set14数据集上的PSNR,可以看出上述措施均可提高算法的超分辨率重建性能,且4种措施联合使用时效果最佳。

下载CSV 表 1 不同条件下图像超分辨率重建算法在Set5和Set14数据集上的PSNR Table 1 PSNR of image super-resolution reconstruction algorithm on Set5 and Set14 datasets under different conditions 

将本文TESRGAN算法与Bicubic[2]、SRGAN[9]、EDSR[15]以及ESRGAN[16]等算法在Set5数据集、Set14数据集和BSD100数据集上的图像重建结果进行对比,结果如表 2所示。可以看出,TESRGAN算法在上述3个数据集上的PSNR值均高于其他算法,其SSIM值除了在Set14数据集上略低于ESRGAN算法外,在其他两个数据集上均高于对比算法。

下载CSV 表 2 5种算法在Set5、Set14和BSD100数据集上的图像重建结果 Table 2 Image reconstruction results of five algorithms on Set5, Set14 and BSD100 datasets

上述5种算法在Set5数据集、Set14数据集和BSD100数据集上的运行时间如表 3所示。可以看出:Bicubic算法因仅有插值操作而耗时最短,其他算法含有大量卷积层造成网络训练速度较慢,其中SRGAN算法因网络结构中未去除BN层导致重建速度最慢;TESRGAN算法因引入深层次网络与纹理损失函数的计算,速度略慢于EDSR算法和ESRGAN算法。结合表 2表 3可知,TESRGAN算法在未延长较多运行时间的情况下,其PSNR值和SSIM值较其他算法更高,表明本文算法具有更好的图像重建效果。

下载CSV 表 3 5种算法在Set5、Set14和BSD100数据集上的运行时间 Table 3 Running time of five algorithms on Set5, Set14 and BSD100 datasets 
3.2.2 主观效果

从Set5数据集和Set14数据集中各选取一张图像,将上述5种算法的图像重建效果进行对比,结果分别如图 5图 6所示。可以看出:Bicubic算法的重建细节信息太少,生成的图像很模糊;SRGAN算法和EDSR算法虽然恢复了部分高频信息,但图像边缘锐化效果较差;ESRGAN算法重建图像整体效果较好,却引入伪影和噪音信息;TESRGAN算法的重建效果在锐度和细节方面均优于其他算法。由图 5中放大的细节可以看出,TESRGAN算法图像重建后得到的帽子纹理更清晰。由图 6中放大的细节可以看出TESRGAN算法得到的图像纹理细节更清晰且亮度信息更准确。

Download:
图 5 不同算法在Set5数据集上的图像重建效果 Fig. 5 Image reconstruction effect of different algorithms on Set5 dataset
Download:
图 6 不同算法在Set14数据集上的图像重建效果 Fig. 6 Image reconstruction effect of different algorithms on Set14 dataset
4 结束语

本文在生成式对抗网络的基础上,提出一种图像超分辨率重建算法。通过去除批量归一化层并引入残差密集块增加生成网络深度,根据WGAN-GP理论改进对抗损失加快网络模型收敛,使用激活前的特征计算感知损失并引入纹理损失,以提高图像局部纹理细节匹配度。实验结果表明,与SRGAN和EDSR等算法相比,该算法在未延长较多运行时间的情况下,重建结果的纹理细节更清晰且亮度信息更准确。后续将针对特定领域与场景的图像进行超分辨率重建,进一步提升重建质量。

参考文献
[1]
KEYS R. Cubic convolution interpolation for digital image processing[J]. IEEE Transactions on Acoustics, Speech, and Signal Processing, 1981, 29(6): 1153-1160. DOI:10.1109/TASSP.1981.1163711
[2]
ZHANG Lei, WU Xiaolin. An edge-guided image interpolation algorithm via directional filtering and data fusion[J]. IEEE Transactions on Image Processing, 2006, 15(8): 2226-2238. DOI:10.1109/TIP.2006.877407
[3]
FATTAL R. Image upsampling via imposed edge statistics[J]. ACM Transactions on Graphics, 2007, 26(3): 95-103. DOI:10.1145/1276377.1276496
[4]
JUNG S W, KIM T H, KO S J. A novel multiple image deblurring technique using fuzzy projection onto convex sets[J]. IEEE Signal Processing Letters, 2009, 16(3): 192-195. DOI:10.1109/LSP.2008.2012227
[5]
NAYAK R, HARSHAVARDHAN S, PATRA D.Morphology based iterative back-projection for super-resolution reconstruction of image[C]//Proceedings of the 2nd International Conference on Emerging Technology Trends in Electronics, Communication and Networking.Washington D.C., USA: IEEE Press, 2014: 1-6.
[6]
SUN Dong, GAO Qingwei, LU Yixiang, et al. A novel image denoising algorithm using linear Bayesian MAP estimation based on sparse representation[J]. Signal Processing, 2014, 100(7): 132-145.
[7]
DONG C, LOY C C, HE K M, et al. Image super-resolution using deep convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2): 295-307. DOI:10.1109/TPAMI.2015.2439281
[8]
KIM J, LEE J K, LEE K M.Accurate image super-resolution using very deep convolutional networks[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2016: 1646-1654.
[9]
LEDIG C, THEIS L, HUSZAR F, et al.Photo-realistic single image super-resolution using a generative adversarial network[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2017: 4681-4690.
[10]
LAI W S, HUANG J B, AHUJA N, et al.Deep laplacian pyramid networks for fast and accurate super-resolution[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2017: 624-632.
[11]
TAI Ying, YANG Jian, LIU Xiaoming.Image super-resolution via deep recursive residual network[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2017: 3147-3155.
[12]
JOHNSON J, ALAHI A, LI F F.Perceptual losses for real-time style transfer and super-resolution[C]//Proceedings of ECCV'16.Berlin, Germany: Springer, 2016: 694-711.
[13]
SAJJADI M S M, SCHOLKOPF B, HIRSCH M.EnhanceNet: single image super-resolution through automated texture synthesis[C]//Proceedings of 2017 IEEE International Conference on Computer Vision.Washington D.C., USA: IEEE Press, 2017: 4491-4500.
[14]
GOODFELLOW I, ABADIE J P, MIRZA M, et al.Generative adversarial nets[EB/OL].[2019-11-25].https://www.researchgate.net/publication/319770355_Generative_Adversarial_Nets.
[15]
LIM B, SON S, KIM H, et al.Enhanced deep residual networks for single image super-resolution[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops.Washington D.C., USA: IEEE Press, 2017: 136-144.
[16]
WANG Xintao, YU Ke, WU Shixiang, et al.ESRGAN: enhanced super-resolution generative adversarial net-works[C]//Proceedings of 2019 European Conference on Computer Vision.Berlin, Germany: Springer, 2019: 63-79.
[17]
RATLIFF L J, BURDEN S A, SASTRY S S.Characterization and computation of local Nash equilibria in continuous games[C]//Proceedings of 2013 Annual Allerton Conference on Communication.Washington D.C., USA: IEEE Press, 2013: 917-924.
[18]
HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al.Identity mappings in deep residual networks[C]//Proceedings of ECCV'16.Berlin, Germany: Springer, 2016: 630-645.
[19]
SRIVASTAVA R K, GREFF K, SCHMIDHUBER J.Training very deep networks[EB/OL].[2019-11-25].https://www.researchgate.net/publication/280329704_Training_Very_Deep_Networks.
[20]
HUANG Gao, SUN Yu, LIU Zhuang, et al.Deep networks with stochastic depth[C]//Proceedings of ECCV'16.Berlin, Germany: Springer, 2016: 646-661.
[21]
HUANG G, LIU Z, LAURENS V D M, et al.Densely connected convolutional networks[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2017: 4700-4708.
[22]
JEGOU S, DROZDZAL M, VAZQUEZ D, et al.The one hundred layers Tiramisu: fully convolutional DenseNets for semantic segmentation[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops.Washington D.C., USA: IEEE Press, 2017: 11-19.
[23]
PARK S, JEONG Y, KIM H S. Multi-resolution DenseNet based acoustic models for reverberant speech recognition[J]. Phonetics and Speech Sciences, 2018, 10(1): 33-38. DOI:10.13064/KSSS.2018.10.1.033
[24]
[25]
GULRAJANI I, AHMED F, ARJOVSKY M, et al.Improved training of Wasserstein GANs[EB/OL].[2019-11-25].https://www.researchgate.net/publication/315765101_Improved_Training_of_Wasserstein_GANs.
[26]
NAH S, KIM T H, LEE K M.Deep multi-scale convolu-tional neural network for dynamic scene deblurring[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2017: 3883-3891.
[27]
ZHANG Yulun, TIAN Yapeng, KONG Yu, et al.Residual dense network for image super-resolution[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2018: 2472-2481.
[28]
ZHANG Yulun, LI Kunpeng, LI Kai, et al.Image super-resolution using very deep residual channel attention networks[C]//Proceedings of ECCV'18.Berlin, Germany: Springer, 2018: 294-310.
[29]
SZEGEDY C, LIU W, JIA Y Q, et al.Going deeper with convolutions[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2015: 1-9.