«上一篇 下一篇»
  计算机工程  2021, Vol. 47 Issue (4): 306-312  DOI: 10.19678/j.issn.1000-3428.0057713
0

引用本文  

庞杰, 张华, 冯春成, 等. 基于可分离残差卷积与语义补偿的U-Net坝面裂缝分割[J]. 计算机工程, 2021, 47(4), 306-312. DOI: 10.19678/j.issn.1000-3428.0057713.
PANG Jie, ZHANG Hua, FENG Chuncheng, et al. U-Net-based Segmentation of Crack on Dam Surface Using Separable Residual Convolution and Semantic Compensation[J]. Computer Engineering, 2021, 47(4), 306-312. DOI: 10.19678/j.issn.1000-3428.0057713.

基金项目

国家“十三五”核能开发科研项目(20161295);四川省科技计划(2018JZ0001,2019YFG0144);中国大唐集团公司科技项目(CDT-TZK/SYD[2018]-010)

作者简介

庞杰(1995-), 男, 硕士研究生, 主研方向为建筑物表面图像处理;
张华, 教授、博士、博士生导师;
冯春成, 博士研究生;
李林静, 硕士研究生

文章历史

收稿日期:2020-03-13
修回日期:2020-04-15
基于可分离残差卷积与语义补偿的U-Net坝面裂缝分割
庞杰1,2 , 张华1,2,3 , 冯春成1,2,3 , 李林静1,2     
1. 特殊环境机器人技术四川省重点实验室, 四川 绵阳 621000;
2. 西南科技大学 信息工程学院, 四川 绵阳 621000;
3. 清华四川能源互联网研究院, 成都 610213
摘要:坝面缺陷检测是水利枢纽安全巡检的关键环节,但复杂环境下坝面图像存在干扰噪声大和像素不均衡等问题,造成坝面裂缝难以精细分割。提出一种利用可分离残差卷积和语义补偿的U-Net裂缝分割方法。在U-Net网络的编码端构建更大尺寸的可分离残差卷积模块替换常规卷积模块,从而扩大特征层感受野并避免丢失裂缝边界信息,同时在解码端增加语义特征补偿模块改善多尺度特征融合效果,将焦点损失函数和中心损失函数作为目标函数,加大裂缝前景与困难样本的损失权重以提高分类准确度。在自制西南某水电站坝面裂缝数据集上的实验结果表明,该方法的F1值和交并比分别达到69.89%与53.72%,分割效果较SegNet、FCN-8S等传统方法更优,对细小裂缝区域的识别能力更强。
关键词坝面裂缝    可分离残差卷积    语义补偿    焦点损失    中心损失    
U-Net-based Segmentation of Crack on Dam Surface Using Separable Residual Convolution and Semantic Compensation
PANG Jie1,2 , ZHANG Hua1,2,3 , FENG Chuncheng1,2,3 , LI Linjing1,2     
1. Special Environment Robot Technology Key Laboratory of Sichuan Province, Mianyang, Sichuan 621000, China;
2. School of Information Engineering, Southwest University of Science and Technology, Mianyang, Sichuan 621000, China;
3. Tsinghua Sichuan Energy Internet Research Institute, Chengdu 610213, China
Abstract: Detection of defects on dam surface is a key part in safety inspection for water conservancy projects.However, dam surface images under complex environment are faced with large interference noise and unbalanced pixels, making it difficult to segment cracks on dam surface accurately.This paper proposes a U-Net-based method for crack segmentation using separable residual convolution and semantic compensation.At the coding end of U-Net, a larger separable residual convolution module is constructed to replace the conventional convolution module, so as to expand the receptive field of feature layer and avoid losing the crack boundary information.At the same time, at the decoding end, a semantic feature compensation module is added to improve the effect of multi-scale feature fusion.Take the focal loss function and center loss function as the objective function, the loss weights of crack foreground and difficult samples are increased to improve the accuracy of classification.Experimental results on a self-made dam surface crack dataset of a hydropower station in Southwest China show that the F1 value and Intersection over Union(IoU) of the proposed method reach 69.89% and 53.72% respectively.The segmentation effect of this method is better than that of the traditional methods such as SegNet and FCN-8S, and it has better performance in small crack recognition.
Key words: crack on dam surface    separable residual convolution    semantic compensation    focal loss    center loss    
0 概述

水利枢纽是修建于河道中多类水工建筑物的综合体,其具有防洪、供水、发电和航运等功能,在保障与促进社会经济发展中起到重要作用[1-2]。受工程建设水平和所在地的地质、水文以及气象等因素影响,水利枢纽中混凝土坝面易形成裂缝、脱落等缺陷[3]。通常采用缺陷检测技术分析坝面缺陷,在此基础上对水利枢纽进行维护,以确保其处于良好的工作状态。因此,坝面缺陷检测对溃坝防范和防震减灾具有重要意义[4]

目前水利枢纽的坝面缺陷检测以人工巡检为主,存在耗时长、危险性大和成本高等问题。随着人工智能技术的不断发展,自动化水平较高的巡检设备及安全评估系统[5]成为未来水利枢纽维护系统发展的必然趋势。近年来,随着以卷积神经网络(Convolutional Neural Network,CNN)为代表的深度学习技术的迅速发展,基于计算机视觉的分类、检测和分割方法应用日益广泛[6]。针对建筑物表面缺陷检测,文献[7]提出一种基于深度卷积网络的道路裂缝分类方法,对分辨率为99像素×99像素的彩色图像进行准确分类。文献[8]使用基于Faster-RCNN的缺陷检测方法,实现对混凝土裂缝、钢筋腐蚀面以及螺栓腐蚀面的分层检测与分类。文献[9]利用全卷积网络(Fully Convolutional Network,FCN)在彩色图像上分割出裂缝缺陷,获得精确的裂缝路径和形态信息。与传统分割算法相比,卷积神经网络能自动提取与任务相关的鲁棒特征,实现端到端的自动缺陷检测。

水利枢纽的混凝土坝面由于长期被水冲刷渗蚀,其图像数据存在严重的亮度不均衡、相似干扰噪声大、背景复杂以及裂缝前景与背景在像素数量上不均衡等问题,造成坝面裂缝分割较困难。由于U-Net[10]网络具有的对称式编解码结构可融合卷积网络低维和高维特征,保证输入和输出分辨率一致,具有较高分割精度,因此本文将U-Net网络应用于水利枢纽的混凝土坝面裂缝图像分割,并根据坝面图像特点对其进行改进,提出一种基于可分离残差卷积和语义补偿的裂缝分割方法。在U-Net网络的编码端构建大尺寸卷积核的可分离残差模块增大特征层感受野,在解码端设计语义补偿模块弥补不同层级特征的语义差异,使用焦点损失作为类间损失,增大裂缝前景的损失权重并提高对困难样本的注意力,同时增加中心损失缩小类内特征间距,以提高网络对像素的分类准确度。

1 坝面裂缝分割方法

本文提出的坝面裂缝分割方法在U-Net网络基础上进行改进,改进后的U-Net网络结构如图 1所示。该网络由全卷积网络构建的编码和解码两部分组成。编码部分利用1个传统的初始卷积模块和4个可分离残差卷积模块逐级对前一层输出进行卷积处理,每个卷积模块由多个卷积(Conv)层组成,每个卷积层包含卷积核、批归一化(Batch Normalization,BN)层及ReLU激活函数,通过最大值池化生成5层不同尺度的语义特征。解码部分先利用语义补偿模块对每层特征进行补偿,再逐级与反卷积扩大尺寸后的输出特征进行拼接,并通过传统卷积模块得到后续输出,最终利用Sigmoid函数得到与输入图像分辨率一致的像素级裂缝类别概率图。

Download:
图 1 改进U-Net网络结构 Fig. 1 Structure of improved U-Net network
1.1 可分离残差卷积模块

增加特征提取骨干网络层数、设置适当大小感受野的卷积核以及减少网络参数量与复杂度,在不降低网络效率的同时可更有效地提取特征[11]。本文基于空间可分离卷积[12]思想,在编码端设计一种感受野大小为7$ \times $7的可分离残差卷积模块替换传统2层3$ \times $3卷积核的卷积模块,在扩大感受野的同时减少计算量,如图 2所示。利用残差结构[13]将卷积前底层边缘特征与卷积后高层语义特征相结合,可降低卷积层中零填充操作引入的边缘噪声干扰。

Download:
图 2 传统卷积模块和可分离残差卷积模块结构 Fig. 2 Structures of traditional convolutional module and separable residual convolutional module

图 2中,输出卷积核通道数为N,输入特征通道数为N/2,可分离残差卷积模块与传统卷积模块的感受野相同。每个卷积层参数量的计算公式为:

$ H=\frac{1}{2}{k}_{\mathrm{w}}{k}_{\mathrm{h}}{N}^{2}+N $ (1)

其中,$ {k}_{\mathrm{w}} $$ {k}_{\mathrm{h}} $为卷积核尺寸。传统卷积模块和可分离残差卷积模块结构的参数量分别为$ 3N+13.5{N}^{2} $$ 4N+8{N}^{2} $,U-Net网络原有的2层卷积模块参数量为$ 2N+9{N}^{2} $。由此可见,可分离残差卷积模块参数量更少,其具有更多卷积和激活等非线性操作,能赋予编码端特征提取网络更好的非线性能力。

1.2 语义补偿模块

U-Net网络在解码过程中可实现多尺度特征相互融合,并将深层语义特征与浅层细节特征相结合。然而不同尺度的特征在经过多次卷积池化操作后,会有一定语义与细节特征差异,且层级差异较大的特征层之间特征差异更大,若直接进行特征拼接则会限制最终的分割结果[14]。因此,本文设计一种语义补偿卷积模块分别对不同尺度特征进行补偿,如图 3所示。

Download:
图 3 语义补偿卷积模块结构 Fig. 3 Structure of semantic compensation convolutional module

语义补偿卷积模块是由一定数量的3×3卷积层及一个1×1卷积层组成的残差结构,各层步长均为1。其中,3×3卷积层为语义特征补偿单元,1×1卷积层为边界特征保留单元,可分层级补偿语义特征并防止边界特征丢失。使用补偿单元与保留单元提取高层特征,并在解码过程中逐层增加补偿单元,将上述特征在拼接特征层经过语义补偿与保留边界特征后进行线性叠加,再与前序特征拼接融合。

1.3 混合损失函数

语义分割网络通常使用交叉熵等类间函数计算输出与标签之间每个像素的差异,并以所有像素差异的平均值作为训练模型的目标损失函数。

在水工建筑物坝面裂缝图像分割的二分类任务中,裂缝前景与背景图像的像素数量严重不均衡导致背景损失占比较大,模型在训练过程中会更注重背景识别,从而降低对裂缝的识别性能。此外,坝面裂缝图像背景中存在大量与裂缝相似的复杂干扰噪声,在模型训练过程中会产生较多困难样本,例如将裂缝识别为背景或将背景识别为裂缝等。针对该问题,本文使用焦点损失函数[15]和中心损失函数[16]分别作为类间损失函数和类内损失函数,使模型学习到更紧凑和中心化的输出概率特征值。将混合损失函数定义为:

$ \mathrm{L}\mathrm{o}\mathrm{s}\mathrm{s}={L}_{\mathrm{f}}(\boldsymbol{P}, \boldsymbol{Y})+\lambda {L}_{\mathrm{c}}(\boldsymbol{P}, \boldsymbol{Y}) $ (2)

其中,$ {L}_{\mathrm{f}}(\boldsymbol{P}, \boldsymbol{Y}) $为焦点损失函数,$ {L}_{\mathrm{c}}(\boldsymbol{P}, \boldsymbol{Y}) $为中心损失函数,PY分别为训练图像通过分割网络输出的概率特征图和真实标签,$ \lambda $为中心损失的权重,在本文中$ \lambda $设置为1。

1.3.1 焦点损失

在原有交叉熵损失的基础上增加两个调节参数$ \alpha $$ \beta $,将其作为坝面裂缝分割的焦点损失函数,相关定义如下:

$ \begin{array}{l}{L}_{\mathrm{f}}(\boldsymbol{P}, \boldsymbol{Y})=-\frac{1}{m}\left[\alpha {y}_{i}(1-{p}_{i}{)}^{\beta }\mathrm{l}\mathrm{n}{p}_{i}+\right.\\ \left.(1-\alpha )(1-{y}_{i}{)}^{\beta }{p}_{i}\mathrm{l}\mathrm{n}(1-{p}_{i})\right]\end{array} $ (3)

其中,$ m $为所有像素的个数,y为第i个像素的标签信息。

假设1为裂缝、0为背景,则标签为裂缝$ (y=1) $而识别为背景$ (p<0.5) $或者标签为背景$ (y=0) $而识别为裂缝$ (p\ge 0.5) $的像素为困难样本,标签和识别结果全为裂缝或者全为背景的像素为简单样本。$ {(1-p)}^{\beta } $$ {p}^{\beta } $分别为裂缝和背景两类像素的困难样本权重,本文增大困难像素样本权重并减小简单像素样本权重,设置$ \beta $=2[15]$ 1-\alpha $$ \alpha $分别为背景及裂缝的像素占比,通过赋予不同类型像素的损失权重来平衡两类像素数量,并根据计算得到的裂缝及背景像素数量比例,设置$ \alpha $=0.01。

1.3.2 中心损失

由于训练数据与测试数据的分布不一致,仅使用类间损失函数作为训练目标函数,尽管可实现测试集输出的特征类间可分,但同类样本输出的特征分布是离散的,仍存在误判的困难像素样本。因此,本文在以焦点损失为类间损失的基础上增加中心损失作为类内损失,从而得到更紧凑的输出特征,中心损失函数定义如下:

$ {L}_{\mathrm{c}}(\boldsymbol{P}, \boldsymbol{Y})=\frac{1}{{m}_{\mathrm{c}}}\sum \limits_{i=1}^{{m}_{\mathrm{c}}}({p}_{i}-{c}_{\mathrm{c}}{)}^{2}+\frac{1}{m-{m}_{\mathrm{c}}}\sum \limits_{j=1}^{m-{m}_{\mathrm{c}}}({p}_{j}-{c}_{\mathrm{g}}{)}^{2} $ (4)
$ {c}_{\mathrm{c}}=\frac{1}{{m}_{\mathrm{c}}}\sum \limits_{i=1}^{m}{p}_{i}{y}_{i} $ (5)
$ {c}_{\mathrm{g}}=\frac{1}{m-{m}_{\mathrm{c}}}\sum \limits_{i=1}^{m}{p}_{i}(1-{y}_{i}) $ (6)

其中,$ {m}_{\mathrm{c}} $是标签为裂缝的像素数量,$ m-{m}_{\mathrm{c}} $是标签为背景的像素数量,$ {c}_{\mathrm{c}} $是标签为裂缝的像素所得预测概率的均值中心,$ {c}_{\mathrm{g}} $是标签为背景的像素所得预测概率的均值中心。每批次训练迭代均需重新计算上述两个均值中心。

2 实验与结果分析

为验证上述坝面裂缝分割方法的有效性,本文进行一系列消融实验分别评估可分离残差卷积模块、语义补偿卷积模块以及混合损失函数的性能,再与主流的图像分割方法进行对比分析。

2.1 实验数据集

由于目前无公开的水工建筑物坝面裂缝图像数据集,本文利用清华四川能源互联网研究院提供的中国西南部某大型水电站坝面图像数据自制水工建筑物坝面裂缝图像数据集。该数据集含有1 000张图像,每张图像分辨率为608像素×608像素,所有裂缝像素区域均由人工标注完成。从该数据集中随机抽取200张图像作为测试集,其余800张图像作为训练集。

2.2 实验环境

本文实验采用Intel i7-7700K CPU@4.20 GHz处理器,NVDIA GTX TITAN XP 25GB GPU,16 GB内存,Ubuntu 16.04操作系统,Python 3.6编程语言,Pytorch 1.3和CUDA 10.0深度学习框架。在训练过程中采用Adam梯度下降法,优化器的学习率设置为0.000 1,批处理大小为4,取测试集平均损失值最小的模型作为最终模型。在训练和测试过程中,将概率值不小于0.5的像素识别为裂缝前景,其他像素为背景。

2.3 训练图像的预处理

针对坝面图像的亮度不均衡、对比度差异明显以及背景干扰噪声复杂等特点,本文在模型训练过程中使用水平翻转、亮度及对比度随机调整、几何形变3种方法随机组合对每批训练图像及标签进行预处理,每种方法独立进行,使用概率均为0.5。上述方法可在不增大数据集规模的同时增加训练集的多样性,从而提升分割模型的泛化能力。

2.3.1 亮度及对比度随机调整

使用灰度平均值$ u $及均方差$ \sigma $描述图像$ \boldsymbol{X} $的亮度及对比度,其表达式如下:

$ u=\frac{1}{m}\sum \limits_{i=1}^{m}{x}_{i} $ (7)
$ {\sigma }^{2}=\frac{1}{m}\sum \limits_{i=1}^{m}({x}_{i}{-u)}^{2} $ (8)

其中,$ {x}_{i} $为第i个像素的灰度值,$ m $为像素数量。

为保证调整后图像与原图像具有较显著的差异性,生成变换系数$ \eta $,其表达式如下:

$ \eta =\frac{1}{1+\mathrm{e}\mathrm{x}\mathrm{p}(5-u/25)} $ (9)

为增强调整后图像的随机性,将$ 255\eta $$ 2\eta $作为正态分布曲线的平均值与标准差,生成服从该分布的亮度值$ \widehat{u} $及对比度值$ 2\eta \sigma $。调整后的图像表示为:

$ \widehat{\boldsymbol{X}}=2\eta \sigma \frac{\boldsymbol{X}-u}{\sqrt{{\sigma }^{2}+\varepsilon }}+\widehat{u} $ (10)

其中,$ \varepsilon $为一个极小值常数。服从正态分布的参数可使调整后图像的数据分布具有一定随机性,且与原图像差异较大。

2.3.2 几何形变

基于裂缝区域的不规则性,使用几何三角函数对所训练图像中每个像素的位置进行变换,可达到形变效果。几何形变方式定义为:

$ \widehat{h}=h-10\mathrm{s}\mathrm{i}\mathrm{n}\left(\frac{2{\rm{ \mathsf{ π} }}w}{152}+10\right) $ (11)
$ \widehat{w}=w-10\mathrm{s}\mathrm{i}\mathrm{n}\left(\frac{2{\rm{ \mathsf{ π} }}h}{152}+10\right) $ (12)

其中,$ h $$ \widehat{h} $$ w $$ \widehat{w} $分别为形变前后的坐标位置。

3种预处理方法的效果示例如图 4所示。图 4(a)以网格图的形式描述了几何形变的预处理过程,图 4(b)为原始数据图像经过水平翻转、随机亮度及对比度调整、几何形变3种预处理前后的图像,图 4(c)为原始数据图像对应的标签图像同样经过3种预处理前后的图像。

Download:
图 4 预处理前后的效果图 Fig. 4 Effect images before and after preprocessing
2.4 评价指标

本文实验分别采用准确率(PA)、召回率(Rc)、F1值和交并比(Intersection over Union,IoU)评价不同方法的裂缝分割性能[17],其中F1值与IoU为语义分割实验中综合度量指标。上述指标分别定义如下:

$ \mathrm{P}\mathrm{A}=\frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{P}}\times 100\mathrm{\%} $ (13)
$ \mathrm{R}\mathrm{c}=\frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{N}}\times 100\mathrm{\%} $ (14)
$ \mathrm{F}1=\frac{2\times \mathrm{P}\mathrm{A}\times \mathrm{P}\mathrm{c}}{\mathrm{P}\mathrm{A}+\mathrm{R}\mathrm{c}}\times 100\mathrm{\%} $ (15)
$ \mathrm{I}\mathrm{o}\mathrm{U}=\frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{N}+\mathrm{F}\mathrm{P}}\times 100\mathrm{\%} $ (16)

其中,TP为正确预测为裂缝的像素个数,FP为错误预测背景为裂缝的像素个数,FN为错误预测裂缝为背景的像素个数。

2.5 训练过程分析

图 5为本文提出的坝面裂缝分割模型(以下称为本文模型)在训练过程中训练损失值与验证损失值的变化情况。可以看出,本文模型在训练过程中的损失值迅速衰减,并在迭代80轮后趋于收敛。由此可知,该模型未出现过拟合现象,具有良好的泛化性能。

Download:
图 5 本文模型在训练过程中的损失衰减曲线 Fig. 5 Loss attenuation curve of the proposed model in the training process
2.6 消融实验

在U-Net网络基础上,逐个添加可分离残差卷积模块、语义补偿卷积模块、焦点损失函数及中心损失函数,将本文方法与上述方法的裂缝分割性能进行对比,结果如表 1所示。可以看出,本文方法针对坝面图像提出的一系列措施均能提高裂缝分割性能,本文方法的F1值及IoU较U-Net网络分别提高1.32个百分点和1.54个百分点。

下载CSV 表 1 不同方法的裂缝分割性能对比结果 Table 1 Crack segmentation performance comparison results of different methods 

本文进一步对类内中心损失函数的有效性进行评估,图 6表 1中实验4和实验5训练所得模型对相同测试图像输出概率值的分布密度曲线。可以看出,仅使用焦点损失函数的网络输出概率值分布较离散,且具有更多的像素输出概率值分布在0.5左右,仍有较多的困难像素样本,而增加中心损失函数的网络输出概率值分布更集中,聚集于0.75左右的极点两侧,处于0.5左右的困难像素样本数量明显减少。由上述结果可知,中心损失函数不能有效增大类间的差异性,且降低了裂缝像素输出概率值的中心平均值。结合表 1的分析结果可知,焦点损失函数+中心损失函数较焦点损失函数的F1值及IoU分别增加0.44个百分点和0.52个百分点,表明中心损失函数能有效缩小类内像素输出概率特征值的差异,提升对困难像素样本的识别性能。

Download:
图 6 不同模型的输出概率值分布密度曲线 Fig. 6 Output probability value distribution density curves of different models

由上述实验结果可知,改进前U-Net的各项评价指标均低于改进的各个裂缝分割方法。其中,综合指标F1值及IoU随着改进措施的增加而提升,说明本文提出的各项改进措施能有效提升裂缝分割性能。

2.7 与其他网络的对比

将本文方法与改进前U-Net方法以及SegNet[18]、FCN-8S[19]及DeepLab V3[20]3种经典裂缝分割方法进行对比。其中,SegNet利用末级单层特征层进行图像分割,FCN-8S基于跳接结构将末端3层特征融合后进行图像分割,DeepLab V3使用空洞卷积及空间金字塔池化模块进行图像分割。上述方法的部分裂缝分割效果与评价指标结果分别如图 7表 2所示。可以看出,SegNet和FCN-8S的裂缝分割效果较差,DeepLab V3及U-Net的裂缝分割效果稍好且U-Net优于DeepLab V3,本文方法的裂缝分割效果最佳。本文以U-Net为基础网络,通过一系列改进措施有效提升了对包含细小裂缝区域的困难样本的识别性能,本文方法对坝面裂缝的分割效果较其他方法更优。

Download:
图 7 不同方法的部分裂缝分割效果图 Fig. 7 Partial effect images of crack segmentation with different methods
下载CSV 表 2 不同方法的裂缝分割指标结果 Table 2 Crack segmentation index results of different methods  
3 结束语

针对坝面图像在复杂环境下存在的像素不均衡、干扰噪声大等问题,本文基于改进U-Net提出一种坝面裂缝分割方法。在U-Net网络编码端使用可分离残差卷积模块增大感受野,在解码端增加语义特征补偿模块改善特征融合效果,将焦点损失函数及中心损失函数作为目标函数提高对裂缝前景像素与困难样本像素的注意力,采用几何形变以及图像亮度和对比度随机变换的方法对训练的图像进行预处理。实验结果表明,本文方法较改进前U-Net的F1值和交并比分别提高1.32个百分点及1.54个百分点,分割效果较SegNet、FCN-8S等传统方法更优。后续将精简分割模型减少参数量,进一步提高该方法的检测实时性。

参考文献
[1]
The Ministry of Water Resources of the People's Republic of China. The first national water resources census bulletin[J]. China Water Resources, 2013(7): 1-3. (in Chinese)
中华人民共和国水利部. 第一次全国水利普查公报[J]. 中国水利, 2013(7): 1-3.
[2]
BLANCO A, PARDO B F, CAVALARO S, et al. Lessons learned about the diagnosis of pathologies in concrete dams: 30 years of research and practice[J]. Construction and Building Materials, 2019, 197(2): 356-368.
[3]
LI Zongkun, GE Wei, WANG Juan, et al. Risk criteria and application on reservoir dams in China[J]. Journal of Hydraulic Engineering, 2015, 46(5): 567-583. (in Chinese)
李宗坤, 葛巍, 王娟, 等. 中国水库大坝风险标准与应用研究[J]. 水利学报, 2015, 46(5): 567-583.
[4]
MONTERO R, VICTORES J G, MARTINEZ S, et al. Past, present and future of robotic tunnel inspection[J]. Automation in Construction, 2015, 59(1): 99-112.
[5]
HUANG Zhen, FU Helin, CHEN Wei, et al. Damage detection and quantitative analysis of shield tunnel structure[J]. Automation in Construction, 2018, 94(10): 303-316.
[6]
TAO Xian, HOU Wei, XU De. A survey of surface defect detection methods based on deep learning[EB/OL]. [2020-01-30]. http://kns.cnki.net/kcms/detail/11.2109.TP.20200402.1101.002.html. (in Chinese)
陶显, 侯伟, 徐德. 基于深度学习的表面缺陷检测方法综述[EB/OL]. [2020-01-30]. http://kns.cnki.net/kcms/detail/11.2109.TP.20200402.1101.002.html.
[7]
ZHANG Lei, YANG Fan, ZHU Ying, et al. Road crack detection using deep convolutional neural network[C]//Proceedings of 2016 IEEE International Conference on Image Processing. Washington D.C., USA: IEEE Press, 2016: 3708-3712.
[8]
CHA Y J, CHOI W, SUH G, et al. Autonomous structural visual inspection using region-based deep learning for detecting multiple damage types[J]. Computer-Aided Civil and Infrastructure Engineering, 2018, 33(9): 731-747. DOI:10.1111/mice.12334
[9]
HUANG Hongwei, LI Qingting, ZHANG Dongming. Deep learning based image recognition for crack and leakage defects of metro shield tunnel[J]. Tunnelling and Underground Space Technology, 2018, 77(7): 166-176.
[10]
HAO Huaying, ZHAO Kun, SU Pan, et al. A corneal nerve segmentation algorithm based on improved ResU-Net[J]. Computer Engineering, 2021, 47(1): 217-223. (in Chinese)
郝华颖, 赵昆, 苏攀, 等. 一种基于改进ResU-Net的角膜神经分割算法[J]. 计算机工程, 2021, 47(1): 217-223.
[11]
WU Z F, SHEN C H, HENGEL A V D. Wider or deeper: revisiting the ResNet model for visual recognition[J]. Pattern Recognition, 2019, 90(11): 119-133.
[12]
GHOLAMI A, KWON K, WU B C, et al. SqueezeNext: hardware-aware neural network design[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Washington D.C., USA: IEEE Press, 2018: 52-59.
[13]
ARSALAN M, KIM D S, LEE M B, et al. FRED-Net: fully residual encoder-decoder network for accurate iris segmentation[J]. Expert Systems with Applications, 2019, 122(1): 217-241.
[14]
IBTEHAZ N, RAHMAN M S. MultiResUNet: rethinking the U-Net architecture for multimodal biomedical image segmentation[J]. Neural Networks, 2020, 121(1): 74-87.
[15]
LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2018, 99(7): 2999-3007.
[16]
WEN Yandong, ZHANG Kaipeng, LI Zhifeng, et al. A discriminative feature learning approach for deep face recognition[C]//Proceedings of 2016 European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 121-129.
[17]
WANG Runhan, LI Bing, TENG Qizhi. Core FIB-SEM image segmentation method based on convolutional neural network[J]. Computer Engineering, 2021, 47(1): 264-274. (in Chinese)
王润涵, 李兵, 滕奇志. 基于卷积神经网络的岩心FIB-SEM图像分割方法[J]. 计算机工程, 2021, 47(1): 264-274.
[18]
VIJAY B, ALEX K, ROBERTO C. SegNet: a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495. DOI:10.1109/TPAMI.2016.2644615
[19]
SUN Weiwei, WANG Ruisheng. Fully convolutional networks for semantic segmentation of very high resolution remotely sensed images combined with DSM[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(3): 474-478. DOI:10.1109/LGRS.2018.2795531
[20]
WANG Junqiang, LI Jiansheng, ZHOU Huachun, et al. Typical element extraction method of remote sensing image based on Deeplabv3+ and CRF[J]. Computer Engineering, 2019, 45(10): 260-265, 271. (in Chinese)
王俊强, 李建胜, 周华春, 等. 基于Deeplabv3+与CRF的遥感影像典型要素提取方法[J]. 计算机工程, 2019, 45(10): 260-265, 271.