2. 常熟理工学院 计算机科学与工程学院, 江苏 苏州 215000
2. School of Computer Science and Engineering, Changshu Institute of Technology, Suzhou, Jiangsu 215000, China
开放科学(资源服务)标志码(OSID):
语义分割是计算机视觉领域的重要课题之一,其目的是为图像中的每一像素分配类别标签。得益于卷积神经网络(Convolutional Neural Networks,CNN)能够提取高层语义信息的独特优势,基于CNN的语义分割算法[1-3]取得了巨大成功,在精度、速度上均超越了传统图像语义分割算法。然而,语义分割网络在提取高层语义信息时需不断下采样,容易丢失部分空间细节信息,导致网络在目标边缘、长条状目标,尤其是小目标处的分割效果不佳。
目前,主流语义分割网络[4-6]在训练时通常采用批处理方式提高内存利用率、减少迭代次数、协同批量归一化[7],同时减少内部协变量偏移,加速深度网络训练。梯度下降的方向越准确,引起的训练震荡越小,分割精度提升越明显。但此类方法严重依赖高性能显卡(如GPU集群)才能设置较大的批处理参数,达到较高的分割精度。低端显卡由于显存有限,仅能设置较小的批处理参数,有时甚至无法进行训练。此外,需要通过选取合适的预训练权重,在高性能显卡中不断更换训练策略、调参、验证才能获得具有较高精度的模型,且在修改网络后,还需重新进行上述步骤,运行周期长,占用计算资源过多。
本文提出面向语义分割模型的外接多尺度投票网络,将共享网络中的分割网络与各尺度注意力头剥离开,仅训练各尺度注意力头,以方便网络收敛。将各尺度注意力头在最佳分割模型下的预测结果按投票权值进行加权融合,通过融入混合池化模块,聚合权值图中的近程与远程整体背景,为整个网络提供全局信息,扩大感受野,从而缓解权值图中长条状目标拟合间断与缺失的问题。引入类内、类间投票注意力模块,并嵌入1×3、3×1卷积块,以获取类内投票权值与类间投票权值关系,改善投票权值图的边缘拟合效果。
1 相关研究近年来,基于CNN的图像语义分割方法取得了重大进展。本节将讨论针对目标边缘、长条状目标、尤其是小目标分割效果不佳的3类相关改进方法,即上下文信息采集、多尺度特征图融合、多尺度图像共享网络方法。
1.1 上下文信息采集获取图像上下文信息是扩大卷积网络感受野的有效方法,ZHAO等[3]提出金字塔池化模块(Pyramid Pooling Module,PPM)融入多尺度上下文信息,可增强不明显的小目标、条状目标(例如与周围环境颜色相近的路杆、行人)的捕获能力。CHEN等[8]提出空洞空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP),将空洞卷积与金字塔池化方法相结合,从而铺抓更充分的上下文信息。CHEN等[4]在此基础上提出利用编码器-解码器结构逐步重构空间信息,可更好地捕捉目标边缘。FU[9]等提出双注意力网络获取像素间、通道间的特征依赖关系信息,改善了类内混淆、目标边缘缺失等问题。HOU等[10]提出条状池化方法,更易于捕获远程特征依赖关系,改善了长条状目标的分割效果。但上述方法在下采样过程中容易丢失细节信息,导致较细的长条状目标难以成功分割,在长条状目标的边缘处存在分割模糊的问题。
1.2 多尺度特征图融合LONG等[1]提出全卷积神经网络进行图像语义分割,在实验中观察到不同深度的卷积层分割结果存在较大差异,提出使用跳跃连接方法将浅层获取到的细节信息与高层语义信息进行融合。RONNEBERGER等[2]在LONG等的基础上提出类U型的编码器-解码器结构,将更多浅层细节、纹路特征与深层语义特征进行融合,改善了小目标与目标边缘处的分割效果。ZHANG等[11]针对语义层和浅层的差异较大,浅级特征噪音较多,简单地融合浅层和深层的效果不佳问题,在浅层特征中引入语义信息,并在深层特征中引入高分辨率细节,以有效融合浅层与深层的特征。FAN等[12]提出短期密集连接模块,提取具有可伸缩感受野和多尺度信息的融合特征。但上述方法只能提取单一尺度图像特征,细节信息的提取能力有限。
1.3 多尺度图像共享网络在同一网络下,不同尺度图像的分割结果存在部分差异,基于此,CHEN等[13]将多个调整尺度的图像输入注意力网络,加大各尺度权重。YANG等[14]在CHEN等的基础上提出多尺度网络分支方法,并在预测阶段融合特征。TAO等[15]针对上述方法依赖固定放缩比例与数量的尺度组合提出多层次多尺度注意力机制,以拟合相邻尺度间的注意力权重,同时在预测分割结果时灵活扩展更多尺度,使网络获得更高的分割精度。但网络需承担额外尺度的输入,训练复杂度高。
为利用网络在不同尺度下的分割优势,DAI等[16]与PAPANDREOU等[17]分别使用平均池化、最大池化融合各尺度的分割结果。但由于网络对各尺度的分割优势不同,因此武断地取最大值或平均值容易导致正确分割的像素被其他尺度干扰,精度提升效果不佳,甚至下降。受共享网络[15]启发,本文将分割网络与各尺度注意力头融为一体。但在训练时,除了在原尺度上的训练开销,网络需额外承担其他尺度的输入,这成倍增加了训练复杂度。此外,尺度间的差异难以界定,以致网络较难收敛,且当修改网络后需重新训练,原模型的价值丧失。
针对上述训练成本过高的问题,本文期望复用具有最高精度的模型,并在其基础上改善模型在小目标、长条状目标、目标边缘处的分割效果。得益于现有的语义分割网络通过采用随机尺度缩放进行数据增强,使图像放缩后也能保持较高分割精度的方法,本文定量分析图像缩放后的不同分割效果,将放缩后的各尺度图像输入同一已训练的分割网络中,以达到提高分割精度的目的。
2 外接多尺度投票网络 2.1 投票网络总体结构图 1所示为投票网络结构,其中每个模块已用虚线框出。其中:通道数C1为分割类别数;通道数C2为网络层数,设为64;H为高度,值为1 024;W为宽度,值为2 048;
|
Download:
|
| 图 1 外接投票网络结构 Fig. 1 Structure of external voting network | |
由于TAO网络仅输出通道数为1的注意力图,忽视了每一分割类别存在特有的投票权值偏好。为此,本文提出多类别投票模块,以扩大投票选择空间。以语义分割数据集Cityscapes[18]为例,该数据集包含19个类别,多类别投票模块在此数据集上分割所得的结果特征图含19个通道,得到19个类别的投票权值图,由于改方法在每一个类上分别进行投票,因此扩大了19倍的投票选择空间。
2.1.2 混合池化模块在TAO网络中,由于网络层数较少,导致感受野过小,无法获取较远距离的投票信息与整体投票信息,以致较大目标与长条状目标的投票权值拟合效果不佳。在语义分割任务中构建上下文信息采集模块[3, 6, 10]是改善该问题的常见方法。HOU等[10]提出混合池化方法,有效改善了长条状目标与较大目标的分割效果,且计算开销不大。为改善投票权值图在大目标与长条状目标处的拟合效果,受HOU等[10]启发,本文利用混合池化模块聚合近程与远程的相关投票权值信息。图 1左上角所示为混合池化模块,其中近程池化融合了3种不同尺度的标准空间池化模块,且引入标准2D卷积块进行拟合,因此更容易捕捉近程投票信息,能够改善较大目标的投票拟合效果。远程池化通过水平与垂直池化方法将水平与垂直的信息分别压缩到1D,并引入1D卷积块进行拟合,从而更容易捕获到远程投票信息,改善长条状目标的投票拟合效果。
2.1.3 类内、类间投票注意力模块在语义分割任务中,金字塔池化仅能获取全局的上下文信息,却无法利用全局视图中像素、类别间的关系。文献[9]提出一种位置注意力机制捕获特征图中任意2个通道间的空间依赖关系。由于投票网络无法学习到类内、边缘权重的相邻关系,导致类内混淆,边缘间断。类内注意力模块通过所有位置特征的加权,选择性地聚合每个位置的特征,使网络学习相邻位置关系。类间投票注意力模块能学习到更多类间关系,并能选择性地强调相互依赖的通道映射。此外,令注意力图分别乘以初始为0的α、β可学习参数,若某一注意力方法无法提升精度,参数便会趋近于0,能够避免精度下降。
2.1.4 不规则卷积模块针对常规卷积核长宽相同,较难学习线条状特征的问题,MOU等[19]提出1×3与3×1的非对称卷积,可更好地捕捉线条状特征。由于投票网络亟需拟合线条状的目标边缘信息,如图 1中不规则卷积模块所示,因此本文参考文献[19]引入1×3、3×1卷积,后接一个批量归一化(Batch Normalization,BN)与激活函数ReLU,改善投票权值图中目标边缘的拟合效果。
为增加本文方法的可解释性,将投票权值图各通道逐点相加,归一化到0~255之间,并将其进行可视化,结果如图 1右下黑白图像所示。本文将在3.4节对投票权值图的可视化图进行具体分析。
2.2 各尺度分割结果对比为验证本文方法的前提条件,即不同尺度的相同图像在同一已训练分割网络下的分割结果不同,本文采用在开源框架OpenMMLab[20]训练的最佳DeepLabv3+[4]语义分割网络模型,并在无人驾驶标杆数据集Cityscapes[18]上进行实验。
图 2所示为不同尺度图像的预测流程,其中小尺度图像为长宽缩小1倍,原尺度为原图,大尺度图像的长宽放大1倍,将其分别输入到已在Citysca-pes数据集下训练的DeepLabv3+模型中,得到各自的分割结果。如某像素归类为车辆,则用对应颜色掩膜掩盖,最后将掩膜与原图叠加。为便于观察,将图 2中小尺度图像上采样2倍、原尺度图像不变、大尺度图像下采样2倍,各尺度保持同样长宽大小,并将预测的分割掩码叠加在原图上,分割结果如图 3所示(彩色效果见《计算机工程》官网HTML版),其中小目标用白圈标出,长条状目标用黑圈标出。
|
Download:
|
| 图 2 不同尺度图像的预测流程 Fig. 2 Prediction process of different scale images | |
|
Download:
|
| 图 3 不同尺度图像的分割结果对比 Fig. 3 Results comparison of different scale segmentation | |
为方便叙述,按每组虚线框出现的顺序对虚线框进行标号,从左至右分别为左1、左2、左3、左4,从左至右观察图 3可以发现以下现象:
1)在左1虚线框中,在分割目标边缘时,大尺度图像相较于原尺度图像、小尺度图像,分割结果愈加精细。
2)在左2虚线框中,原、大尺度图像的分割结果过于追求细节,导致目标内部分割间断。小尺度图像在边缘处分割得不平整,在目标内部不过分追求细节,更注重目标整体信息,目标内部分割效果较好。
3)在左3虚线框中,在分割小目标时,大尺度图像能够正确分割出骑手小目标,而原尺度、小尺度图像将骑手误识别成行人,且边缘分割效果明显弱于大尺度图像。
4)在左4虚线框中,在分割长条状目标时,大尺度图像的分割效果相较于原尺度图像、小尺度图像,捕捉的长条状目标信息依次增多,漏检概率逐渐降低。
以上实验数据将在第3章节中给出,并测试各尺度总体及不同类的分割精度。总体上,原尺度图像的总精度最高,小尺度图像的总精度最低。而在某些类别中,如行人、骑手(小目标),栅栏、路杆(长条状目标),大尺度图像的分割精度高于原图。但由于目标内部分割效果不佳,限制了大尺度图像的分割精度。
根据上述实验,各尺度图像的分割结果都有独特的优势,本文旨在结合各尺度图像优势,提升分割精度。
2.3 训练方式与一般语义分割网络的训练方式不同,投票网络不改变分割网络模型,仅训练投票网络。在网络训练方式上,本文沿用TAO等[15]的方法,仅训练相邻尺度间的相对关系,并灵活增加其他尺度,不再针对某一尺度额外训练。将给定的输入图像按因子
如图 4所示,将原尺度图像和下采样2倍的图像分别输入已经过训练的DeepLabv3+网络中,得到各尺度预测特征图
| $ {F}_{r=1}^{\text{'}}={W}_{r=0.5}\times U\left({F}_{r=0.5}\right)+\left(1-{W}_{r=0.5}\right)\times {F}_{r=1} $ | (1) |
|
Download:
|
| 图 4 投票网络的训练结构 Fig. 4 Training structure of voting network | |
其中:
在训练得到相邻尺度间的投票网络后,在预测时分层次灵活地应用此网络,并将若干相邻尺度的预测结果进行整合。采用下采样2倍、原尺度、上采样2倍的图像进行举例,如图 5所示。
|
Download:
|
| 图 5 投票网络的预测结构 Fig. 5 Prediction structure of voting network | |
将原图分别进行上、下采样,其中,图 5虚线框内为大尺度图像和原图的成对预测结构(与训练结构相同),并得到大尺度图像和原图投票的预测结果
| $ {F}_{r=1}^{*}={W}_{r=1}\times {F}_{r=1}+\left(1-{W}_{r=1}\right)\times D({F}_{r=2}) $ | (2) |
将图 5中虚线框圈出的部分作为一个整体,与小尺度分割结果以相同方式结合,得到最终的分割结果
| $ {F}_{r=1}^{*\mathrm{*}}={W}_{r=0.5}\times U\left({F}_{r=0.5}\right)+\left(1-{W}_{r=0.5}\right)\times {F}_{r=1}^{*} $ | (3) |
使用深度学习框架Pytorch[21]实现投票网络,本文实验的硬件和软件环境如表 1所示。将本文网络在Cityscapes[18]大型街景数据集上进行验证。该数据集是目前公认的具有较强权威性、专业性的图像语义分割评测数据集,包含了50个城市不同场景、背景、季节的街景,提供了5 000张精细标注图像、20 000张粗略标注图像,分别对应精细和粗略两套评价标准。本文采用精细标注的5 000张高分辨率图像进行实验,其标注了19个语义类,并以精细评价标准验证本文方法。
|
下载CSV 表 1 实验硬件与软件配置 Table 1 Experimental hardware and software configuration |
本文在训练投票网络时与一般分割网络不同,并不直接将图像输入网络,而是保留不同尺度图像的分割结果,再输入投票网络进行训练。采用开源框架OpenMMLab[20]共享的不同分割网络模型进行实验,以保证实验的可靠性与公平性。为保证实验的一致性,实验均选用在高性能显卡、相同训练策略下得到的模型,并将其定义为最佳模型。具体训练细节如下:采用4块V100显卡训练,骨干网络选取ResNet50-B[22],以随机梯度下降算法优化模型,交叉熵为损失函数,动量设为0.9,学习率为0.01,权重衰减为0.000 5,随机尺度缩放比例为0.5~2倍,随机裁剪大小为769×769像素,批处理参数设为8,迭代训练80 000次。根据以上规则在不同分割网络上训练模型。
以DeepLabv3+网络为例,在网络中输入不同尺度的图像,得到不同尺度的分割结果,再将其经过上、下采样操作变回原图的大小,转换成NumPy格式保存。其中,通道数为分割类别数,长宽与原图相同,每张图像各尺度分割结果的文件大小为155 648 KB。
在训练投票网络时,由于无需再重新训练分割网络,仅需训练投票网络,因此仅采用2块低性能显卡2080 Ti训练,并以随机梯度下降算法优化模型,将批处理参数设为2,动量设为0.9,学习率为0.001,学习率衰减乘数因子为0.1。由于目标边缘占图像比例较小,因此采用Focal Loss[23]作为损失函数,从而缓解边缘和整体图像比例严重失衡的问题。在Cityscapes数据集[18]中,投票网络进行80 000次迭代训练后,通过结合各尺度分割结果,达到对比网络中较高分割精度。
3.2 评价指标本文采用语义分割中通用的评价指标平均交并比(mean Intersection over Union,mIoU)评价本文方法,通过计算各类预测值和真实值2个集合的交并集之比,再取其平均值,mIoU的表达式如式(4)所示:
| $ {m}_{\mathrm{m}\mathrm{I}\mathrm{o}\mathrm{U}}=\frac{1}{K+1}\sum\limits_{i=0}^{k}\frac{{p}_{ii}}{\sum\limits_{j=0}^{k}{p}_{ji}-{p}_{ii}+\sum\limits_{j=0}^{k}{p}_{ij}} $ | (4) |
设存在
为验证本文网络的有效性,选用经过开源框架OpenMMLab训练的DeepLabv3+最佳网络(DeepLabv3+*网络)作为基线网络与其他网络进行对比,测试不同网络对不同尺度图像的分割精度。此外,将文献[16]所提网络和文献[17]所提网络在不同图像尺度(图像放缩为原尺度后,对应像素求平均值)上进行实验。结果如表 2所示,其中:1.0代表图像原尺度,2.0代表图像的长宽各放大2倍,0.5代表图像的长宽各缩小2倍,0.25代表图像的长宽各缩小4倍;分割网络采用4块V100显卡训练,投票网络仅采用2块2080Ti显卡训练,由于训练投票网络需在分割网络模型基础上进行,为进行区分,将本文方法的训练显卡用+2*2080Ti表示(下同)。由表 2可知,实验结果与前文所述相同,mIoU的提升效果不佳,但本文网络的精度提升幅度最大。与DeepLabv3+*网络在尺度为1.0的图像下的mIoU值相比,本文网络在组合原尺度和大尺度图像时,mIoU提升0.76个百分点,在组合3个尺度时,mIoU提升0.89个百分点,在组合4个尺度时,可提升0.92个百分点。由表 2还可以得知,投票网络在最佳网络模型基础上可达到的较高分割精度为80.30%。
|
下载CSV 表 2 不同网络的实验结果对比 Table 2 Comparison of experimental results of different networks |
为验证本文方法的通用性,基于3.1节下的规则,选用FCN[1]与PSPNet[2]网络训练的最佳模型(分别为FCN模型*、PSPNet模型*)进行实验,并使用在2*2080Ti显卡上训练出的DeepLabv3+[13]模型(DeepLabv3+(本地))进行对比实验,结果如表 3所示。由表 3可以看出,本文网络可以在其他经典网络的基础上提高模型的分割精度。且由于FCN模型边缘分割的效果弱于PSPNet和DeepLabv3+(本地)模型,因此在使用本文网络时精度提升幅度更大。
|
下载CSV 表 3 不同语义分割模型的结果对比 Table 3 Comparison of results of different semantic segmentation models |
为增加本文方法的可解释性,将投票网络学习到的权值图进行可视化。以相邻尺度的投票权值图为例,分别将原尺度、大尺度的投票权值图各通道合并,并归一化到0~255之间,得到图 6、图 7所示的灰度图。其中某像素越趋近于白色,权值越趋近于255,即投票权重越大;像素越趋近于黑色,权值越趋近于0,即投票权重越小。
|
Download:
|
| 图 6 原尺度投票权值图可视化 Fig. 6 Visualization of the original scale voting weight map | |
|
Download:
|
| 图 7 大尺度投票权值图可视化 Fig. 7 Visualization of the big scale voting weight map | |
为方便叙述,按每组虚线框出现的顺序对虚线框进行标号,从左至右分别为左1、左2、左3。由图 6、图 7可知:
1)在小目标、长条状目标处,如在左1、左2虚线放大框中,路杆(长条状目标)与行人(小目标)内部在大尺度权值图中更趋近白色,在原尺度中趋近黑色,即网络更趋向于相信大尺度图像的分割结果。权值图并未完全趋近白色,这说明网络避免了大尺度面临的内部分割间断问题。
2)在目标边缘处,如在左3虚线放大框中,车辆边缘在大尺度权值图中更趋近白色,在原尺度中趋近黑色,即网络在边缘处更趋向于相信大尺度的分割结果。在左2虚线放大框中,也可明显发现在边缘处更趋近白色。
3)相较于目标边缘,网络在目标内部稍趋向于相信原尺度的分割结果,而在非小、长条状目标内部,这一趋势更为明显。如图 6中十字形标出的非小、长条状目标内部区域,在原尺度权值图中更趋近白色,在大尺度中趋近黑色,即在非小、长条状目标内部,网络更趋向于相信原尺度的分割结果。
3.5 消融实验为验证本文网络中各子模块的有效性,选用经过开源框架OpenMMLab训练的DeepLabv3+最佳网络(DeepLabv3+*网络)进行消融实验,并量化分析各模块的作用,即在Deeplabv3+*基础上加入各模块,从而分析本文网络各模块的作用。该实验中模块的添加为逐渐累积的过程,比如在添加多类别投票模块(+多类别投票模块)的基础上,再添加混合池化模块,以此类推,结果如表 4所示,其中,TAO网络(本地)表示将TAO网络在本文网络上进行实验。
|
下载CSV 表 4 本文网络各模块的消融实验结果 Table 4 Ablation experiments for each module of network in this paper |
由表 4可知,与DeepLabv3+*网络相比,TAO网络(本地)的mIoU提升效果不明显。通过分析发现,TAO网络由于未考虑每一类的投票权值偏好,因此投票选择空间有限。此外,TAO网络仅堆叠了2层卷积,感受野过小,因此通过融入混合池化模块可分别获取近程与远程的相关投票权值信息,尤其改善长条状目标的投票权值拟合效果。为进一步获取类内、类间投票权值关系,本文在投票网络中分别加入类内、类间双投票注意力模块,以获取相邻投票权值关系,选择性地加强相互依赖的类间投票映射。如表 4所示,当加入类间投票注意力模块时,精度相比仅增加多类别投票模块和混合池化模块可提升0.13个百分点,当加入类内投票注意力模块时,精度在此基础上可提升0.15个百分点。最后本文通过采用不规则卷积优化投票权值图在目标边缘的处理,从而提升投票权值图的目标边缘拟合效果,但由于边缘所占像素较小,因此在总体精度上仅有较小幅度的提升。
3.6 投票网络与共享网络对比为量化分析投票网络与共享网络的差异,采用本地2块2080Ti显卡对网络进行训练,结果如表 5所示。由于投票网络在模型外部训练,而共享网络的多尺度注意力头在模型内部训练,所以采用内、外分别表示共享网络和投票网络。
|
下载CSV 表 5 投票网络与共享网络的实验结果对比 Table 5 Comparion of experimental results between voting network and sharing network |
对比表 5中TAO网络(外)与TAO网络(内)的数据可知,TAO网络(外)的mIoU略低于TAO网络(内),但需训练的模型大小却大幅降低,缩小了413倍。对比本文网络(内)与本文网络(外)的数据可知,本文网络(外)的mIoU高于本文网络(内),其训练模型缩小了102倍。
相较而言,共享网络需拟合的参数多,训练复杂度高,较难收敛。而本文将不同尺度图像的预测结果用于训练外接投票网络,与用于共享网络相比,最佳模型的预测结果比网络内部的特征图更稳定,能够学习更可靠的投票模型,且参数量较小,更易收敛。
为进一步显式分析,将TAO等[15]的大尺度注意力权值图与本节模型外方式拟合出的投票权值图进行对比。如图 8所示,为方便叙述,按每组虚线框出现的顺序对虚线框进行标号,从左至右分别为左1、左2、左3、左4。其中左1为TAO等的大尺度权值图,左4为本文网络的大尺度权值图。对比发现,本文网络对小、长条状目标更敏感。如两图中最左边虚线放大框所示,左4的行人(小目标)比左1更清晰,边缘勾勒也更明显。另外,如两图中最右边虚线放大框所示,左1几乎丢失了路杆信息(长条状目标),而左4的路杆信息被成功捕获。如两图中的中间虚线放大框所示,车辆边缘被成功勾勒出了边缘,相较左1而言,左4图片更清晰。从整体上,左4的层次感也优于左1图片,即尺度间的投票权值相差更大,越偏向于正确尺度的分割图。
|
Download:
|
| 图 8 投票权值对比 Fig. 8 Comparison of voting weights | |
为对比不同类别的mIoU,在Cityscapes数据集中选取有代表性的类,包括交通标志、行人、骑手、摩托车等小目标的类;路杆等长条状目标的类;小汽车、公共汽车等中目标的类;人行道、马路等大目标的类。选用经过开源框架OpenMMLab训练的DeepLabv3+最佳网络(DeepLabv3+*网络)进行实验,结果如表 6所示。由表 6可知,前3行分别为不同尺度(0.5、1.0、2.0)图像输入DeepLabv3+*网络的各类分割精度,表 6最后2行分别为以模型外训练方式的TAO*网络与本文网络在0.5、1.0、2.0尺度组合下的分割精度。在表 6前3行中,原图的总精度相对最高,小尺度总精度相对较低。在具体类中,原尺度在大部分类中分割精度最高,小尺度中大目标的类别分割精度与原图的差距小于其他类,大尺度中小、长条状目标的分割精度优于原图。但内部分割间断拉低了整体精度,而本文通过结合小、原尺度的分割结果弥补了该缺陷。
|
下载CSV 表 6 不同网络对不同类别图像的mIoU值对比 Table 6 mIoU value comparison of different types of images by different networks |
表 6第4行为将TAO*网络以模型外方式训练后测试的分割精度,与原尺度分割结果对比,网络的mIoU有一定提升,但提升幅度较小。本文在此基础上进行改进后,在大部分类别中提升幅度较大。实验结果也验证了相比于其他类,网络在小目标、长条状目标处的分割精度较低。本文网络可更好地改善小目标、长条状目标的分割效果,但不可忽视的是,在表 6中,使用本文网络分割属于中目标的公共汽车类的分割精度相比于原尺度有小幅下降。而图 7已验证了本文网络可在中目标的边缘处进行优化,理论上来说不应有所下降。通过结合分析属于大目标的马路类分割精度提升幅度过小,猜测此时投票网络已经陷入局部最优,还未能充分把握中目标与大目标间正确的尺度关系,导致在目标内部出现像素投票偏差,在一定程度上限制了分割精度的提升幅度。
4 结束语本文提出一种面向语义分割模型的外接多尺度投票网络,在外接投票网络结构中,分别对多类别投票模块、混合池化模块、类内与类间投票注意力模块及不规则卷积4个模块进行改进,以更好地拟合投票权值。在消融实验中验证每个模块的有效性,并通过可视化的投票权值图,进一步证明CNN网络在不同尺度图像中的分割偏好。实验结果表明,相比FCN、PSPNet、DeepLabv3+等分割网络,本文网络的mIoU分别提升了0.92、0.88、0.80个百分点,尤其提高了对小目标、长条状目标、目标边缘处的分割精度。下一步将利用不同尺度的分割偏好及引入注意力机制,把握中目标与大目标间更正确的尺度关系,从而提高网络对中目标以及大目标的分割精度。
| [1] |
SHELHAMER E, LONG J, DARRELL T. Fully convolutional networks for semantic segmentation[C]//Proceedings of IEEE Transactions on Pattern Analysis and Machine Intelligence. Washington D. C., USA: IEEE Press, 2015: 640-651.
|
| [2] |
RONNEBERGER O, FISCHER P, BROX T. U-net: convolutional networks for biomedical image segmentation[C]//Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin, Germany: Springer, 2015: 234-241.
|
| [3] |
易盟, 隋立春. 基于改进全卷积神经网络的航拍图像语义分类方法[J]. 计算机工程, 2017, 43(10): 216-221. YI M, SUI LI C. Aerial image semantic classification method based on improved full convolution neural network[J]. Computer Engineering, 2017, 43(10): 216-221. (in Chinese) |
| [4] |
CHEN L C, ZHU Y K, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2018: 801-818.
|
| [5] |
BADRINARAYANAN V, KENDALL A, CIPOLLA R. SegNet: a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495. DOI:10.1109/TPAMI.2016.2644615 |
| [6] |
HUANG Z L, WANG X G, WEI Y C, et al. CCNet: criss-cross attention for semantic segmentation[C]//Proceedings of IEEE International Conference on Transactions on Pattern Analysis and Machine Intelligence. Washington D. C., USA: IEEE Press, 2019: 603-612.
|
| [7] |
IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]//Proceedings of International Conference on Machine Learning. Washington D. C., USA: IEEE Press, 2015: 448-456.
|
| [8] |
CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848. DOI:10.1109/TPAMI.2017.2699184 |
| [9] |
FU J, LIU J, TIAN H J, et al. Dual attention network for scene segmentation[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2019: 3141-3149.
|
| [10] |
HOU Q B, ZHANG L, CHENG M M, et al. Strip pooling: rethinking spatial pooling for scene parsing[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2020: 4002-4011.
|
| [11] |
ZHANG Z L, ZHANG X Y, PENG C, et al. ExFuse: enhancing feature fusion for semantic segmentation[C]//Proceedings of European Conference on Computer Vision. Washington D. C., USA: IEEE Press, 2018: 269-284.
|
| [12] |
FAN M Y, LAI S Q, HUANG J S, et al. Rethinking BiSeNet for real-time semantic segmentation[C]//Proceedings of 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2021: 9716-9725.
|
| [13] |
CHEN L C, YANG Y, WANG J, et al. Attention to scale: scale-aware semantic image segmentation[C]//Proceedings of 2016 Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2016: 3640-3649.
|
| [14] |
YANG S Q, PENG G. Attention to refine through multi scales for semantic segmentation[C]//Proceedings of Conference on Multimedia Information. Washington D. C., USA: IEEE Press, 2018: 232-241.
|
| [15] |
TAO A, SAPRA K, CATANZARO B. Hierarchical multi-scale attention for semantic segmentation[EB/OL]. [2021-09-11]. https://arxiv.org/abs/2005.10821.
|
| [16] |
DAI J F, HE K M, SUN J. BoxSup: exploiting bounding boxes to supervise convolutional networks for semantic segmentation[C]//Proceedings of 2015 IEEE International Conference on Computer Vision. Washington D. C., USA: IEEE Press, 2015: 1635-1643.
|
| [17] |
PAPANDREOU G, KOKKINOS I, SAVALLE P A. Untangling local and global deformations in deep convolutional networks for image classification and sliding window detection[EB/OL]. [2021-09-11]. https://arxiv.org/abs/1412.0296.
|
| [18] |
CORDTS M, OMRAN M, RAMOS S, et al. The cityscapes dataset for semantic urban scene understanding[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2016: 3213-3223.
|
| [19] |
MOU L, ZHAO Y T, FU H Z, et al. CS2-Net: deep learning segmentation of curvilinear structures in medical imaging[J]. Medical Image Analysis, 2021, 67: 74-79. |
| [20] |
CHEN K, WANG J Q, PANG J M, et al. MMDetection: open MMLab detection toolbox and benchmark[EB/OL]. [2021-09-11]. https://arxiv.org/abs/1906.07155.
|
| [21] |
PASZKE A, GROSS S, MASSA F, et al. PyTorch: an imperative style, high-performance deep learning library[EB/OL]. [2021-09-11]. https://arxiv.org/abs/1912.01703.
|
| [22] |
HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2016: 770-778.
|
| [23] |
LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Washington D. C., USA: IEEE Press, 2017: 2999-3007.
|
2022, Vol. 48

,