«上一篇 下一篇»
  计算机工程  2022, Vol. 48 Issue (2): 186-193  DOI: 10.19678/j.issn.1000-3428.0062144
0

引用本文  

张锡英, 王厚博, 边继龙. 多成本融合的立体匹配网络[J]. 计算机工程, 2022, 48(2), 186-193. DOI: 10.19678/j.issn.1000-3428.0062144.
ZHANG Xiying, WANG Houbo, BIAN Jilong. Stereo Matching Network with Multi-Cost Fusion[J]. Computer Engineering, 2022, 48(2), 186-193. DOI: 10.19678/j.issn.1000-3428.0062144.

基金项目

黑龙江省自然科学基金(F2018002)

通信作者

边继龙(通信作者), 讲师、博士

作者简介

张锡英(1971-), 女, 副教授, 主研方向为图像处理、数据挖掘;
王厚博, 硕士研究生

文章历史

收稿日期:2021-07-21
修回日期:2021-08-21
多成本融合的立体匹配网络
张锡英 , 王厚博 , 边继龙     
东北林业大学 信息与计算机工程学院, 哈尔滨 150040
摘要:立体匹配网络中的特征提取是提高双目视觉立体匹配精确度的关键步骤。为充分提取图像特征信息,结合密集空洞卷积、空间金字塔池化和堆叠沙漏的特点,构建一种多成本融合的立体匹配网络DCNet。引入密集空洞卷积和空间金字塔池化方法提取多尺度特征信息,同时使用轻量化注意力模块优化多尺度特征信息,构建多特征融合的匹配代价卷。在此基础上,利用3D卷积神经网络和堆叠沙漏网络聚合匹配代价信息,并通过回归的方式生成视差图。实验结果表明,该网络在KITTI2015数据集上的误匹配率为2.12%,相比PSMNet、DisNetC、PDSNet等网络,在特征提取部分能够获得更丰富的特征信息,且提升特征匹配的效果。
关键词立体匹配    密集神经网络    深度卷积神经网络    深度学习    注意力机制    
Stereo Matching Network with Multi-Cost Fusion
ZHANG Xiying , WANG Houbo , BIAN Jilong     
School of Information and Computer Engineering, Northeast Forestry University, Harbin 150040, China
Abstract: In stereo matching networks, the feature extraction process is key for improving the accuracy of binocular stereo matching.To extract image feature information, this study combines the characteristics of dense atrous convolution, spatial pyramid pooling, and stacked hourglass to propose stereo matching network DCNet with multi-cost fusion.The network introduces dense atrous convolution and spatial pyramid pooling to extract multi-scale feature information.The lightweight attention module is used to optimize the multi-scale feature information as well as construct the matching cost volume of multi feature fusion.The matching cost information is aggregated by the 3D convolution neural network and stacked hourglass network, whereby the parallax map is generated by regression.The experimental results on KITTI2015 data set show that the false matching rate of this network is 2.12%.Compared with PSMNet, DISNetC, and PDSNet, the proposed method provides richer feature information in feature extraction and improves the effect of feature matching.
Key words: stereo matching    dense neural network    deep Convolutional Neural Network(CNN)    Deep Learning(DL)    attention mechanism    

开放科学(资源服务)标志码(OSID):

0 概述

人们主要利用视觉系统获取信息,即通过双眼将获得的特征信息传入到大脑并进一步感知与理解。随着深度学习的发展,传统机器学习方法难以满足现在的应用对精准度和速度的要求,因此以神经网络为主的深度学习方法成为主要发展方向[1]。计算机开始被用于模拟人们的双眼和大脑以感知世界,计算机视觉成为目前人工智能领域的研究热点。立体匹配是计算机视觉领域中的关键技术,其主要解决在两幅图像中真实场景点与投影点的对应问题,即参考图像中每个待匹配点在其匹配图像中准确地找出对应点,并计算对应点之间的距离,即视差。高效且准确的立体匹配算法对于许多需要快速、可靠响应的应用场景至关重要,例如机器人导航、增强现实、自动驾驶[2-3]等。

双目立体视觉技术更加适用于实际生产生活中三维物体信息的采集,具有广阔的发展空间和应用前景[4]。传统的立体匹配方法分为成本计算、成本聚合、视差计算和视差优化4个步骤[5]。文献[6-7]提出DispNet,利用端到端的方式训练网络,将立体匹配方法的4个步骤整合到1个网络中。文献[8]提出了GC-Net,使用3D卷积的方法获得更多的特征信息。首先从左右图像对中提取特征图,将左右特征图连接起来以形成一个用深度特征表示的匹配代价卷;然后将3D卷积神经网络应用于匹配代价卷,并使用回归的方式生成最终的视差图[9]。与2D卷积神经网络相比,3D卷积神经网络可以捕获更优的几何结构,并在3D空间中进行光度匹配,以减少因透视变换和遮挡导致图像失真情况的发生[10]。文献[11]使用编码-解码结构解决网络运算量过大的问题。DispNet通过一维相关性近似得到匹配代价,而GC-Net是使用3D卷积得到匹配代价,能够更充分地提取图像信息。文献[12]基于GC-Net提出PSMNet,该网络解决了GC-Net在特征提取上不足的问题,并将残差神经网络(ResNet)[13]作为特征提取部分的主要网络,进而利用SPP[14]模块提取多尺度信息,将不同分辨率的照片统一输出为同一尺寸的特征图,通过结合全局特征和局部特征来构建匹配代价卷。文献[15]在PSMNet基础上改进了堆叠沙漏结构,提出GWCNet,以增加沙漏结构的输出和特征信息的丰富度。

随着立体匹配研究的不断深入,网络的特征提取方法也越来越多。PSMNet[12]采用空间金字塔池化[14](Spatial Pyrmaind Pooling,SPP)模块提取特征,采用不同尺度和次级区域信息的分层全局池化,但降低了分辨率和感受野。文献[16]在ASPP模块的基础上结合稠密链接原理,提出了DenseASPP模块,通过稠密链接方式将不同扩张率得到的特征图连接起来,使得前面层的扩张率低,后面层的扩张率逐层增大,最终得到更大的感受野和更高精准度的视差图。使用空洞卷积方法的立体匹配网络在特征提取部分普遍采用SPP模块获得不同尺度的特征信息,但是该模块存在感受野不够大的问题,从而无法充分获取图像的特征信息。

近年来,注意力模型在卷积神经网络中得到广泛应用,文献[17]提出一个轻量的通用注意力模块CBAM,使用通道注意力模块和空间注意力模块优化特征,不仅保证了模块的独立性,而且将CBAM集成到已有的网络架构中。

本文结合注意力模型,提出一个多成本融合的立体匹配网络DCNet,以充分地提取图像特征信息。在特征提取部分中引入密集空洞卷积和空间金字塔池化提取多尺度特征信息,并使用轻量化注意力模块对其进行优化。同时采用3D卷积神经网络聚合特征信息,通过回归方式生成视差图。

1 DCNet网络

DCNet网络主要由多成本融合的特征提取模块和堆叠沙漏模块构成。DCNet网络结构如图 1所示,将原始RGB图片输入到特征提取网络,使用多成本融合特征提取模块来提取特征,通过扩大感受野形成更稠密的特征图,从而获得更多的特征信息,通过CBAM注意力模块优化提取出的特征,采用特征融合方法来构建匹配代价卷。在3D卷积神经网络中使用3个沙漏结构的3D卷积神经网络聚合特征信息,通过赋予权值的方法整合最终的特征点对应关系,最终使用回归的方法得出视差图。

Download:
图 1 DCNet网络结构 Fig. 1 Structure of DCNet network
1.1 密集特征提取网络 1.1.1 ResNet网络

ResNet[13]是一种深层残差卷积神经网络。随着网络深度的加深,特征信息的丰富程度增大,但是增加网络的层数存在梯度爆炸和梯度消失的问题,最终无法收敛,优化效果反而变差。为解决深层网络的退化问题,ResNet通过残差网络将浅层网络的输出跳跃连接到深层网络的输入中,残差网络的表示如式(1)所示:

$ F=F\left(X, {W}_{i}\right)+X $ (1)

式(1)是在恒等映射$ Y=X $的基础上改进得到的,当$ F\left(X\right)=0 $时即为恒等映射。

残差块结构如图 2所示。残差块包括浅层网络ResNet18、ResNet34和深层网络ResNet101、ResNet152等。

Download:
图 2 残差块结构 Fig. 2 Structure of residual block

ResNet通过学习残差$ F\left(X\right) $的方式解决了传统深层卷积网络梯度消失的问题,利用跳跃连接减少了参数量。但是ResNet仍存在一些不足,即当网络层数过多时会出现过拟合的情况,1 000层以上的网络相对于浅层网络的优化效果更差。

1.1.2 DenseNet网络

DenseNet[18]是一种深层的稠密卷积神经网络。受ResNet中跳跃连接思想的影响,DenseNet每一层都将前面所有层的输出作为其的输入。DenseNet网络结构如图 3所示,通过连接模块DenseBlock实现神经网络的密集连接,每个Block包含一定数量的神经元。

Download:
图 3 DenseNet网络结构 Fig. 3 Structure of DenseNet network

在DenseBlock中,每个神经元由BN(Batch Normalization)层、ReLU层和Conv(Convolution)层3个部分组成。由于每个神经元都与之前的神经元相连接,因此最终输出特征图的数量增多。在每两个Block之间添加一个卷积层和一个池化层,增加卷积层的作用是使用$ 1\times 1 $的卷积来降低特征图数量,从而减少网络开销。池化层能够减少输入到下一个Block中的特征图数量,达到改善网络参数量的效果。相比ResNet,DenseNet解决了梯度消失的问题并减少了参数量。

1.1.3 CBAM模块

CBAM是一种通用的轻量化注意力模块,其分为通道注意力模块和空间注意力模块2个部分[17]。CBAM模块结构如图 4所示。

Download:
图 4 CBAM模块结构 Fig. 4 Structure of CBAM module

在通道注意力模块中,将最大池化和平均池化并行链接相比于单一池化的方法可以有效减少信息的丢失。CBAM结合通道注意力模块和空间注意力模块,在两个子模块中通过与输入的特征相乘可以自适应地对特征进行优化。因此CBAM注意力模块可以直接集成到CNN中,与原网络一起进行端到端的训练。

1.1.4 多成本融合的特征提取模块

将SPP和基于ASPP改进的DenseASPP相连,利用CBAM注意力机制中的通道注意力模块和空间注意力模块对提取到的特征进行优化。多成本融合的特征提取模块结构如图 5所示,其中,C0是普通卷积,C1是使用残差块的卷积。将原始RGB图像输入到卷积模块中,其由3个卷积核为$ 3\times 3 $的卷积层组成,第1层C0_1步长为2,将图像尺寸缩小1/2,第2层C0_2和第3层C0_3步长均为1,第3层得到尺寸为$ H/2\times W/2\times 32 $的输出,这样可以保留更多的信息并输入到残差模块中。残差模块利用基本的残差块来提取一元特征,其由4个残差块组成:前2个模块C1_1C1_2分别为3个两层的残差块和16个两层的残差块,将特征图尺寸缩小到$ H/4\times W/4\times 64 $;后2个模块C1_3C1_4为使用空洞卷积的残差块,分别是扩张率为2的3个两层的残差块和扩张率为4的3个两层的残差块,在保持尺寸不变的前提下将通道数提高到128,得到$ H/4\times W/4\times 128 $的输出。

Download:
图 5 多成本融合的特征提取模块结构 Fig. 5 Structure of feature extraction module with multi-cost fusion

卷积块的扩张率越大,获得的感受野也就越大,扩张卷积模块的计算如式(2)所示:

$ {y}_{l}={H}_{k}, {d}_{l}\left(\right[{y}_{l-1}, {y}_{l-2}, \cdots , {y}_{0}\left]\right) $ (2)

其中:$ {d}_{l} $为第$ l $层的扩张率;$ [\cdots ] $为级联操作;$ [{y}_{l-1}, {y}_{l-2}, \cdots , $ $ {y}_{0}] $为连接之前卷积层的输出。

为更充分地提取特征信息,在本文提出的特征提取模块中将改进的DenseASPP模块和SPP模块并连,同时对C1_4模块得到的特征图进行特征提取,并与C1_2得到的特征图相连。由于DenseASPP采用的空洞卷积会对小物体的分割产生影响,因此将C1_2引入到匹配成本中可以减少小物体特征的损失,通过CBAM注意力模块对得到的特征图进行优化,并将优化过的特征图连接以组成匹配代价卷。

本文采用融合特征图的方法构造匹配代价卷,通过将左右图片生成的特征图相连接以得到一个4维的匹配代价卷(高度、宽度、视差、特征数量),并将其作为匹配代价聚合网络的输入,从而在匹配代价卷中保留更多的特征维度。

1.2 堆叠沙漏模块

在匹配代价聚合网络部分,本文在高度、宽度以及视差3个维度上利用3D CNN方法对匹配代价卷中的特征信息进行规则化。为解决3D CNN参数量过大的问题,GC-Net使用编码-解码的结构以减少参数量。

文献[11]提出了堆叠沙漏网络,通过下采样和上采样操作可以更好地混合全局和局部信息,将原始特征加入到上采样过程中,进而减少因上采样导致的特征损失。堆叠沙漏模块结构如图 6所示,c3通过下采样操作得到c4c6通过上采样操作扩大尺寸后与b3相连接组成c7b3作为c3的副本,使得c7的特征图保留了中间层的所有信息,且与c3具有相同尺寸。

Download:
图 6 堆叠沙漏模块结构 Fig. 6 Structure of stacked hourglass module

本文在图 1中用方框标记堆叠沙漏模块。堆叠的沙漏网络由3个主要的沙漏网络构成,每个沙漏网络生成的损失分别为L1L2L3。沙漏网络的输入经过上采样和回归得到的损失为L0,结合密集连接的思想将每个模块和之前模块的输出L0L1L2L3相连接,赋予4个不同的权值0.1、0.3、0.7、1,得到最终的损失是4个值的加权和。沙漏网络首先用两个模块进行下采样,每个模块包含一个步长为2的3D卷积层和一个步长为1的3D卷积层,然后使用两个步长为2的反卷积将特征卷恢复到原始尺寸$ D/4\times H/4\times W/4\times 32 $。沙漏网络通过反卷积方法进行上采样,使每个像素学习固定的上采样参数[19]

1.3 视差回归

本文利用回归方法建立视差图,预测视差$ d $是由成本$ {c}_{d} $通过Softmax方法计算得到:

$ \widehat{d}=\sum\limits _{d=0}^{D}{\rm{max}}\;d\times \sigma (-{c}_{d}) $ (3)

其中:$ \widehat{d} $为计算每个预测视差$ d $乘以其加权后的总和;$ \sigma (\cdot ) $为Softmax运算;$ {c}_{d} $为预测视差$ d $的成本。

1.4 损失函数

SmoothL1损失函数相比于L2损失函数具有对离群点和异常值不敏感的特点[20],且梯度变化相对较小,能够解决函数不光滑的问题,被广泛应用于目标检测领域。SmoothL1损失函数如式(4)、式(5)所示:

$ L\left(d, \widehat{d}\right)=\frac{1}{2}\sum\limits _{i=1}^{N}\mathrm{S}\mathrm{m}\mathrm{o}\mathrm{o}\mathrm{t}{\mathrm{h}}_{L1}\left({d}_{i}-{\widehat{d}}_{i}\right) $ (4)
$ \mathrm{S}\mathrm{m}\mathrm{o}\mathrm{o}\mathrm{t}{\mathrm{h}}_{L1}\left(x\right)=\left\{\begin{array}{l}0.5{x}^{2}, \left|x\right| < 1\\ \left|x\right|-0.5, \mathrm{其}\mathrm{他}\end{array}\right. $ (5)

其中:$ N $为标记像素的总数;$ {d}_{i} $为真实的视差值;$ \widehat{d} $为预测的视差值。

2 实验与结果分析 2.1 数据集

实验在SceneFlow、KITTI2015和KITTI2012这3个公开数据集上进行训练和测试。

SceneFlow数据集包含分辨率为960像素$ \times $540像素的35 454对训练图像和4 370对测试图像,包括FlyingThings、Monkaa、Driving3个部分。

KITTI2015数据集包含分辨率为$ 1\mathrm{ }241\mathrm{像}\mathrm{素}\times 375 $像素的200对训练图像和200对测试图像,其中训练图像包含视差信息,将测试图像上传到KITTI网站进行评测。在200对图像中,其中160对作为训练集,40对作为测试集。数据是在街道场景中使用汽车上的双目摄像头拍摄得到的图像,包括车辆、数目、车道、路标等公路场景。

KITTI2012数据集包含分辨率为$ 1\mathrm{ }226\mathrm{像}\mathrm{素}\times 370 $像素的194对训练图像和195对测试图像,其中训练图像包含视差的信息,将测试图像上传到KITTI网站进行评测。在训练图像中,160对作为训练集,34对作为测试集。

2.2 实验环境

实验环境为Linux系统,使用PyTorch深度学习框架。硬件配置为:内存128 GB,CPU为Inter® Xeon® Silver 4116 CPU @ 2.10 GHz,GPU为NVIDIA Tesla V100(16 GB)x2。

2.3 训练

网络模型使用Adam优化器,其参数为$ {\beta }_{1} $=0.9,$ {\beta }_{2} $=0.999。在预训练SceneFlow数据集上,训练图像被裁剪成512像素×256像素,迭代周期设置为10,学习率设置为0.001,最大视差设置为192,批量(batch_size)设置为8。

KITTI2015数据集在SceneFlow数据集训练结果的基础上进行优化训练,首先在SceneFlow数据集上进行预训练,然后在KITTI2015数据集上进一步优化,当图像裁剪成$ d $像素后,将其输入到网络,迭代周期(epoch)设置为1 000,其中前200个周期学习率为0.001,剩余周期学习率为0.000 1,批量(batch_size)设置为8。在KITTI2012在KITTI2015结果上进行优化训练,参数设置与KITTI2015相同。KITTI2015和KITTI2012的测试集分别在对应的模型上计算得到对应的视差图,并上传到KITTI网站进行评测。

2.4 实验对比

SceneFlow数据集的评价采用终点误差(End-Point Error,EPE)的方式衡量匹配的精准程度,误差越大则准确率越低。KITTI2015数据集的评价采用3像素误差(3px-Error)的方式表示匹配的精准程度,3像素误差是指视差的绝对值超过3像素的像素点占总像素点的比率,其值越高表示匹配效果越差,准确率越低。KITTI2015数据集测试结果由D1-bg、D1-fg和D1-ALL 3个部分组成,其值越低效果越好。KITTI2012数据集采用 > 2px、> 3px、> 5px以及Mean Error这4个指标评价匹配的精度程度。

2.4.1 特征提取模块对比

不同的特征提取方式不仅影响生成特征图的质量,而且影响最终生成视差图的准确性。实验以本文提出的网络为主干,在特征提取部分选用不同的特征提取模块进行对比,数据集采用KITTI 2015和SceneFlow,其中KITTI 2015是在SceneFlow的结果上进行训练得到的,目的是选取最优的特征提取模块。不同特征提取模块的误差对比如表 1所示。

下载CSV 表 1 不同特征提取模块的误差对比 Table 1 Errors comparison among different feature extraction modules

表 1可以看出,实验采用SPP模块、Dense ASPP模块和本文提出的多成本融合的特征提取模块3个模块进行对比,可以发现,通过扩大网络的感受野可以得到更充分的特征信息,进而降低误差。将DenseASPP和SPP相融合得到的多成本融合的特征提取模块提取图像特征,虽然增加了网络参数的数量,但能够降低网络误差。相比SPP和Dense ASPP模块,采用多成本融合的特征提取模块的网络误差较低,因此,在本网络的特征提取部分验证了多成本融合的特征提取模块的有效性。

2.4.2 堆叠沙漏模块输出权值对比

堆叠沙漏模块具有L0L1L2L3 4个输出,这4个输出的权值对深度图产生很大影响。为选择最优的权值,本文实验在SceneFlow数据集上对这4个输出的不同权重进行对比,如表 2所示。

下载CSV 表 2 堆叠沙漏模块输出权值对比 Table 2 Output weights comparison of stacked hourglass modules

由于每个沙漏模块都包含上一个模块的特征信息,因此第3个沙漏模块中的信息含量达到最大。从表 2可以看出,随着L0L1L2权值的增加,终点误差逐渐减小,说明L0L1L2中的信息能够有效提高预测深度图的准确度。当L0L1L2L3权值为0.1、0.3、0.7、1.0时终点误差为0.89;当L0L1L2继续增大时,终点误差反而逐渐增大,这说明深层沙漏模块的输出包含更多有效信息,需要较大比重的权值。

2.4.3 消融实验

为选择最优的网络整体结构,本文对网络中的各个模块进行消融实验。本节将多成本融合模块简写为MIM,具有权值的堆叠沙漏模块简写为SH_W,没有权值的堆叠沙漏模块简写为SH。

从特征提取模块实验中可以得出,本文提出的MIM具有较优的特征提取性能,因此,将MIM作为基础特征提取方法。训练集采用KITTI2015数据集,不同模块的3像素误差对比如表 3所示。

下载CSV 表 3 不同模块的3像素误差对比 Table 3 3-px error comparison among different modules  

表 3可以看出,使用MIM、CBAM和SH_W模块的3像素误差较低,其具有最优的网络结构。相比仅使用MIM和SH_W的网络,3像素误差降低了0.14个百分点。使用SH_W、CBAM和MIM模块的误差为2.02,相比仅MIM和CBAM、SH网络的误差降低了0.02个百分点,说明CBAM和带有权值的堆叠沙漏模块可以有效提高网络的视差预测精度。

2.4.4 其他网络对比

为验证网络的整体性能,本文使用经典网络PSMNet、AANet和ResNet-101[21]进行对比实验,在KITTI 2015和SceneFlow数据集上分析4个网络评价指标的差异,其中KITTI 2015是在SceneFlow的结果上进行优化训练。不同网络的评价指标对比如表 4所示,加粗表示最优数据。

下载CSV 表 4 不同网络的评价指标对比 Table 4 Evaluation indexs comparison among different networks

表 4可以看出,本文所提DCNet网络的准确度最高,其相较于PSMNet在KITTI2015数据集3像素误差减小了0.31个百分点,SceneFlow终点误差下降了0.13个百分点。本文使用多成本融合的特征提取模块,增加了特征图包含的特征信息,能够有效提高网络的精确度,且其在3像素误差和终点误差中的结果优于仅使用SPP模块。

在KITTI2015数据集上不同网络的背景区域内的异常值百分比D1-bg、前景区域内的异常值百分比D1-fg和D1-all对比如表 5所示,相比主流网络,DCNet的D1-bg和D1-fg均减少,其中在D1-fg相较于PSMNet降低了10.17%。

下载CSV 表 5 在KITTI2015数据集上不同网络的实验结果对比 Table 5 Experimental results comparison among different networks on the KITTI2015 data set  

在KITTI2012数据集上不同网络的实验结果对比如表 6所示,Noc是指非遮挡区域,即匹配的区域对应关系在图片域内,All是指所有区域。DCNet网络在 > 2px、> 3px、> 5px以及Mean Error 4个指标中均优于GCNet、PSMNet、AANet等先进匹配网络。与在特征提取和3D卷积均使用注意力机制的MGNet[22]相比,DCNet在 > 3px、> 5px的误匹配率中的指标较高,这说明在特征提取过程中,本文使用的多成本融合模块能够提取更丰富的特征信息。

下载CSV 表 6 在KITTI 2012数据集上不同网络的实验结果对比 Table 6 Experimental results comparison among different networks on the KITTI2012 data set  

图 7为PSMNet、GC-Net和DCNet网络在KITTI2015测试集上的部分视差图、原图和误差图,所有图片均取自于KITTI测试服务器反馈的结果。图中视差预测效果较差的部分用黑色框标记,其通常出现在栅栏、标识等包含较小结构的图像部分。DCNet使用了多成本融合的提取模块,结合SPP和DenseASPP的优点提取图像的特征信息,利用注意力模块进一步优化得到的特征信息。相比使用SPP模块的PSMNet,DCNet可以得到包含更多特征信息的特征图,进而提升网络预测的视差图精准度。从图 7可以看出,DCNet能够提高在电线杆、阴影部分等区域的匹配精准度,尤其是在小物体的边缘区域。

Download:
图 7 在KITTI2015测试集上不同网络的视差图与误差图对比 Fig. 7 Disparity images and error image comparison among different networks on the KITTI2015 test data

图 8为PSMNet、GC-Net和DCNet在KITTI2012测试集上的部分视差图、原图和误差图,使用黑色方框标记了视差预测效果较差的部分,所有图片取自于KITTI测试服务器反馈的结果。从图 8可以看出,在KITTI2012测试集中,DCNet网络在栏杆、路灯等物体中具有较优的匹配精准度,说明使用注意力模块和多成本融合的特征提取方法能够完整地提取细小物体的特征信息。

Download:
图 8 在KITTI2012测试集上不同网络的视差图对比 Fig. 8 Disparity images and error image comparison among different networks on the KITTI2012 test data

图 9为DCNet在ScnenFlow测试集上的部分原图、真实视差图以及DCNet预测视差图。从图 9可以看出,DCNet预测视差图与真实视差图在复杂纹理部分均有较优的匹配效果,这说明DCNet网络的性能较优。

Download:
图 9 DCNet的视差图 Fig. 9 Disparity image of DCNet
3 结束语

本文构建一个多成本融合的立体匹配网络DCNet,利用基于DenseASPP和SPP的特征提取网络提取较多的特征信息,通过引入轻量化注意力模块对提取的特征进行优化,并融合左右特征图形成匹配代价卷,通过3D卷积神经网络聚合特征信息,以回归的方式生成视差图。实验结果表明,与PSMNet、GC-Net、AANet等网络相比,DCNet网络具有较高的精确度,能够改进对于格栅、电线杆等区域的匹配效果。DCNet网络在纹理重复密集区域的匹配效果较差,因为使用3D卷积神经网络导致网络参数较多,且训练时间较长。后续将在保证精确度不变的前提下减少网络参数量,提高网络的匹配效率,构造一个轻量化的立体匹配网络。

参考文献
[1]
宋宇鹏, 边继龙, 安翔, 等. 基于注意力机制的DenseNet模型的树种识别应用[J]. 实验室研究与探索, 2020, 39(7): 127-132, 178.
SONG Y P, BIAN J L, AN X, et al. Application of tree species recognition based on attention mechanism DenseNet model[J]. Laboratory Research and Exploration, 2020, 39(7): 127-132, 178. (in Chinese)
[2]
XU H F, ZHANG J Y. AANet: adaptive aggregation network for efficient stereo matching[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 1-10.
[3]
齐永锋, 马中玉. 基于深度残差网络的多损失头部姿态估计[J]. 计算机工程, 2020, 46(12): 247-253.
QI Y F, MA Z Y. Multi-loss head pose estimation based on deep residual network[J]. Computer Engineering, 2020, 46(12): 247-253. (in Chinese)
[4]
LIU Z Z, CHEN T D. Distance measurement system based on binocular stereo vision[C]//Proceedings of International Joint Conference on Artificial Intelligence. Washington D.C., USA: IEEE Press, 2009: 1-10.
[5]
SCHARSTEIN D, SZELISKI R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms[J]. International Journal of Computer Vision, 2002, 47(1): 7-42.
[6]
SONG X, ZHAO X, FANG L J, et al. Edgestereo: an effective multi-task learning network for stereo matching and edge detection[J]. International Journal of Computer Vision, 2020, 128(5): 910-930.
[7]
MAYER N, ILG E, HAUSSER P, et al. A large dataset to train convolutional networks for disparity, optical flow, and scene flow estimation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 1-10.
[8]
KENDALL A, MARTIROSYAN H, DASGUPTA S, et al. End-to-end learning of geometry and context for deep stereo regression[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 1-10.
[9]
GU X D, FAN Z W, ZHU S Y, et al. Cascade cost volume for high-resolution multi-view stereo and stereo matching[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 1-11.
[10]
CHEN R, HAN S F, XU J, et al. Visibility-aware point-based multi-view stereo network[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(10): 3695-3708. DOI:10.1109/TPAMI.2020.2988729
[11]
NEWELL A, YANG K Y, JIA D. Stacked hourglass networks for human pose estimation[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 483-499.
[12]
CHANG J R, CHEN Y S. Pyramid stereo matching network[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 1-10.
[13]
HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 1-10.
[14]
HE K M, ZHANG X Y, REN S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 37(9): 1904-1916.
[15]
GUO X Y, YANG K, YANG W K, et al. Group-wise correlation stereo network[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 1-10.
[16]
YANG M K, YU K, ZHANG C, et al. DenseASPP for semantic segmentation in street scenes[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 1-11.
[17]
WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2018: 3-19.
[18]
贾瑞明, 李阳, 李彤, 等. 多层级特征融合结构的单目图像深度估计网络[J]. 计算机工程, 2020, 46(12): 207-214.
JIA R M, LI Y, LI T, et al. Monocular image depth estimation network based on multi-level feature fusion structure[J]. Computer Engineering, 2020, 46(12): 207-214. (in Chinese)
[19]
HUANG G, LIU Z, LAURENS V, et al. Densely connected convolutional networks[C]//Proceedings of IEEE Computer Society. Washington D.C., USA: IEEE Press, 2016: 1-12.
[20]
CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional Nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848. DOI:10.1109/TPAMI.2017.2699184
[21]
GIRSHICK R. Fast R-CNN[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2015: 1-12.
[22]
杨蕙同, 雷亮, 林永春. 基于多尺度注意力特征融合的双目深度估计算法[J/OL]. 激光与光电子学进展: 1-10[2021-06-20]. http://kns.cnkinet/kcms/detail/31.1690.TN.20210802.1731.080.html.
YANG H T, LEI L, LIN Y C. Binocular depth estimation algorithm based on multi-scale attention feature fusion[J/OL]. Laser & Optoelectronics Progress: HO[2021-06-20]. http://kns.cnkinet/kcms/detail/31.1690.TN.20210802.1731.080.html. (in Chinese)