2. 上海市信息安全综合管理技术研究重点实验室, 上海 200240
2. Shanghai Key Laboratory of Integrated Administration Technologies for Information Security, Shanghai 200240, China
开放科学(资源服务)标志码(OSID):
三维目标检测广泛应用于自动驾驶[1]、增强现实[2]和机器人控制[3-4]领域中。三维目标检测算法根据输入形式的不同,分为基于图像、基于多传感器融合和基于点云的三维目标检测算法。
基于图像的三维目标检测算法根据输入RGB图像中2D/3D约束、关键点和形状,通过推理目标几何关系解决图像深度信息缺失的问题。文献[5]利用单支路网络检测三维框的多个角点以重构三维中心点,通过二分支关键点检测网络锐化目标辨识能力。文献[6]考虑到2D投影中的几何推理和未观察到深度信息的维度,通过单目RGB图像预测3D对象定位。文献[7]通过视觉深度估计方法从图像中估计像素深度,并将得到的像素深度反投影为3D点云,利用基于雷达的检测方法进行检测。文献[8]基于左右目视图的潜在关键点构建左右视图关键点一致性损失函数,以提高选取潜在关键点的位置精度,从而提高车辆的检测准确性。
多传感器融合通常将多个传感器获取的特征进行融合。文献[9]提出在两个连续的步骤中检测目标,基于摄像机图像生成区域建议,通过处理感兴趣区域中的激光雷达点以检测目标。文献[10]提出引导式图像融合模块,以基于点的方式建立原始点云数据与相机图像之间的对应关系,并自适应地估计图像语义特征的重要性。这种方式根据高分辨率的图像特征来增强点特征,同时抑制干扰图像的特征。文献[11]结合点云的深度信息与毫米波雷达输出确定目标的优势,采用量纲归一化方法对点云进行预处理,并利用处理后的点云生成特征图。文献[12]基于二维候选区域中的像素过滤激光点云,生成视锥点云,以加快检测速度。
基于点云的检测算法仅通过输入点云学习特征,在检测网络中回归目标类别和包围框[13]。文献[14]将点云编码为体素,采用堆叠体素特征编码层来提取体素特征。文献[15]通过立柱特征网络将点云处理成伪图像,并消除耗时的3D卷积运算,使得检测速度显著提升。文献[16]将点云编码到一个固定半径的近邻图中,并设计图神经网络,以预测类别和图中每个顶点所属的对象形状。文献[17]利用三维区域生成网络,将多视图生成器模块生成的多角度点云伪图像重新校准与融合,并根据提取的语义特征进行最终的点云目标分类和最优外接包围框回归。
基于图像的三维目标检测算法无法提供可靠的三维几何信息;基于多传感器融合的三维目标检测算法输入数据较多,需要较高的算力和较复杂的特征处理与融合算法;点云数据通常极其稀疏,受噪点影响比较大,基于点云的三维目标检测算法鲁棒性较差。因此,在点云稀疏条件下提升检测精度和算法鲁棒性具有一定必要性。
本文提出基于稀疏Transformer的雷达点云三维目标检测算法。构建稀疏Transformer模块并将其应用于三维目标检测领域中,通过显式选择Top-t个权重元素,以排除对注意力干扰性较高的权重元素,从而提高检测精度。设计一种粗回归模块,将粗回归模块生成的边界框作为检测头模块的初始锚框,使检测结果生成的边界框更加精细。在此基础上,设计基于体素三维目标检测算法的损失函数,以优化检测结果。
1 网络模型本文基于PointPillars在点云特征处理阶段的良好性能,延用了点云特征处理模块和2D卷积模块,并增加了稀疏Transformer模块和粗回归模块,在回归阶段使用通用的SSD[18]检测头作为检测模块。本文网络结构如图 1所示。
![]() |
Download:
|
图 1 本文网络结构 Fig. 1 Structure of the proposed network |
首先,将一帧点云图像输入到点云特征处理模块中,由该模块将点云图像划分为H×W的立柱,并对立柱中的点进行采样;然后,经过Pillar特征网络进行特征学习和特征展开,输出尺寸为(C,H,W)的伪图像,将该伪图像分别送入到2D卷积模块,经过卷积操作分别产生尺寸为(C,H/2,W/2)、(2C,H/4,W/4)和(4C,H/8,W/8)的特征,通过反卷积操作生成3个尺寸为(2C,H/2,W/2)的特征后,再将这3个特征相连接,输出尺寸为(6C,H/2,W/2)的空间特征;最后,将空间特征送入到粗回归模块,在该模块的区域建议网络(Region Proposal Network,RPN)回归粗略类别和坐标的同时,另一个分支经过卷积操作输出尺寸为(2C,H/2,W/2)的新空间特征。与此同时,本文将Pillar特征网络中伪图像的特征展开为(H×W)×C的序列形式,输入到稀疏Transformer模块,并根据原始位置对该模块输出的序列特征嵌入重新组合成伪图像特征,进行一次卷积操作,输出尺寸为(2C,H/2,W/2)的稀疏上下文特征。本文将得到的新空间特征与稀疏上下文特征连接后输入到检测模块,在粗回归模块提供的粗略锚框坐标的辅助下更精确地回归目标物体的坐标。
1.1 稀疏Transformer模块基于自注意力的Transformer[19]在一些自然语言处理和二维目标检测任务中具有较优的性能。自注意力能够模拟长期的依赖关系,但易受上下文中无关信息的影响。为解决该问题,本文引入稀疏Transformer模块[20]。稀疏Transformer模块通过显式选择最相关的片段来提高对全局上下文的关注,增强模型的鲁棒性。
稀疏Transformer模块是基于Transformer架构,通过Top-t选择将注意力退化为稀疏注意力,有助于保留注意力的成分,而去除其他无关的信息。本文提出的稀疏Transformer模块中注意力可以集中在最有贡献的元素上。这种选择方法在保留重要信息和去除噪声方面具有有效性。稀疏Transformer模块结构如图 2所示。
![]() |
Download:
|
图 2 稀疏Transformer模块结构 Fig. 2 Structure of sparse Transformer module |
对于单头自注意力,将点柱特征
P=WPx,P∈(Q,K,V) | (1) |
其中:
S=QKT√d | (2) |
由注意力机制可知,注意力得分
SSA(S,t)={Sij,Sij≥ti−∞,Sij<ti | (3) |
稀疏注意力模块的输出计算过程如式(4)所示:
A(Q,K,V)=softmax(SSA(S,t))V | (4) |
本文使用多头注意力机制将特征映射到不同的特征空间,以学习不同子空间的相关特征。不同的注意力头可以独立地进行特征学习,互不干扰。最后,将每个头部的结果拼接再进行一次线性变换得到的值作为多头注意力的结果。将结果与点柱特征
本文使用一个粗回归模块,该模块有两个分支,卷积分支用于调整特征尺度,RPN分支用于粗略回归目标类别和边界框,回归结果用于指导后续检测头进行精细回归操作。粗回归模块结构如图 3所示。
![]() |
Download:
|
图 3 粗回归模块结构 Fig. 3 Structure of coarse regression module |
从图 3可以看出,空间特征是骨干网络进行多尺度特征串联后得到的特征,特征大小为(6C,H/2,W/2),该骨干网络与PointPillars算法中的骨干网络相同。在卷积分支中主要进行
本文在SECOND[22]损失函数的基础上提出一种新的损失函数,以更好地优化粗回归和检测头模块。真值框和锚框由
{Δx=xgt−xada,Δy=ygt−yada,Δz=zgt−zahaΔw=logawgtwa,Δl=logalgtla,Δh=logahgthaΔθ=θgt−θa,da=√w2a+l2a | (5) |
其中:gt表示真值框;a表示锚框。位置回归损失函数如式(6)所示:
Lloc=∑p∈(x,y,z,w,l,h)SmoothL1(Δprep−Δgtp)+ SmoothL1(sin(Δpreθ−Δgtθ)) | (6) |
其中:pre表示预测值。对于角度回归,这种减少角度损失的方法解决了0和π方向的冲突问题。为解决该损失函数将方向相反的边界框视为相同的问题,本文在离散方向上使用交叉熵损失函数,使网络能够区分目标的正反方向。方向分类损失函数定义为
Lcls=−α(1−pa)γlogapa | (7) |
其中:
该检测网络总的损失函数如式(8)所示:
Ltotal=βclsLCcls+βlocNCposLCloc+βdirLCdir+ λ(βclsLDcls+βlocNDposLDloc+βdirLDdir) | (8) |
其中:上标C和D分别表示粗回归模块和检测头模块;
本文在KITTI数据集上进行实验,该自动驾驶数据集是目前在三维目标检测和分割领域中使用最广泛的数据集。该数据集包含7 481个训练样本,本文按大约1∶1的比例将训练样本分为训练集和测试集,其中训练集包含3 712个样本数据,测试集包含3 769个样本数据。本文在测试集上对模型训练的汽车、行人和骑行者这3个类别进行评估。对于每个类别,本文根据3D对象的大小和遮挡程度分为简单、中等、困难3个级别。平均精度均值(mean Average Precision,mAP)作为实验结果的评估度量。本文采用官方评估建议,将汽车的交并比(Intersection Over Union,IOU)阈值设置为0.7,将行人和骑行者的IOU阈值设置为0.5。
2.2 实验环境与对比实验本文实验的模型训练部分选用的设备信息:一台运行系统为Ubuntu18.04、显卡为NVIDIA RTX 8000的服务器,算法由python3.7和pytorch1.4框架实现,使用Adam优化器训练100轮,批尺寸设置为6,学习率设置为0.003。
不同算法的三维检测结果对比如图 4所示,检测的阈值均设置为0.5。在场景1中,PointPillars存在不同程度的误检,将环境中的噪点或者路灯杆检测为行人或骑行者。在场景2中,PointPillars仍存在不同程度的误检和漏检,将道闸的立柱检测为行人,把并排行走或靠近的两个人检测为一个人。
![]() |
Download:
|
图 4 不同算法的三维检测结果对比 Fig. 4 Three-dimensional detection results comparison among different algorithms |
鸟瞰视角下不同算法的检测结果对比如图 5所示,图中边为白色的矩形框说明预测的边界框与实际真值框未完全重合。
![]() |
Download:
|
图 5 鸟瞰视角下不同算法的检测结果对比 Fig. 5 Detection results comparison among different algorithms from aerial view |
本文选择VoxelNet、SECOND、PointPillars、3D-GIoU[23]、
![]() |
下载CSV 表 1 在汽车类别下不同算法的mAP对比 Table 1 mAP comparison among different algorithms under car category |
![]() |
下载CSV 表 2 在行人类别下不同算法的mAP对比 Table 2 mAP comparison among different algorithms under pedestrian category |
![]() |
下载CSV 表 3 在骑行者类别下不同算法的mAP对比 Table 3 mAP comparison among different algorithms under cyclist category |
本文算法与现有执行速度表现优异算法的推理速度对比如表 4所示。从表 4可以看出,本文算法在提高平均精度均值的同时,推理速度平均加快了0.535 8 frame/s。
![]() |
下载CSV 表 4 不同算法的推理速度对比 Table 4 Inference speed comparison among different algorithms |
由于注意力矩阵
![]() |
Download:
|
图 6 在汽车类别下本文算法的实验结果 Fig. 6 Experimental results of the proposed algorithm under the car category |
从图 6可以看出,随着k值的增加,mAP逐渐升高,当k=0.3时,mAP达到最高,然后开始大幅度降低。其原因为本文的稀疏注意力模块对特征学习和去除噪点是有效的。在k=0.3之前,原始的注意力同样会注意到除目标以外的无关成分,对检测难度为中等和困难的目标产生的影响较大。在k=0.3之后,由于过多地过滤了目标的有用特征,因此检测精度明显下降。虽然稀疏注意力模块对检测精度的提升幅度比较微小,但是对推理速度的提升却十分显著。从图 6(d)可以看出,相较于原始的Transformer,当k=0.3时,本文算法的平均推理速度加快了约0.54 frame/s。
2.3.2 稀疏Transformer模块的作用由于在KITTI数据集中噪点数目无法得知,因此本文在每个目标物的真值框内添加相同数量的噪点,模拟实际场景中噪点对模型的负影响,以测试该模块对模型鲁棒性和检测精度的贡献。基于2.3.1节的实验结果,本文将
![]() |
下载CSV 表 5 在不同噪点数量下PointPillars和本文算法的mAP对比 Table 5 mAP comparison among PointPillars and the proposed algorithms with different number of noises |
在不改动其余模块的情况下,本文去掉粗回归模块的回归分支,以验证粗回归模块的有效性。本文算法1不包含粗回归模块,本文算法2包含粗回归模块。本文算法在KITTI测试集上汽车、行人和骑行者类别下的实验结果分别如表 6、表 7和表 8所示。从表中可以看出,相比不包含粗回归模块算法的测试结果,在不同检测难度下有粗回归模块算法的mAP分别提升了0.61、1.01和0.95个百分点。因此,包含粗回归模块的算法能够更精确地回归目标物体的坐标。
![]() |
下载CSV 表 6 在汽车类别下粗回归模块对检测精度的影响 Table 6 Influence of coarse regression module on detection accuracy under car category |
![]() |
下载CSV 表 7 在行人类别下粗回归模块对检测精度的影响 Table 7 Influence of coarse regression module on detection accuracy under pedestrian category |
![]() |
下载CSV 表 8 在骑行者类别下粗回归模块对检测精度的影响 Table 8 Influence of coarse regression module on detection accuracy under cyclist category |
本文提出基于稀疏Transformer的点云三维目标检测算法。通过稀疏Transformer模块显示选择与注意力相关的信息,以学习点云的全局上下文特征,从而提高模型的精确度。设计基于空间特征的粗回归模块,将其生成的初始锚框作为后续回归精确操作的边界框。在KITTI数据集上的实验结果表明,本文算法具有较优的检测精度和鲁棒性。下一步将在点云处理阶段引入点云关键点的采样信息,结合基于关键点和基于体素点云处理算法的优点,设计一种融合特征提取与体素关键点的目标检测算法,以扩大检测网络的感受野并提高定位精度。
[1] |
刘丹, 马世霞. 融合超像素3D与Appearance特征的可行驶区域检测[J]. 计算机工程, 2017, 43(7): 293-297. LIU D, MA S X. Travelable area detection fusing superpixel 3D and apperance feature[J]. Computer Engineering, 2017, 43(7): 293-297. (in Chinese) |
[2] |
PARK Y, LEPETIT V, WOO W. Multiple 3D object tracking for augmented reality[C]//Proceedings of the 7th International Symposium on Mixed and Augmented Reality. Washington D. C., USA: IEEE Press, 2008: 117-120.
|
[3] |
葛俊彦, 史金龙, 周志强, 等. 基于三维检测网络的机器人抓取方法[J]. 仪器仪表学报, 2021, 41(8): 146-153. GE J Y, SHI J L, ZHOU Z Q, et al. A robotic grasping method based on three-dimensional detection network[J]. Chinese Journal of Scientific Instrument, 2021, 41(8): 146-153. (in Chinese) |
[4] |
方海国. 基于深度学习的3D目标检测与抓取研究[D]. 湘潭: 湘潭大学, 2020. FANG H G. Research on 3D object detection and grasping technology based on deep learning[D]. Xiangtan: Xiangtan University, 2020. (in Chinese) |
[5] |
迟旭然, 裴伟, 朱永英, 等. Fast Stereo-RCNN三维目标检测算法[J]. 小型微型计算机系统, 2022, 43(10): 2157-2167. CHI X R, PEI W, ZHU Y Y, et al. Fast Stereo-RCNN 3D target detection algorithm[J]. Journal of Chinese Computer Systems, 2022, 43(10): 2157-2167. (in Chinese) |
[6] |
QIN Z Y, WANG J L, LU Y. MonoGRNet: a geometric reasoning network for monocular 3D object localization[EB/OL]. [2021-07-20]. https://arxiv.org/pdf/1811.10247.pdf.
|
[7] |
WANG Y, CHAO W L, GARG D, et al. Pseudo-LiDAR from visual depth estimation: bridging the gap in 3D object detection for autonomous driving[C]//Proceedings of Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2019: 8437-8445.
|
[8] |
于洁潇, 张美琪, 苏育挺. 基于双目视觉的三维车辆检测算法[J]. 激光与光电子学进展, 2021, 58(2): 301-306. YU J X, ZHANG M Q, SU Y T. Three-dimensional vehicle detection algorithm based on binocular vision[J]. Laser & Optoelectronics Progress, 2021, 58(2): 301-306. (in Chinese) |
[9] |
SHIN K, KWON Y P, TOMIZUKA M. RoarNet: a robust 3D object detection based on region approximation refinement[C]//Proceedings of Intelligent Vehicles Symposium. Washington D. C., USA: IEEE Press, 2019: 2510-2515.
|
[10] |
HUANG T T, LIU Z, CHEN X W, et al. EPNet: enhancing point features with image semantics for 3D object detection[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2020: 35-52.
|
[11] |
王海, 刘明亮, 蔡英凤, 等. 基于激光雷达与毫米波雷达融合的车辆目标检测算法[J]. 江苏大学学报(自然科学版), 2021, 42(4): 389-394. WANG H, LIU M L, CAI Y F, et al. Vehicle target detection algorithm based on fusion of lidar and millimeter wave radar[J]. Journal of Jiangsu University (Natural Science Edition), 2021, 42(4): 389-394. (in Chinese) |
[12] |
江泽宇, 赵芸. 基于边缘卷积的三维目标识别算法[J]. 浙江科技学院学报, 2021, 33(3): 214-219. JIANG Z Y, ZHAO Y. 3D target recognition algorithm based on edge convolution[J]. Journal of Zhejiang University of Science and Technology, 2021, 33(3): 214-219. (in Chinese) |
[13] |
刘高天, 段锦, 范祺, 等. 基于改进RFBNet算法的遥感图像目标检测[J]. 吉林大学学报(理学版), 2021, 59(5): 1188-1198. LIU G T, DUAN J, FAN Q, et al. Target detection for remote sensing image based on improved RFBNet algorithm[J]. Journal of Jilin University(Science Edition), 2021, 59(5): 1188-1198. (in Chinese) |
[14] |
ZHOU Y, TUZEL O. VoxelNet: end-to-end learning for point cloud based 3D object detection[C]//Proceedings of Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2018: 4490-4499.
|
[15] |
LANG A H, VORA S, CAESAR H, et al. PointPillars: fast encoders for object detection from point clouds[C]//Proceedings of Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2019: 12689-12697.
|
[16] |
SHI W J, RAJKUMAR R. Point-GNN: graph neural network for 3D object detection in a point cloud[C]//Proceedings of Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2020: 1708-1716.
|
[17] |
杨永光. 基于点云的目标检测方法研究[D]. 南京: 南京邮电大学, 2020. YANG Y G. Research on point cloud based on object detection algorithm[D]. Nanjing: Nanjing University of Posts and Telecommunications, 2020. (in Chinese) |
[18] |
BERG A C, FU C Y, SZEGEDY C, et al. SSD: single shot multi-box detector[C]//Proceedings of the European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 21-37.
|
[19] |
VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. New York, USA: ACM Press, 2017: 6000-6010.
|
[20] |
ZHAO G X, LIN J Y, ZHANG Z Y, et al. Sparse Transformer: concentrated attention through explicit selection[EB/OL]. [2021-07-20]. https://arxiv.org/abs/1912.11637.
|
[21] |
BA J L, KIROS J R, HINTON G E. Layer normalization[EB/OL]. [2021-07-20]. https://arxiv.org/pdf/1607.06450.pdf.
|
[22] |
YAN Y, MAO Y, LI B. SECOND: sparsely embedded convolutional detection[J]. Sensors, 2018, 18(10): 3337. |
[23] |
XU J, MA Y X, HE S H, et al. 3D-GIoU: 3D generalized intersection over union for object detection in point cloud[J]. Sensors, 2019, 19(19): 4093-4108. |
[24] |
SHI S S, WANG Z, SHI J P, et al. From points to parts: 3D object detection from point cloud with part-aware and part-aggregation network[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(6): 836-842. |
[25] |
SHI S S, WANG X G, LI H S. PointRCNN: 3D object proposal generation and detection from point cloud[C]//Proceedings of Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2019: 770-779.
|
[26] |
LIU Z, ZHAO X, HUANG T T, et al. TANet: robust 3D object detection from point clouds with triple attention[C]//Proceedings of the 24th AAAI Conference on Artificial Intelligence. New York, USA: AAAI Press, 2020: 11677-11684.
|