开放科学(资源服务)标志码(OSID):
随着机器人场景感知实时性、精细程度、感知范围等性能的提高,点云数据可直接用于描述点的位置信息,使得目标位置估计的准确性和鲁棒性得到提高[1],因此,点云数据在环境感知中被广泛应用。其中,对大型场景点云进行语义分割是机器人理解环境并进行进一步加工处理的前提[2]。点云语义分割是指给点云中的每个点赋予特定的语义标签,以帮助机器人更好更快地定位建图或进行目标识别[3]。随着深度相机、激光雷达设备的更新迭代,点云数据的获取更加快速准确,所得点云规模更加庞大,而传统点云分割方法处理效率也逐渐降低。
2017年,CHARLES等[4]提出PointNet网络,该网络借助深度学习提取点云特征,形成了点云语义分割网络。PointNet可以高效地提取点云的全局特征,但在提取局部特征时效果较差。为了学习更丰富的局部结构,针对点云特征提取问题,有研究人员提出了新的神经网络模块,设计出改进的点云语义分割方法,这些方法大致可分为3类,分别为关键点邻域点云特征聚合法[5]、基于图神经网络的点云特征提取法[6]、基于内核卷积的特征提取方法[7]。上述方法首先在原始点云中选取关键点并通过邻域采样得到关键点周围固定半径内的球形点云集,然后通过图卷积或其他内核提取点云集特征,最终通过点附近点云集特征聚合得到点云中每个点的语义特征。这些方法提升了网络对点云局部特征的提取能力,但大都只能处理数量少、尺度小的点云[8-9],在处理多目标复杂点云时精度和效率无法保证。有研究人员提出可以处理复杂点云分割任务的网络,如PCT[10]结合体素化和点级网络来处理大型点云,SPG[11]在进行神经网络学习前将大型点云投影为图像进行预处理。这两类网络分割精度较高,但预处理和网络计算耗时很大,无法在实时应用程序中进行部署。
对于点云聚合类的方法,需要非均匀采样得到点云中的关键点,并在邻域内搜索相邻点形成点云集,在处理大型点云时需要较高的计算成本;现有的局部特征学习网络大多依赖感受野大小有限的核化或图形构造,无法高效地捕获复杂结构,需要对关键点特征进行多次聚合,提高了网络计算成本。
为了提升大型场景点云的语义分割效率,本文对特征聚合方法进行优化。在点云分割时采用计算复杂度更低的方形网格分割方法,同时设计针对点云区块的特征融合和语义分割网络,将点云分割尺寸作为神经网络的优化参数,使得网络更好地提取点云特征。在此基础上,使用公开数据集从分割速度和精度2个方面对所提方法的性能进行实验验证。
1 基于区块特征融合的点云语义分割网络 1.1 网络结构设计基于区块特征融合的点云语义分割网络(Block Feature Fusion Net,BFF-Net)主要关注大型复杂场景,采用区块分割的预处理方法,将分割得到的点云区块输入单独设计的区块点云语义分割网络,使用区块间特征融合的方式提取大型点云特征。
如图 1所示,BFF-Net的输入为点云数据,点云总点数为N,每个点由直角坐标系下的X-Y-Z坐标描述,形成N×3的输入矩阵。首先对点云进行方形网格分割得到点云区块集,然后对相邻区点云块采样、坐标变换、组合后得到多个组合区块,从而完成点云预处理。在对每个区块进行语义分割时,将包含目标区块的组合区块点云数据输入到点云区块特征融合网络(Block Feature Net,BFN)中,得到目标区块的全局特征修正向量。将目标区块的点云数据和全局特征修正向量输入到点云语义分割网络并以残差[12]的方式融合得到目标区块点云每个点的语义分类结果。对每个区块重复以上操作即可完成大型场景点云语义分割任务。
![]() |
Download:
|
图 1 基于区块特征融合的点云语义分割网络结构 Fig. 1 The structure of point cloud semantic segmentation network based on block feature fusion |
原始点云数据在输入网络计算前需要方形网格分割、组合、坐标变换预处理,最后得到分别用于点云特征融合和语义回归网络的两组点云集。点云预处理过程如图 2所示。
![]() |
Download:
|
图 2 点云预处理过程 Fig. 2 Point cloud preprocessing process |
点云预处理的具体过程如下:
1)点云区块分割
在点云分割时,将原始点云P向地面投影,用方形网格分割点云P,方形网格中正方形边长为d。点云P被划分到
$ {m}_{1}=l\cdot w $ | (1) |
其中:
2)点云区块组合
为了提取融合不同区块点云的特征,需要组合点云区块。在组合前,对每个点云区块中的点云随机采样[5],采样点数量为
$ {m}_{2}=\left(l-2\right)\cdot \left(w-2\right) $ | (2) |
3)点云区块坐标变换
在进行单个区块点云的语义分割前需要将坐标原点移至区块和组合区块的中心:
$ {\boldsymbol{p}}_{i}^{\text{'}}={\boldsymbol{p}}_{i}-{\boldsymbol{p}}_{\mathrm{m}\mathrm{i}\mathrm{d}} $ | (3) |
其中:
点云预处理通过网格分割、采样、组合、坐标变换,原点云被处理后得到点云区块集B1和点云组合区块集B2。
1.3 基于PointNet的点云特征提取网络将点云特征提取网络PFN(Point Feature Net)作为基础特征提取网络,如图 3(a)所示,PFN分为位置特征提取网络LFN(Location Feature Net)和全局特征提取网络GFN(Global Feature Net)两部分。点云特征提取网络通过一维卷积模块(Multi-Layer Perceptron,MLP)完成对点云数据的特征提取,如图 3(b)所示,特征数据输入到该模块先后经过一维卷积、批标准化(Batch Normalization)、ReLU整流函数。图 3(a)中的
![]() |
Download:
|
图 3 点云特征提取网络 Fig. 3 Point cloud feature extraction network |
设输入点云矩阵为
$ \boldsymbol{L}=\mathrm{L}\mathrm{F}\mathrm{N}\left(\boldsymbol{P}\right)=\mathrm{M}\mathrm{L}{\mathrm{P}}_{\left(64\right)}\left(\boldsymbol{P}\right) $ | (4) |
其中:L为点云位置特征。
全局特征提取网络GFN将位置特征输入到MLP模块进行计算,扩展为n×1 024的特征矩阵,通过最大池化得到所有点同一特征维度的最大值,得到的1 024维的特征向量即为这组点云的全局特征。由点云位置特征计算得到点云全局特征如式(5)所示:
$ \boldsymbol{G}=\mathrm{G}\mathrm{F}\mathrm{N}\left(\boldsymbol{L}\right)=\mathrm{M}\mathrm{a}\mathrm{x}\mathrm{P}\mathrm{o}\mathrm{o}\mathrm{l}\left[\mathrm{M}\mathrm{L}{\mathrm{P}}_{\left(\mathrm{128, 512, 1}\mathrm{ }024\right)}\left(\boldsymbol{L}\right)\right] $ | (5) |
其中:
点云位置特征矩阵先后经过位置特征提取网络LFN、全局特征提取网络GFN,最终得到全局特征,如式(6)所示:
$ \boldsymbol{G}=\mathrm{P}\mathrm{F}\mathrm{N}\left(\boldsymbol{P}\right)=\mathrm{G}\mathrm{F}\mathrm{N}\left[\mathrm{L}\mathrm{F}\mathrm{N}\left(\boldsymbol{P}\right)\right] $ | (6) |
点云区块特征融合网络通过计算组合后区块点云坐标得到区块和区块间的组合特征,然后融合得到用于修正每个区块点云特征的修正向量。点云区块特征融合网络结构如图 4所示。
![]() |
Download:
|
图 4 点云区块特征融合网络结构 Fig. 4 Point cloud block feature fusion network structure |
在数据输入到点云区块特征融合网络前,首先选取要进行语义分割的目标点云区块,如图 4所示,图中用带点方框表示目标点云区块,在组合点云区块集B2中,得到包含目标点云区块的9个组合区块,由于在采样时每个区块的采样数量为
$ {\boldsymbol{G}}_{\mathrm{r}\mathrm{e}\mathrm{s}}=\mathrm{B}\mathrm{F}\mathrm{N}\left({\boldsymbol{P}}_{\mathrm{c}\mathrm{o}\mathrm{m}}\right)=\mathrm{M}\mathrm{L}{\mathrm{P}}_{\left(\mathrm{10, 1}\right)}\left[\mathrm{P}\mathrm{F}\mathrm{N}\left({\boldsymbol{P}}_{\mathrm{c}\mathrm{o}\mathrm{m}}\right)\right] $ | (7) |
其中:
区块点云语义分割网络对目标区块点云的特征进行提取,利用点云区块特征融合网络得到的修正向量修正点云特征,从而得到最终的点云特征,然后通过简单分类网络实现目标区块所有点的语义分类。区块点云语义分割网络结构如图 5所示。
![]() |
Download:
|
图 5 区块点云语义分割网络结构 Fig. 5 Block point cloud semantic segmentation network structure |
区块点云语义分割网络的输入为目标区块的点云坐标矩阵和由点云区块特征融合网络得到的全局特征修正向量,图 5中网络A为位置特征提取网络,网络B为全局特征提取网络。设目标区域的点云数量为
$ {\boldsymbol{L}}_{\mathrm{t}\mathrm{a}\mathrm{r}}=\mathrm{L}\mathrm{F}\mathrm{N}\left({\boldsymbol{P}}_{\mathrm{t}\mathrm{a}\mathrm{r}}\right) $ | (8) |
$ {\boldsymbol{G}}_{\mathrm{t}\mathrm{a}\mathrm{r}}=\mathrm{G}\mathrm{F}\mathrm{N}\left({\boldsymbol{L}}_{\mathrm{t}\mathrm{a}\mathrm{r}}\right)+\boldsymbol{W}\cdot {\boldsymbol{G}}_{\mathrm{r}\mathrm{e}\mathrm{s}} $ | (9) |
其中:W为加权矩阵。
将修正后的全局特征向量复制
$ {\boldsymbol{F}}_{\mathrm{t}\mathrm{a}\mathrm{r}}={\boldsymbol{L}}_{\mathrm{t}\mathrm{a}\mathrm{r}} \oplus {\boldsymbol{G}}_{\bf{t}\bf{a}\bf{r}}^{\bf{\text{'}}} $ | (10) |
$ {\boldsymbol{S}}_{\mathrm{t}\mathrm{a}\mathrm{r}}=\mathrm{S}\mathrm{o}\mathrm{f}\mathrm{t}\mathrm{m}\mathrm{a}\mathrm{x}\left[\mathrm{M}\mathrm{L}{\mathrm{P}}_{\left(\mathrm{512, 128}, C\right)}\left({\boldsymbol{F}}_{\mathrm{t}\mathrm{a}\mathrm{r}}\right)\right] $ | (11) |
点云语义分割属于针对点的分类问题,本文采用交叉熵乘积[13]作为损失函数,如式(12)所示:
$ {L}_{\mathrm{l}\mathrm{o}\mathrm{s}\mathrm{s}}=\frac{1}{n}\sum\limits _{i=1}^{n}\left[-\sum\limits _{i=1}^{n}{y}_{ij}\mathrm{l}\mathrm{o}{\mathrm{g}}_{\mathrm{a}}\left({p}_{i, j}\right)\right] $ | (12) |
其中:n为神经网络训练过程中每次训练的最小样本数量;
在前文中分割开的区块只经过简单的点云特征提取网络就得到每个点的最终特征,然后输入至最后的语义回归层,这样的网络结构降低了网络复杂度,但同时也使得网络的分割精度依赖于合适的分割尺寸。因此,一方面要将场景分割得尽量小,以保证点云特征提取网络对场景局部特征进行提取;另一方面分割又要足够大,以减少目标物体点云结构缺失,最终达到减少分割次数和网络计算时间同时保证分割精度的目的。分割尺寸由方形网格中正方形边长所决定,其作为神经网络中的一个参数,被引入神经网络反向传播优化过程。本文通过实验证明分割尺寸可以在神经网络的优化过程中自优化到最佳值附近。实验采用SemanticKITTI数据集[14],在每个场景中随机抽取100帧形成一组小样本实验数据,表 1所示为不同分割尺寸下的网络最终分割结果。
![]() |
下载CSV 表 1 不同分割尺寸下网络的召回率和收敛速度 Table 1 The recall and convergence speed of the network under different partition sizes |
从表 1可以看出,实验4具有较少的运算次数和较高的召回率,该分割尺寸最优。
为了验证分割尺寸系数可在神经网络优化过程中自回归到最优值附近,对不同初始参数和尺度变化系数下的网络进行反向传播计算,统计得到100组分割尺寸和网络分割精度,形成散点图如图 6所示,图中所有实验结果的等效分割尺寸最终都收敛至4.6 m附近,并在分割尺寸为4.689 m时点云语义分割网络得到最好的分割精度(0.816),证明分割尺寸可以自优化至最佳值附近。
![]() |
Download:
|
图 6 分割尺寸自优化结果 Fig. 6 Segmentation size self optimization results |
PointNet++、RandLA-Net[5]等网络使用点云特征聚合的方法对点云进行多次编码和解码,使网络更好地提取和使用点云的局部特征,但这种特征提取方法需要搜索以关键点为球心的球形邻域内的其他点以形成局部点云,一般建立点云的KD-tree(K-Dimension tree),在网络语义分割计算时使用建立好的KD-tree进行快速的邻域搜索。
KD-tree[15]是对数据点在k维空间中进行划分的一种数据结构。网格均匀分割(即本文方法)将点云用规则网格进行均匀划分。对于数量为n的点云,构建KD-tree的计算复杂度为O(log
在SemanticKITTI数据集上的分割耗时对比结果如表 2所示,对数据集原始点云分别进行KD-tree建立和网格均匀分割,得到2种方法处理不同规模点云所用时间,从表 2可以看出,本文网格均匀分割方法的耗时具有显著优势。
![]() |
下载CSV 表 2 点云分割耗时对比 Table 2 Comparison of point cloud segmentation time consuming |
为了对比不同方法的网络计算复杂度,参考其他论文资料统计不同方法的网络参数量和网络计算耗时,并在相同的GPU平台下对BFF-Net网络计算耗时进行测试,测试平台GPU型号为RTX2080Ti,CPU型号为Intel®CoreTMi5-7300 CPU@2.50 GHz,结果如表 3所示。从表 3可以看出,相比其他点云语义分割方法,本文方法通过对分割尺寸进行优化,提高了点云特征提取的效率,减少了卷积次数,因此,其网络计算时间最少。SPG网络[11]虽然参数量最少,但其网络耗时巨大。通过点云预处理和网络计算时间的对比可以得出,在处理点云数为10万~100万的大规模点云时,本文方法的点云语义分割速度相较对比方法可提高2~4倍。
![]() |
下载CSV 表 3 不同方法的网络参数量和网络计算时间对比 Table 3 Comparison of network parameters and network calculation time of different methods |
IoU(Intersection over Union)[14]是在特定数据集中检测相应物体时,对其准确率进行评估的一个度量标准。针对某一类点云分割,IoU可由式(13)求得:
$ \mathrm{I}\mathrm{o}\mathrm{U}\left(C\right)=\frac{{T}_{C}^{\mathrm{T}\mathrm{P}}}{{T}_{C}^{\mathrm{T}\mathrm{N}}+{F}_{\mathrm{C}}^{\mathrm{F}\mathrm{P}}+{F}_{\mathrm{C}}^{\mathrm{F}\mathrm{N}}} $ | (13) |
其中:C为语义类别;
在同一数据集下,所有类别的平均IoU为MIoU,如式(14)所示:
$ \mathrm{M}\mathrm{I}\mathrm{o}\mathrm{U}\left(C\right)=\frac{1}{c}\sum\limits _{C=1}^{c}\frac{{T}_{C}^{\mathrm{T}\mathrm{P}}}{{T}_{C}^{\mathrm{T}\mathrm{N}}+{F}_{C}^{\mathrm{F}\mathrm{P}}+{F}_{C}^{\mathrm{F}\mathrm{N}}} $ | (14) |
其中:c为类别总数。
3.3 SemanticKITTI数据集上的准确率对比SemanticKITTI数据集[14]是自动驾驶场景下由激光雷达所得的点云数据构成的语义分割数据集。在测试过程中,每个场景序列取70%的场景帧作为训练集,剩余30%作为验证集,初始学习率为0.01,每轮学习率衰减系数为0.9,进行30轮学习,参考点云分割准确率计算公式对结果进行统计,并与其他方法作对比,结果如表 4所示。从表 4可以看出,本文方法对路面、汽车、地形、卡车、路肩的语义分割结果较好,且对围栏的分割准确率比其他方法高出20%,原因在于围栏是大型物体,分割后的部分围栏容易被误识别为汽车、卡车等含有平面结构的物体,本文点云区块特征融合网络放大了网络的感受野,使得网络对于尺寸较大的物体也能很好地进行语义分割。
![]() |
下载CSV 表 4 7种方法在SemanticKITTI数据集上的测试准确率对比 Table 4 Comparison of test accuracy of seven methods on SemanticKITTI dataset |
BFF-Net与PointNet++采用的基础点云特征提取网络相似,但特征融合方式不同,图 7将这2种方法处理SemanticKITTI数据集的结果进行对比,图中用圆圈标出BFF-Net分割相对正确的目标,可以看出,图中的围栏、路面等大型物体在BFF-Net方法下分割准确率较高,如c1、c3、c4;对于一个区块中较小的车辆,BFF-Net方法也可以准确分割,如b4、c4之间的对比。
![]() |
Download:
|
图 7 2种方法的点云语义分割效果对比 Fig. 7 Comparison of point cloud semantic segmentation effects between two methods |
Semantic3D数据集[19]包含8个语义类标签,涵盖广泛的城市户外场景,包括教堂、街道、铁轨、广场、村庄、足球场和城堡。在测试过程中,由于场景过于庞大,因此对每个大场景进行分割并做50%的随机下采样,对分割后的场景进行19轮学习,统计点云分割准确率指标IMoU结果,如表 5所示。从表 5可以看出,在Semantic3D数据集下,BFF-Net方法平均准确率最高,且其对于汽车、硬景观、高植被的语义分割准确率最高。
![]() |
下载CSV 表 5 10种方法在Semantic3D数据集上的测试准确率对比 Table 5 Comparison of test accuracy of ten methods on Semantic3D dataset |
虽然BFF-Net方法在室外场景中取得了较好的点云语义分割效果,但在室内场景分割时效果并不理想,原因在于现阶段的BFF-Net只在2个维度上对点云进行区块分割和特征融合,当从Z轴方向上分割目标复杂的室内场景时,无法很好地提取点云特征。
BFF-Net方法适用于平面环境下的点云语义分割任务,可以与SLAM技术相结合建立环境的语义地图,加快建图和重定位的速度,同时语义分割后的点云可直接分离目标物体点云与背景点云,处理后[27]可以实现三维目标识别。BFF-Net方法可用于自动驾驶场景,处理后的点云可更好地应用于后续的定位、检测、避障任务。
4 网络不同参数的对比实验 4.1 消融实验为了更全面地测试BFF-Net的性能,在由SemanticKITTI形成的小样本数据集上测试不同网络参数的点云分割结果,如表 6所示。其中,改变的参数包括分割尺寸、组合区块采样点数量、点云语义分割是否加入全局特征修正向量以及目标区块点云密度。在表 6中:实验1~实验4均使用最佳分割尺寸,在最高点云密度时得到的最高准确率为59.20%;实验5~实验8加入了全局特征修正向量,点云分割准确率相比同密度下的前4个实验提升了16.36%~32.18%,说明区块特征融合方法可以显著提高点云语义分割的准确率。
![]() |
下载CSV 表 6 不同网络参数下的运行结果对比 Table 6 Comparison of operation results under different network parameters |
图 8所示为点云密度与语义分割准确率的关系曲线,测试数据集是SemanticKITTI。从图 8可以看出:在平均点云密度大于25个/m2时,点云分割准确率可以维持在0.65以上;在平均点云密度低于20个/m2时,点云分割准确率不足0.5并剧烈下降。通过多次实验得出,点云密度取24个/m2时可以在快速计算的同时保证语义分割准确率。
![]() |
Download:
|
图 8 不同点云密度下的分割准确率对比 Fig. 8 Comparison of segmentation accuracy under different point cloud densities |
针对大型场景下点云语义分割计算量较大的问题,本文提出一种基于区块特征融合的点云语义分割方法,使用区块分割的点云预处理方式,针对分割所得到的点云区块设计特征提取网络,利用区块间特征融合的方法提取大型点云特征,从而加快点云预处理和网络计算的速度。公开数据集上的实验结果表明,在处理点数为10万~100万、尺寸跨度近百米的大规模点云时,该方法在保证分割精度的同时,点云语义分割速度较SPG、KPConv等对比方法可提高2~4倍。本文所提方法在室外大场景中能够提高点云语义分割的速度和精度,但仅限于Z轴结构简单的点云数据,下一步将利用立方体对点云进行三维区块分割,从而识别规模更大、更复杂的点云场景。
[1] |
李娇娇, 孙红岩, 董雨, 等. 基于深度学习的3维点云处理综述[J]. 计算机研究与发展, 2022, 59(5): 1160-1179. LI J J, SUN H Y, DONG Y, et al. Survey of 3-dimensional point cloud processing based on deep learning[J]. Journal of Computer Research and Development, 2022, 59(5): 1160-1179. (in Chinese) |
[2] |
霍占强, 王勇杰, 雒芬, 等. 基于超点图网络的三维点云室内场景分割模型[J]. 计算机工程, 2021, 47(12): 308-315. HUO Z Q, WANG Y J, LUO F, et al. Indoor scene segmentation model using three-dimensional point cloud based on super point graph network[J]. Computer Engineering, 2021, 47(12): 308-315. (in Chinese) |
[3] |
张诚, 黄丹丹, 刘智. 动态环境下的语义SLAM算法[J]. 信息与控制, 2021, 50(3): 297-307. ZHANG C, HUANG D D, LIU Z. Semantic SLAM algorithm based on dynamic environment[J]. Information and Control, 2021, 50(3): 297-307. (in Chinese) |
[4] |
CHARLES R Q, HAO S, MO K C, et al. PointNet: deep learning on point sets for 3D classification and segmentation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2017: 77-85.
|
[5] |
HU Q Y, YANG B, XIE L H, et al. RandLA-net: efficient semantic segmentation of large-scale point clouds[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2020: 11105-11114.
|
[6] |
WANG Y, SUN Y B, LIU Z W, et al. Dynamic graph CNN for learning on point clouds[J]. ACM Transactions on Graphics, 2019, 38(5): 1-12. |
[7] |
HUA B S, TRAN M K, YEUNG S K. Pointwise convolutional neural networks[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2018: 984-993.
|
[8] |
郑乐乐, 韩慧妍, 韩燮. 基于显著性与弱凸性的三维点云模型分割[J]. 计算机工程, 2018, 44(4): 299-304. ZHENG L L, HAN H Y, HAN X. Three-dimensional point cloud model segmentation based on significance and weak convexity[J]. Computer Engineering, 2018, 44(4): 299-304. (in Chinese) |
[9] |
顾砾, 季怡, 刘纯平. 基于多模态特征融合的三维点云分类方法[J]. 计算机工程, 2021, 47(2): 279-284. GU L, JI Y, LIU C P. Classification method of three-dimensional point cloud based on multiple modal feature fusion[J]. Computer Engineering, 2021, 47(2): 279-284. (in Chinese) |
[10] |
CHEN S H, NIU S F, LAN T, et al. PCT: large-scale 3D point cloud representations via graph inception networks with applications to autonomous driving[C]//Proceedings of IEEE International Conference on Image Processing. Washington D. C., USA: IEEE Press, 2019: 4395-4399.
|
[11] |
LANDRIEU L, SIMONOVSKY M. Large-scale point cloud semantic segmentation with superpoint graphs[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2018: 4558-4567.
|
[12] |
HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2016: 770-778.
|
[13] |
OH S H. Generalization of the cross-entropy error function to improve the error backpropagation algorithm[C]//Proceedings of International Conference on Neural Networks. Washington D. C., USA: IEEE Press, 1997: 1856-1861.
|
[14] |
BEHLEY J, GARBADE M, MILIOTO A, et al. SemanticKITTI: a dataset for semantic scene understanding of LiDAR sequences[C]//Proceedings of IEEE/CVF International Conference on Computer Vision. Washington D. C., USA: IEEE Press, 2019: 9296-9306.
|
[15] |
CAO Y, ZHANG X J, DUAN B H, et al. An improved method to build the KD-tree based on presorted results[C]//Proceedings of IEEE International Conference on Software Engineering and Service Science. Washington D. C., USA: IEEE Press, 2020: 71-75.
|
[16] |
SU H, JAMPANI V, SUN D Q, et al. SPLATNet: sparse lattice networks for point cloud processing[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2018: 2530-2539.
|
[17] |
QI C R, YI L, SU H, et al. PointNet++: deep hierarchical feature learning on point sets in a metric space[C]//Proceedings of the 31st Annual Conference on Neural Information Processing Systems. Washington D. C., USA: IEEE Press, 2017: 5100-5109.
|
[18] |
TATARCHENKO M, PARK J, KOLTUN V, et al. Tangent convolutions for dense prediction in 3D[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2018: 3887-3896.
|
[19] |
HACKEL T, SAVINOV N, LADICKY L, et al. Semantic3D net: a new large-scale point cloud classification benchmark[EB/OL]. [2021-12-05]. https://arxiv.org/abs/1704.03847.
|
[20] |
BOULCH A, GUERRY J, LE SAUX B, et al. SnapNet: 3D point cloud semantic labeling with 2D deep segmentation networks[J]. Computers & Graphics, 2018, 71: 189-198. |
[21] |
TCHAPMI L, CHOY C, ARMENI I, et al. SEGCloud: semantic segmentation of 3D point clouds[C]//Proceedings of International Conference on 3D Vision. Washington D. C., USA: IEEE Press, 2017: 537-547.
|
[22] |
THOMAS H, GOULETTE F, DESCHAUD J E, et al. Semantic classification of 3D point clouds with multiscale spherical neighborhoods[C]//Proceedings of International Conference on 3D Vision. Washington D. C., USA: IEEE Press, 2018: 390-398.
|
[23] |
ROYNARD X, DESCHAUD J E, GOULETTE F. Classification of point cloud scenes with multiscale voxel deep network[EB/OL]. [2021-12-05]. https://arxiv.org/pdf/1804.03583.pdf.
|
[24] |
ZHANG Z Y, HUA B S, YEUNG S K. ShellNet: efficient point cloud convolutional neural networks using concentric shells statistics[C]//Proceedings of IEEE/CVF International Conference on Computer Vision. Washington D. C., USA: IEEE Press, 2019: 1607-1616.
|
[25] |
WANG L, HUANG Y C, HOU Y L, et al. Graph attention convolution for point cloud semantic segmentation[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2019: 10288-10297.
|
[26] |
THOMAS H, QI C R, DESCHAUD J E, et al. KPConv: flexible and deformable convolution for point clouds[C]//Proceedings of IEEE/CVF International Conference on Computer Vision. Washington D. C., USA: IEEE Press, 2019: 6410-6419.
|
[27] |
李少飞, 史泽林, 庄春刚. 基于深度学习的物体点云六维位姿估计方法[J]. 计算机工程, 2021, 47(8): 216-223. LI S F, SHI Z L, ZHUANG C G. Deep learning-based 6D object pose estimation method from point clouds[J]. Computer Engineering, 2021, 47(8): 216-223. (in Chinese) |