2. 山西医科大学口腔医院 修复科,太原 030012
2. Department of Prosthodontics, Stomatological Hospital of Shanxi Medical University, Taiyuan 030012, China
开放科学(资源服务)标志码(OSID):
食物嵌塞是影响人类口腔健康的常见因素,容易引发局部牙龈红肿,溢脓、龋齿、异味等口腔问题,进一步发展还可能会引起牙齿的松动和脱落[1],给患者的日常生活带来极大的痛苦和不便。
医学上常用锥形束CT(Cone Beam Computed Tomography,CBCT)对牙齿扫描进行重建,并测量牙齿的相关参数以判断是否塞牙。但锥形束CT精确度有限,且牙齿形态不规则,难以准确测量牙齿嵌塞的相关参数及在临床实现精确判断。随着3D扫描技术的发展,先进的口腔内扫描术能够直接重建牙列的数字表面模型,由于其效率和安全性高而得到广泛的应用,但该技术仍然需要借助三维测量软件且需耗费大量时间。因此,一种可以自动测量相关参数并判断牙齿是否嵌塞的方法对临床上治疗食物嵌塞有重要意义。
医学上的大量实验表明,邻接线长度、邻接面面积、舌外展隙角度、颊外展隙角度及牙合外展隙角度对食物嵌塞情况的判断具有统计学意义,且塞牙常发生于第1磨牙和第2磨牙之间[2]。目前临床上并没有可以根据牙齿三维模型直接测量出相关嵌塞特征的方法。
为准确得出牙齿是否嵌塞的结论,本文基于U-Net提出一种点云分割网络,通过增加输入采样点特征维度,增强模型对细粒度语义特征的检测,提高模型的分割准确率。在此基础上,使用图割法对分割好的点云模型进行处理,优化分割结果,以便于下一步对牙齿嵌塞特征的求解。同时,设计一种在牙齿三维点云上求相关嵌塞特征的方法,并对牙齿是否嵌塞做出判断。
1 相关工作三维牙齿模型的分割一直是研究的热点,传统的牙齿分割算法是基于计算机图形或视觉的算法,主要分为二维投影和曲率分析2种方法。二维投影法是将三维网格投影到一个或多个二维平面上,应用传统的计算机视觉算法对平面进行分割,并将处理后的数据投影回三维空间。例如,KONDO等[3]提出梯度方向分析,GRZEGORZEK等[4]利用多层深度图像进行分割,WONGWAEN等[5]在二维投影全景深度图上利用边界分析来寻找牙齿边界,但是二维图像的分割无法准确表达牙齿的真实形态。曲率分析是指对三维牙齿模型进行区域分析,并根据曲面的最小曲率对区域进行分类的方法。例如KUMAR等[6]首先利用曲率分析和漫水填充算法探测牙齿和牙龈的分割边界,然后探测此边界上的角点以获取牙缝分割边界。但是使用曲率分析需要用户设置合适的曲率阈值,且分割速度较慢。
利用深度学习对三维牙齿模型进行分割是一个新的热点,自从PointNet[7]模型在三维点云处理方面提供了更高效更灵活的方式,一大批使用深度学习对牙齿点云进行分割的方法也随之出现。XU等[8]在每个牙齿模型的网格面上提取多维特征,直接通过三维卷积对提出的特征进行分类,TIAN等[9]使用三维卷积和稀疏体素八叉树对牙齿进行分割,LIAN等[10-11]使用一系列图约束学习模块分层抽取多尺度上下文特征,并进行牙齿模型的自动分割。CHEN等[12]使用两阶段模型,通过牙齿质心预测和质心距离投票方法对牙齿进行分割。然而,上述方法大部分在分割前有复杂的预处理步骤,分割网络并没有使用点云分割中最新的研究成果。
基于深度学习对点云分割的方法主要分为两类:基于体素的方法和基于点的方法。基于体素的方法[13-14]在多个3D模型数据集上可获得最佳性能,但需要大量的内存资源。基于点的方法减少了信息损失,从而以较少的计算复杂度实现了较高的精度。该类方法通常可以分为4类:相邻特征池[15]、图构造[16]、基于注意力的聚合[17]和基于核的卷积[18]。在所有的基于点的方法中,KPConv[19]得到了三维物体分割的较好性能。因此,本文采用KPConv来构建本文的牙齿分割网络。
2 本文方法本文提出一种能够自动求解牙齿嵌塞特征并根据相关特征判断是否塞牙的方法,具体流程如图 1所示。
![]() |
Download:
|
图 1 牙齿嵌塞特征求解流程 Fig. 1 Solution process of tooth impaction features |
如图 1所示,牙齿嵌塞特征求解的流程主要分为3个阶段:
1) 牙齿分割阶段。输入三维牙齿stl模型,以提取三维牙齿点云。使用本文设计的牙齿分割网络,对三维牙齿点云进行分割,并对分割结果使用图割算法进一步优化,得到最终分割好的牙齿三维点云。
2) 嵌塞特征计算阶段。从分割好的牙齿结果点云中取出左侧或右侧第1、2颗磨牙点云,对取出的牙齿点云进行嵌塞特征计算。首先在水平方向上使用平面拟合的方法将牙齿投影到平面上,求出邻接线长度、舌外展隙角度和颊外展隙角度,然后在垂直方向上将牙齿投影到平面上,求出牙合外展隙角度,最后在垂直平面上将第6、7颗磨牙进行分割,求出邻接面面面积。
3) 嵌塞牙齿判断阶段,使用求出的5种嵌塞牙齿特征,并通过训练好的SVM模型得出牙齿是否塞牙的结论。
3 牙齿分割 3.1 点云采样本文首先将牙齿stl模型直接转化为点云模型,转化后的牙齿点云点数过多,每个牙齿表面大约包含140 000个点。受到硬件条件的限制,当数据量过大时,点云直接输入网络会导致内存溢出,且计算量太大会减慢训练速度,所以在训练网络时首先要对点云进行采样,这与常用的点云采样方法、随机采样方法和均匀采样方法均不同。为了能更加准确地得到牙齿的嵌塞特征,同时考虑到牙齿嵌塞特征与牙齿表面曲率的关系,以及牙齿表面曲率较大的位置包含牙齿嵌塞特征的概率也越大,本文采用几何采样对牙齿表面的点进行采样。
几何采样在点云曲率越大的地方,采样点个数越多,具体方法定义如下:输入牙齿点云,将目标采样数定义为S,曲率采样比例定义为U,采样结果定义为G。首先对点云进行曲率计算,在每个点的k邻域上求法线,然后计算每个点到邻域上的法线的夹角值。曲率越大,则夹角值越大。
设置一个角度阈值,将数据分为大于角度阈值和小于角度阈值2部分,在这2部分中分别采样,采样数分别为
$ G=S\times (1-U)+S\times U $ | (1) |
本文基于KPConv卷积核来构建分割网络模型,网络模型类似于U-Net[20]模型,由编码器和解码器2个部分组成,是一种对称的语义分割模型。网络从最深层特征经过5次上采样得到最终的分割结果。由于只采用深层特征上采样得到分割标签会丢失浅层特征信息,而浅层特征包含的是空间位置信息,因此通过学习这些浅层特征有助于在分割时更精准地进行定位。在编码器路径上生成的每一组特征映射均被连接到解码器路径上的对应特征映射,多层次特征融合能够关注到点云局部的细节信息,具有更强的语义信息,能够更加精确地进行分类。
网络结构如图 2所示,网络输入的大小为N×6,其中N为采样后点云的10 240个点,6维向量由点云的空间坐标及法线信息2个方面组成。网络输出为N×n的向量。
![]() |
Download:
|
图 2 牙齿分割网络结构 Fig. 2 Dental segmentation network structure |
下面介绍每层的具体实现:
1) 编码器。编码器共有5层,每层之间通过下采样减少点数,使用KPConv卷积提取点集信息,为增大特征维度,KPConv卷积核大小设置为13。为了防止过拟合和加快收敛速度,每层卷积之间均有批归一化(Batch Normalization,BN)和Leaky ReLu激活函数。
2) 解码器。解码器也是5层结构,但是与编码器不同的是,解码器每一层均采用最邻近插值法的上采样来增加点数,并采用一元卷积来减少特征维度。跳层链接通过连接编码器和解码器来传递网络的浅层特征,每层网络之间也有批归一化(BN)和Leaky ReLu激活函数。
3) 输出。全连接层的输出通过softmax分类函数对每个点的语义进行预测。网络输出的结果点数为10 240,与输入相同。
3.3 图割法后处理本文网络分割后的结果可能会产生孤立的错误预测或非光滑的边界,但基于图的后处理可以对结果进行有效细化[21],例如LIAN等[22]将图割方法应用到牙齿分割后处理中,获得了较好的效果。图割方法是一种可以用于n维图像数据的边界优化和区域分割的分割技术,本文在后处理中使用图割,并加入包围盒和边缘曲率2个先验特征对分割结果进行优化。包围盒的大小对于每个牙齿来说相对固定,但分割边缘的曲率大小在每个牙齿边缘和牙齿表面有很大不同,因此加入2个先验条件对分割结果进行优化很有必要。
图割法的算法描述如下:假设
$ \mathrm{a}\mathrm{r}\mathrm{g}\underset{L}{\mathrm{m}\mathrm{i}\mathrm{n}}\sum\limits_{i=1}^{N}-\log({P}_{i, {L}_{i}}+\varepsilon )+\sum\limits_{i=1}^{N}\sum\limits_{{i}^{\mathrm{*}}\in {n}_{i}}C({L}_{i}, {L}_{{i}^{\mathrm{*}}}, {E}_{i}) $ | (2) |
其中:第1项是数据拟合项,目的是得到最大分割能量;第2项定义牙齿点云边缘和标签空间的局部平滑性,
$ C({L}_{i}, {L}_{{i}^{\mathrm{*}}}, {E}_{i})=(1-{\delta }_{1}({L}_{i}, {L}_{{i}^{\mathrm{*}}}\left)\right)\times \varphi ({s}_{i}, {s}_{{i}^{\mathrm{*}}})+\lambda (1-{\delta }_{2}({E}_{i}\left)\right) $ | (3) |
其中:
$ \varphi ({s}_{i}, {s}_{{i}^{\mathrm{*}}})=-{\gamma }_{i, {i}^{\mathrm{*}}}\times \mathrm{l}\mathrm{o}{\mathrm{g}}_{\mathrm{a}}\left(\frac{{\theta }_{i, {i}^{\mathrm{*}}}}{\pi }\right)\times {d}_{i, {i}^{\mathrm{*}}} $ | (4) |
其中:
分割牙齿模型后提取出第6、第7颗牙齿,可以得到三维空间中的2颗牙齿。针对在三维空间中直接求解嵌塞特征、长度、角度等信息时会受到遮挡,以及寻找线段端点困难等问题,本文将三维空间中的2颗牙齿投影到二维平面上进行求解,投影时采用平面拟合来确定投影面。
本文中平面拟合的方法定义:使用法向量
$ ax+by+cz+d=0 $ | (5) |
其中:
假设
$ \left[\begin{array}{ccc}{x}_{0}& {y}_{0}& 1\\ {x}_{1}& {y}_{1}& 1\\ ⋮& ⋮& ⋮\\ {x}_{n}& {y}_{n}& 1\end{array}\right]\left[\begin{array}{l}a\\ b\\ c\end{array}\right]=\left[\begin{array}{l}-{z}_{0}\\ -{z}_{1}\\ ⋮\\ -{z}_{n}\end{array}\right] $ | (6) |
根据克莱默法则可以求得:
$ \begin{array}{l}d=\sum xx\times \sum yy-\sum xy\times \sum xy\\ a=\sum yz\times \sum xy-\sum xz\times \sum yy\\ b=\sum xy\times \sum xz-\sum xx\times \sum yz\\ \boldsymbol{n}={[a, b, d]}^{{}^{\mathrm{T}}}\end{array} $ | (7) |
最终可以求出牙齿点云投影到一个平面上的平面方程。
4.2 嵌塞特征求解本文采用SVM[23]求解牙齿邻接线长度,并且采用SVM对求出的特征进行分类,SVM是一种按监督学习方式对数据进行二元分类的广义线性分类器,可以使用超平面将小数据量的两类数据分割开。
将牙齿在水平方向投影,并将牙齿压缩到二维上,以便求解邻接线长度。求解步骤是首先求出可以分割2个牙齿的最佳分界线,在分界线上找到最远的2个点作为牙齿邻接线的2个端点。在分类上采用SVM对两类牙齿进行分类,SVM对噪声不敏感,并且泛化能力强,可以找到一个超平面,使其能正确地将2个样本进行分类。
对分割后取出牙齿中点的定义为:
$ {\boldsymbol{X}}^{\mathrm{T}}\boldsymbol{W}+b=0 $ | (8) |
其中:
求出分界线后,以分界线的2个端点向外延长一固定长度,在延长线上向牙齿两侧做垂线得到2个距离延长线最近的2个点,3个点组成的角度就是本文提到的舌外展隙角度和颊外展隙角度。将取出的2个牙齿在垂直方向投影,可以得到牙齿垂直方向上的二维点云,同上述求舌外展隙角度的方法一样,可以求出牙合外展隙角度。同时,在将垂直方向上的牙齿分割平面取出,得到邻接面面积。
5 实验结果和分析 5.1 数据和预处理本文采用由山西省医科大学口腔医院提供的通过3Shape扫描仪获取的120例患者数据,剔除掉显示不清晰及形态损伤较大的牙齿数据,对所有牙齿进行标注,令0~4依次为牙龈和4颗磨牙。
将样本集随机划分为训练集和测试集。由于上牙和下牙在形态上有一定区别,本文将上下牙分开来训练。
为了增加数据及提高泛化能力,本文采用3种方式对牙齿数据进行增广:
1) 随机旋转。令模型绕x轴、y轴、z轴随机旋转。
2) 随机平移。令模型随机进行上下左右的小范围平移。
3) 对数据集添加人工噪声以及从数据中随机删除少量点。最终,得到3 600例牙齿数据。
5.2 网络学习结果 5.2.1 评价指标为评估本文实验的有效性,采用均交并比(Mean Intersection over Union,MIoU)的评估方式验证牙齿分割结果的准确性,MIoU是计算预测值和标注数据(Ground Truth,GT)间的交集和并集之比。MIoU的表达式如式(9)所示:
$ \mathrm{M}\mathrm{I}\mathrm{o}\mathrm{U}=\frac{1}{k+1}\sum\limits_{i=0}^{k}\frac{{p}_{ii}}{\sum\limits_{j=0}^{k}{p}_{ij}+\sum\limits_{j=0}^{k}{p}_{ji}-{p}_{ii}} $ | (9) |
其中:K代表分类个数;
本文将分割好的点云结果映射到stl模型上并进行可视化,用不同的颜色对牙齿进行标注。由图 3可知,仅仅使用深度学习方法对牙齿整体进行分割的结果较好,但是在一些复杂的牙齿表面上,由于牙齿表面曲率变化较大,可能会出现错误的分割。为了提高分割结果的准确率以及后续求嵌塞特征的准确率,本文采用图割法及最小化图割能量函数来优化分割结果。由图 3(b)可知,经过图割法处理后,齿间接触区的边缘更加光滑,且错误的分割结果也被改正,这有助于提高本文后期对牙齿嵌塞特征的求解精度。
![]() |
Download:
|
图 3 图割法优化结果 Fig. 3 Graph cutting optimization results |
本文在测试集中随机选择了3个牙齿进行可视化对比,实验结果如图 4所示。将本文模型与2个具有代表性的点云语义分割深度学习模型PointNet和KPConv进行对比,经图割法优化后,从可视化结果可知,PointNet模型在2个磨牙的相邻处出现过分割现象,无法将2颗牙完美地分割出来,并且出现了错误分割牙齿的情况。而KPConv模型没有出现错误分割牙齿的情况,但每颗牙齿与相邻牙齿间的分割并不光滑,也会出现过分割现象。总体来说,本文网络在分割上表现良好,没有出现错分和边缘模糊,与真实结果很接近,而PointNet模型和KPConv模型均出现了不同程度上的牙齿错分和边缘模糊现象。使用本文模型生成的结果在可视化表现上可以满足后续对牙齿嵌塞特征求解的需要。
![]() |
Download:
|
图 4 不同模型的可视化对比 Fig. 4 Visual comparison of different models |
为进一步验证本文所提分割模型的有效性,与上文提到的三维分割模型分割结果准确率进行对比。实验结果表 1所示,表中加粗数字表示该组数据的最大值。从表 1可知,本文模型对所有磨牙的分割效果提高较为明显,与PointNet模型、KPConv模型相比,本文模型的分割准确率分别提高了约13和6个百分点。
![]() |
下载CSV 表 1 不同模型的分割准确率对比 Table 1 Accuracy of network segmentation |
本文共使用了2个核心超参数,分别是KPConv卷积核数量及图割方法的
为了选择合适的KPConv卷积核数量,本文探究了卷积核数量与分割准确率之间的关系,结果如图 5(a)所示。可以发现,随着卷积核数量的不断增长,网络分割准确率也在不断提升。但在卷积核数量达到13之后,准确率增长的速度明显下降,这是因为过大的卷积核会造成参数量的增加,使得训练难度加大,因此本文选用13作为本文模型中卷积核的大小。图割方法使用
![]() |
Download:
|
图 5 关键参数对本文模型分割准确率的影响 Fig. 5 Influence of key parameters on the segmentation accuracy of model in this paper |
为验证本文模型的有效性,通过对网络输入不同的点云维度和选取不同的采样方法来进行消融实验,以观察维度和采样方法对网络模型的影响。其中N×3代表网络输入维度为3,输入为点云的3维坐标,N×6代表网络输入的维度为6,输入为点云的3维坐标和点云的法向量。实验结果如表 2所示。
![]() |
下载CSV 表 2 消融实验 Table 2 Ablation study |
由表 2可知,与基础网络相比,加入几何采样和法向量信息后,网络分割准确率分别提升了2和7个百分点。可以看出,法向量信息对分割结果的影响较大。原因可能是法向量可以反映某个点的领域点集的几何结构,对于三维牙齿模型分割起到了很大的作用。本文通过将几何采样和点云法向量信息进行叠加达到了最佳分割效果。
5.3 嵌塞牙齿判断在本文模型分割好第1磨牙和第2磨牙后,使用本文所提分割网络对120个牙齿进行分割,并取出分割好的第6、第7磨牙。通过手工方法筛选出分割情况良好的牙齿数据,并得到383组牙齿例子,包括213个食物嵌塞和170个非食物嵌塞。接着计算出邻接线长度、邻接面面积、舌外展隙角度、颊外展隙角度和牙合外展隙角度这5个特征,并将数据分为70%的训练集和30%的测试集,使用SVM对牙齿嵌塞情况进行训练。为提高结果准确率以及避免过拟合,本文在SVM训练时采用非线性核函数,最终在测试集上的准确率可达81%。最终测试集分类结果如图 6所示,其中:当y=1时,代表食物嵌塞;当y=0时代表非食物嵌塞。由图 6可知,本文采用5个特征进行嵌塞牙齿的分类,分割线能够将大多数嵌塞牙齿分类正确,为医生辅助诊断提供有效帮助,具有一定的应用价值。
![]() |
Download:
|
图 6 牙齿嵌塞分类结果 Fig. 6 Results of tooth impaction classification |
为验证图割优化处理对本文牙齿分类准确率的影响,分别使用本文模型与点云语义分割深度学习模型PointNet、KPConv模型进行对比,以是否加入图割优化处理作为另一个变量,并使用上文训练好的分类模型对所得嵌塞特征进行分类,结果如表 3所示。由表 3可知,经过图割法优化后的本文模型可以达到最佳分类结果,与PointNet模型、KPConv模型相比,分类准确率分别提高了10和7个百分点。
![]() |
下载CSV 表 3 不同模型的分类准确率对比 Table 3 Comparison of classification accuracy of different networks |
本文提出一种对牙齿嵌塞进行自动检测的方法,通过基于KPConv卷积核和U-Net网络设计的三维牙齿分割模型对牙齿进行分割,求出牙齿嵌塞特征,并使用SVM对牙齿嵌塞情况进行分类。此外,充分利用牙齿模型所具有的特殊几何结构,将模型中向量信息及位置信息输入网络模型及后处理步骤中,通过多阶段的特征融合得出分类结果。实验结果表明,本文模型对磨牙的分割准确率达92%,判断牙齿是否嵌塞的分类准确率为81%。下一步将针对缺牙、牙齿错位等情况的牙齿嵌塞,寻求分割的解决办法,拓宽本文方法的应用范围。
[1] |
马毅慧, 郭家平, 王虎中, 等. 咬合主功能区调整对食物嵌塞治疗效果临床观察[J]. 临床口腔医学杂志, 2013, 29(11): 683-685. MA Y H, GUO J P, WANG H Z, et al. Clinical studies of occlusal adjustment with main founctional zones for food impaction[J]. Journal of Clinical Stomatology, 2013, 29(11): 683-685. (in Chinese) |
[2] |
王月. 量化调(牙合)治疗垂直型食物嵌塞临床相关参数的CBCT研究[D]. 太原: 山西医科大学. WANG Y. CBCT study of clinical parameters related to quantitative adjustment (occlusion) in the treatment of vertical food impaction[D]. Taiyuan: Shanxi Medical University. (in Chinese) |
[3] |
KONDO T, ONG S H, FOONG K. Tooth segmentation of dental study models using range images[J]. IEEE Transactions on Medical Imaging, 2004, 23(3): 350-362. |
[4] |
GRZEGORZEK M, TRIERSCHEID M, D PAPOUTSIS, et al. A multi-stage approach for 3D segmentation from dentition surfaces[C]//Processing of the 4th International Conference on Image and Signal. Berlin, Germany: Springer, 2010: 521-530.
|
[5] |
WONGWAEN N, SINTHANAYOTHIN C. Computerized algorithm for 3D teeth segmentation[C]//Proceedings of International Conference on Electronics and Information Engineering. Washington D.C., USA: IEEE Press, IEEE Press, 2010: 271-277.
|
[6] |
KUMAR Y, JANARDAN R, LARSON B, et al. Improved segmentation of teeth in dental models[J]. Computer-Aided Design and Applications, 2011, 8(2): 211-224. DOI:10.3722/cadaps.2011.211-224 |
[7] |
HARLES R Q, HAO S, MO K C, et al. PointNet: deep learning on point sets for 3D classification and segmentation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 77-85.
|
[8] |
XU X J, LIU C, ZHENG Y Y. 3D tooth segmentation and labeling using deep convolutional neural networks[J]. IEEE Transactions on Visualization and Computer Graphics, 2019, 25(7): 2336-2348. DOI:10.1109/TVCG.2018.2839685 |
[9] |
TIAN S K, DAI N, ZHANG B, et al. Automatic classification and segmentation of teeth on 3D dental model using hierarchical deep learning networks[J]. IEEE Access, 2019, 7: 84817-84828. DOI:10.1109/ACCESS.2019.2924262 |
[10] |
LIAN C F, WANG L, WU T H, et al. Deep multi-scale mesh feature learning for automated labeling of raw dental surfaces from 3D intraoral scanners[J]. IEEE Transactions on Medical Imaging, 2020, 39(7): 2440-2450. DOI:10.1109/TMI.2020.2971730 |
[11] |
SUN D Y, PEI Y R, SONG G Y, et al. Tooth segmentation and labeling from digital dental casts[C]//Proceedings of the 17th International Symposium on Biomedical Imaging. Washington D.C., USA: IEEE Press, 2020: 669-673.
|
[12] |
CHEN Y L, DU H Y, YUN Z Q, et al. Automatic segmentation of individual tooth in dental CBCT images from tooth surface map by a multi-task FCN[J]. IEEE Access, 2020, 8: 97296-97309. DOI:10.1109/ACCESS.2020.2991799 |
[13] |
ROYNARD X, DESCHAUD J E, GOULETTE F. Classification of point cloud scenes with multiscale voxel deep network[EB/OL]. [2021-05-16]. https://arxiv.org/abs/1804.03583.
|
[14] |
BEN-SHABAT Y, LINDENBAUM M, FISCHER A. 3DmFV: three-dimensional point cloud classification in real-time using convolutional neural networks[J]. IEEE Robotics and Automation Letters, 2018, 3(4): 3145-3152. DOI:10.1109/LRA.2018.2850061 |
[15] |
ZHAO H S, JIANG L, FU C W, et al. PointWeb: enhancing local neighborhood features for point cloud processing[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 5560-5568.
|
[16] |
WANG L, HUANG Y, HOU Y, et al. Graph attention convolution for point cloud semantic segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 10296-10305.
|
[17] |
XIE S N, LIU S N, CHEN Z Y, et al. Attentional ShapeContextNet for point cloud recognition[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 4606-4615.
|
[18] |
MAO J G, WANG X G, LI H S. Interpolated convolutional networks for 3D point cloud understanding[C]//Proceedings of IEEE/CVF International Conference on Computer Vision Washington D.C., USA: IEEE Press, 2019: 1578-1587.
|
[19] |
THOMAS H, QI C R, DESCHAUD J E, et al. KPConv: flexible and deformable convolution for point clouds[C]//Proceedings of IEEE/CVF International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2019: 6410-6419.
|
[20] |
WU Z W, LI G, WANG L, et al. Registration-free infant cortical surface parcellation using deep convolutional neural networks[C]//Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin, Germany: Springer, 2018: 672-680.
|
[21] |
BOYKOV Y, VEKSLER O, ZABIH R. Fast approximate energy minimization via graph cuts[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(11): 1222-1239. DOI:10.1109/34.969114 |
[22] |
LIAN C F, WANG L, WU T H, et al. Deep multi-scale mesh feature learning for automated labeling of raw dental surfaces from 3D intraoral scanners[J]. IEEE Transactions on Medical Imaging, 2020, 39(7): 2440-2450. DOI:10.1109/TMI.2020.2971730 |
[23] |
JOACHIMS T. Aking large-scale SVM learning practical[EB/OL]. [2021-05-16]. https://ideas.repec.org/p/zbw/sfb475/199828.html.
|