开放科学(资源服务)标志码(OSID):
人机交互系统是人与机器之间交流与信息传递的桥梁[1]。传统的人机交互需借助鼠标、触摸屏、相机等可输入设备进行,传递的信息形式也由早期的编码字符等发展成图像、视频的形式。随着科技的发展以及人们对智能设备日益增多的应用需求,目前,通过机器识别出肢体动作已成为热门研究方向之一[2]。
手势识别方法主要分为基于数据手套及基于视频数据2种方法。GRIMES等[3]于1983年发明了数据手套,里面的传感设备将手部运动姿态等物理信息转化为供计算机使用的数字信息并进行手势识别。然而数据手套价格昂贵且过度依赖辅助设备,用户体验度不佳,难以推广。在基于视觉数据的方法中,用户无需佩戴数据手套等设备,仅配备摄像头就可以实现手势的识别,且识别的精度及速度均在可接受范围内。
传统的基于视觉的动态手势识别常见模型有隐马尔科夫模型(HMM)[4]和动态时间规整(DTW)模型[5]。文献[6]提出一种融合手势全局运动和手指局部运动的手势识别模型,根据关节坐标和距离函数提取关键帧,利用支持向量机实现动态手势识别及分类,该模型使用的手势数据集存在局限性且没有考虑手势旋转的情况;WANG等[7]提出建立手势三维轨迹特征向量和手形特征,再将识别结果进行融合的识别模型。虽然该模型能够提升准确率,但轨迹特征获取步骤多,处理复杂。整体来说,传统模型往往需要人工提取特征,少量特征的表征能力相对不足,而对复杂特征进行人工提取操作又十分困难,因此造成基于传统手势识别模型和评价指标效果不佳的局面。
近年来,深度学习在目标识别、分类任务等领域被广泛使用。传统的2D卷积网络对图像具有很强的特征提取能力,但是不能很好地捕捉图像间的时序关系,因此在对视频连续帧的处理上极易丢失目标信息。YU等[8]提出了3D卷积网络(3DCNN)并用于人体行为识别,该网络克服了传统2DCNN在视频处理上的不足。TRAN等[9]在3D卷积神经网络基础上提出三维CNN模型并取得较好的性能,该研究主要提出了一种从视频片段中提取时空特征的结构。文献[10]利用多向3D卷积神经网络做特征融合并进行手势识别,为了避免手势视频中冗余数据对网络准确率的影响,利用光流法对视频进行关键帧提取,虽然该模型得到的实验结果好于均匀采样法,但该模型需要计算每帧的光流,在实际使用或是长视频上计算消耗较大,可调参数的范围有限。
为了从图像中提取更完整的特征并进行识别和分类,卷积网络的层数需越来越多。文献[11-12]将ResC3D应用于手势识别任务中并取得了较好效果,这也证明了网络层次越深,模型的学习能力将会越强。Dense-TCNs模型[13]将DenseNets网络[14]和增强时间卷积网络(TCNs)应用于手势识别中并引入时域注意力机制,获得了较高的准确率,但在噪声大的数据上模型正确率较低。除了使用RGB信息外,基于深度图像的动态手势识别技术也被广泛研究[15]。对于视频序列中的时间信息,常使用LSTM网络。文献[16]使用CNN网络和LSTM网络相结合的方式进行动态手势的识别,其中CNN网络提取空间特征而LSTM网络提取时域特征,这为后续将空间域和时间域分开处理提供了经验。文献[17]改进原有的CNN架构,提出一种具有连续时间分类的R3DCNN网络进行手势识别,该方法虽然对序列信息处理较好,但该方法的模型构造以及预训练复杂,对于复杂环境不具有鲁棒性。而KF+FF模型[18]首先计算出每一帧的图像熵,再对熵值做密度聚类计算从而选取关键帧,虽然能够减少原始帧中的冗余信息,但仅针对野外场景,且鲁棒性也有待提高。SIMONYAN等[19]提出一种时空双流卷积网络,并分别从RGB图像和叠加光流图像中提取输入视频的时间特征和空间特征,最后进行特征融合以实现手势分类。
在实际应用中,由于动作执行者的个人习惯、反应速度等不同,导致采集到的视频长度不同,又由于视频中不含有手势标志帧,因此识别困难。本文提出一种具有分级网络结构的动态手势模型,利用检测器和分类器分步骤完成识别任务,同时利用卷积核拆分法加快模型的训练和测试速度。
1 卷积神经网络 1.1 三维卷积神经网络卷积神经网络结构通常由卷积层、激活函数层、池化层和全连接层组成。而在实际的应用中会根据应用场景的不同对神经网络的网络层数和结构做出相应的调整。传统的2D卷积神经网络无法处理或需要与其他网络组合视频数据中连续帧的动作,因此本文使用3D卷积神经网络对相邻帧时间维度信息进行处理,3D卷积过程表示为:
$ {f}_{ij}^{xyz}=\sigma \left({b}_{ij}+\sum\limits _{m}^{}\sum\limits _{p=0}^{{P}_{i-1}}\sum\limits _{q=0}^{{Q}_{i-1}}\sum\limits _{r=0}^{{R}_{i-1}}{W}_{ijm}^{qpr}{v}_{(i-1)m}^{(x+p)(y+q)(z+r)}\right) $ | (1) |
其中:
深度卷积神经网络的深度对最终的分类结果和识别准确率的影响较大,以往的设计思路是把网络设计的越深越好,然而实际却并非如此。实验结果表明,20层以上的深度网络,继续增加网络的层数,分类的精度反而会降低,50层网络的测试误差率约为20层网络的1倍[20]。主要原因是随着深度的增加梯度消失现象愈发明显,网络效果也随之下降。HE等[21]提出深度残差网络,在网络中引入恒等映射的设计,缓解了由于神经网络深度增加带来梯度消失和网络退化的问题。图 1(a)为普通模型使用的堆叠连接方式,其中残差网络使用的是用捷径连接(shortcut connections)方式构建的网络,如图 1(b)所示。
![]() |
Download:
|
图 1 模型连接方式 Fig. 1 Model connection method |
普通的深层神经网络输出结果为:
$ H\left(x\right)=F\left(x\right) $ | (2) |
残差网络使用捷径连接,把输入
$ H\left(x\right)=F\left(x\right)+x $ | (3) |
从式(2)和式(3)可知,普通的深层神经网络输出结果需要调整内部参数才能实现恒等映射
单个完整的动态手势动作可分为手势开始、高潮和结束3个部分,如图 2所示。
![]() |
Download:
|
图 2 完整手势组成 Fig. 2 Complete gesture composition |
针对在不带有标志帧的手势视频上进行动态手势识别准确率受影响的问题,本文利用传统模型中分步骤完成任务的思路,将整个模型分为2级。第1级为手势检测器网络模型,第2级网络为手势分类器网络模型。手势检测器模型首先进行实时检测并判断输入视频中是否包含手势;之后将手势检测的结果保存在缓存队列中,对缓存结果进行滤波操作;然后判断是否启动下一级分类器网络。一旦第2级网络启动,则能够保证输入到第2级网络的视频段为手势高潮部分,从而保证第2级网络提取图像信息的有用性,避免不带标志帧视频中手势开始和结束部分的冗余数据对手势分类准确率造成影响。本文所提模型的整体框架如图 3所示。
![]() |
Download:
|
图 3 本文动态手势识别模型整体框架 Fig. 3 Overall framework of dynamic gesture recognition model in this paper |
由于3D卷积核有3个维度的信息,与传统的2D卷积核相比,3D卷积神经网络的参数增加,这导致模型训练时间变长、训练速度变慢。本文受Inception-v3模型[22]中将3×3卷积核分解为3×1和1×3这2种卷积核从而加快模型训练速度的启发,将3D卷积核拆分成如图 4所示2种卷积核的形式。图 4中的t代表卷积核的时间维度,而w和h分别代表卷积核的宽度和高度。将尺寸为t×h×w的3D卷积核拆分为1×h×w卷积核和t×1×1卷积核形式,这两种卷积核分别对输入的视频流进行操作,其中1×h×w卷积核对视频流中的每帧图像进行二维特征提取,而t×1×1卷积核对视频流进行深度卷积,提取相邻运动帧之间的信息。
![]() |
Download:
|
图 4 3D卷积核拆分示意图 Fig. 4 3D convolution kernel split diagram |
本文改进网络使用的基本结构如图 5所示。输入的视频数据被分成2部处理,对其中的左半部分提取空间域特征,对右半部分提取运行特征。原始输入经过1×1×1卷积核进行卷积操作后,可以使相加运算的特征图个数相等。三维残差网络中基础块原有的3×3×3卷积核参数个数为27个,本文将卷积核进行拆分改进后的参数个数为2×(1×3×3+3×1×1)=24个,卷积核的参数数量下降了11.11%。因此,改进后的3D卷积核参数及整个网络的参数将会减少,网络训练和测试的速度得以加快。
![]() |
Download:
|
图 5 网络基本结构 Fig. 5 Basic network structure |
检测器网络需从手势开始到结束保持工作状态。与常见的18层、34层或更深的残差网络不同,本文所提检测器网络处在整个网络的第1级,故需要轻量级的检测器模型从而保证较高的识别速度及准确率。因此,本文在深度残差结构上改进以满足对检测器性能的要求,整个检测器的层数为10,网络结构如图 6所示。
![]() |
Download:
|
图 6 检测器网络结构 Fig. 6 Detector network structure |
检测器网络的输入由连续的N帧图像组成,每一帧图像的高度和宽度均为112像素。公共卷积层Conv的卷积核尺寸为3×7×7。为保留时间维度上的信息,本文只在空间维度上进行2×2的下采样,第一个池化层使用步长为2的最大池化,其余卷积层Layer1、Layer2、Layer3、Layer4的模块个数均为1。F为进行卷积操作后的特征通道数,通道数分别为16、32、64、128个,网络在经过所有卷积层、平均池化层和全连接层后,被送入Softmax分类器中进行有无手势的判断。
本文在单次卷积操作之后均加入批量归一化,使得每层神经网络在训练过程中的平均值保持为0,方差保持为1,这样有利于提高网络的收敛速度,也可避免手势离开相机视野等情况造成检测器网络误判,从而降低整个分级网络的整体性能。本文使用缓冲队列保存检测器网络的原始结果,将检测器网络中本次检测结果和前3次结果进行中值滤波处理,从而获得检测器网络的最终决策结果,并根据该结果判断是否开启下一级分类网络。
2.4 分类器网络结构设计目前在图像或视频分类领域有诸多性能优异的模型,比如LeNet5、AlexNet、ResNet等网络模型。本文的分类器网络在ResNeXt模型上进行改进,ResNeXt网络将原来基础模块中的2个3×3×3卷积核,先用1×1×1卷积降维,然后用3×3×3进行卷积,最后再用1×1×1升维,以保证模型的精度,同时又减少了整体的参数数量。在此基础上,本文将ResNeXt网络基础块中的3×3×3卷积核进一步拆分,以降低网络的参数,从而加速网络训练和测试。
本文中分类器网络的结构模型和检测器网络大致相同,但是卷积层Layer1、Layer2、Layer3、Layer4的块个数Block_Num分别为3、24、36、3。每个卷积层对应的输出特征通道数F分别为:256、512、1 024、2 048。最后经过2层全连接层送入到Softmax分类器中进行手势的分类。分类器网络模型的参数如表 1所示。
![]() |
下载CSV 表 1 分类器网络参数设置 Table 1 Classifier network parameter settings |
本文模型先在Jester数据集[23]上进行预训练,然后迁移到文献[24]制作的EgoGesture数据集上进行微调操作,最后与文献中所述的VGG网络和C3D网络进行对比。EgoGesture数据集包含83类来自50个不同主体的2 081个RGB-D视频、24 161个手势样本和2 953 224帧图像。手势的平均持续时间为38帧。数据集按3∶1∶1比例分为1 239个训练集视频、411个验证集视频和431个测试集视频,分别具有14 416、4 768和4 977个手势样本。单个手势视频带有手势起始帧和手势结束帧标注。为得到不带标志帧的数据集,人为地将原有的开始和结束标志帧去除,从而得到带标注帧和不带标注帧的2个EgoGesture数据集。
3.2 实验环境本文实验采用的硬件环境为NVIDIA GeForce GTX 1080Ti 11 GB显卡、Intel i7-8700K 6核CPU、16 GB DDR4内存;软件平台为Ubuntu18.04操作系统,Python 3.6.10版;PyTorch为1.3.1;CUDA10.1.105版;cuDNN7.6.4。
3.3 模型参数在检测器模型和分类模型的训练和测试时每个图像的尺寸被随机剪裁为112像素×112像素,并在整个手势视频的输入中进行连续帧采样,同时将整个训练集图像进行归一化操作。由于3D卷积神经网络需要大量的训练数据,为了避免过拟合,将模型训练中的损失函数定为交叉熵,并采用随机梯度下降(Stochastic Gradient Descent,SGD)算法进行参数优化。由于SGD每次更新并不全会按照正确的方向进行,常存在波动的情况,使得收敛速度变慢。因此,将学习速率设置为0.01,每经过10次迭代,学习率减小为原来的1/10。为选取最佳的L2正则化参数λ,本文选取常用的λ参数0.1、0.01、0.001、0.000 1,分别对不同的参数进行5折交叉验证。将训练集和验证集中的40个subjects划分为5个子集,每个子集包含8个subjects。其中分组1的训练集为子集1~子集4,验证集为子集5;分组2的训练集为子集1~子集3和子集5,验证集为子集4;依次至分组5训练集为子集2~子集5,验证集为子集1。对不同
![]() |
下载CSV 表 2 不同λ下的实验准确率 Table 2 Experimental accuracy rate of different λ |
从表 2可知,不同的λ参数在验证集上得到的平均准确率存在较大区别。平均准确率随着λ参数的减小呈现先升后减的变化趋势。本文中选取λ可以使在验证集上的平均准确率最大。
3.4 卷积特征图对空间数据流卷积后的特征图进行可视化,视频帧原图如图 7所示。对于前面的卷积层来说,学习的是图像的浅层特征,越往后的卷积层学习到的特征越高级。本文选取分类器第1层的空间域卷积核进行特征可视化,此层存在256个特征图,本文选取了其中64个进行可视化。分析可视化特征图可知,空间卷积核能够有效提取视频帧的不同特征,如图 8所示。
![]() |
Download:
|
图 7 视频帧原图 Fig. 7 Original image of video frame |
![]() |
Download:
|
图 8 卷积特征 Fig. 8 Convolution feature |
本文数据集手势平均持续时间为38帧,因此本文在测试时选取最大输入帧数为32。表 3为检测器模型在不同条件下的性能表。从表 3可以看出,本文设计的检测器在手势的检测上准确率达到99.61%。实验结果表明,随着输入帧数的增大,检测器模型的准确率有所提升但幅度有限,且上升幅度呈减小趋势,这与本文所选取数据集的平均手势持续时间有关。从表 3中还可得知,在深度图像模态下,模型识别准确率均比RGB模态下的要高,这是由于深度图像能够有效去除背景环境中光照、颜色等噪音干扰,使模型能更顺利地获取区别特征。
![]() |
下载CSV 表 3 本文检测器模型在不同条件下的性能 Table 3 Performance of the detector model in this paper under different conditions |
由于本文第1级和第2级网络分别处理不同阶段手势,因此本文分类器模型不依赖于第1级网络,可以单独进行手势的分类操作。针对有无标志帧手势视频对识别准确率造成影响的问题,本文将所设计的分类器模型与其他现有的分类模型在2个EgoGesture数据集上进行对比实验,实验结果如表 4所示。
![]() |
下载CSV 表 4 标志帧对不同分类器模型的影响 Table 4 Affected flag frame of different classifier models |
从表 4可以看出,Dense-TCNs模型利用DenseNet和TCNs网络分别提取空域特征和时域特征,相对于经典模型的准确率有所提升。KF+FF模型通过使用关键帧提取和特征融合方法提高了在RGB模态上的准确率。VGG模型和C3D模型均属于经典模型,但二维VGG和ResNet-50模型无法处理时间域信息,导致其准确率远低于C3D模型。C3D+LSTM+RSTTM模型能够处理序列信息,这使得识别准确率大幅提高。3D形式的ResNeXt101模型利用深度残差网络的性能优势,在带标志帧的数据集上的准确率达到90.67%和91.75%。MTUT则将多模态网络信息嵌入到单模态网络,从而使单模态网络达到较高的准确率。此外,对于含有标注手势起始帧和手势结束帧的输入视频流,模型的识别准确率高于不带有标注帧的,这是因为带有标志帧的视频流中已去除了非手势高潮部分的同时,去除了手势开始或结束阶段中冗余数据和其他干扰,使最终的识别准确率得以提高。这表明对于不带有标志帧的视频数据,视频中的非核心部分将对最终的识别准确率造成较大影响。由于深度模态输入去除了背景中的干扰信息,因此识别准确率高于在RGB模态下的准确率。本文设计的分类器随着输入的帧数的增加,识别准确率增加的幅度在逐渐减小,这与本文选取数据集的平均手势持续时间有关。由此可知,单纯增加输入帧数对提升准确率作用不大。
3.7 本文模型性能验证从表 3可以看出,检测器的输入帧数对检测器最终识别准确率的影响不明显。因此本文在整体性能测试时,选取检测器输入帧数为8,在不带有手势起始和结束标志帧的数据集上对本文所提模型的整体性能测试结果如图 9(a)、图 9(b)所示。从图 9(a)可以看出,在RGB模态下由于模型使用了预训练加速,准确率在早期上升较快,但在经历30个周期后准确率趋于稳定,不同输入帧数的准确率高达92.67%。而在图 9(b)所示的深度模态下,在经历25个周期后,模型的准确率趋于稳定,准确率高达93.35%。表 5所示为对本文所提模型整体测试的准确率结果。
![]() |
Download:
|
图 9 不同条件下模型准确率变化 Fig. 9 Model accuracy rate change under different conditions |
![]() |
下载CSV 表 5 本文所提模型准确率 Table 5 Accuracy rate of the method proposed in this article |
结合表 4和表 5可知,与只使用分类器相比,本文提出使用分级网络的模型在不带有标志帧的数据集上识别准确率有较高的提升。此外,由于检测器对手势起始阶段的检测仍存在偏差,因此本文模型在识别准确率上要略低于带标志帧的输入视频准确率,但两者差距较小,可以证明本文提出分级网络模型的有效性。
3.8 不同模型对比本文选取检测器网络的输入帧数为8,将本文所提模型和现有的模型在不带标志帧的数据集EgoGesture上,以固定输入16帧的条件进行了对比实验,结果如表 6所示。实验结果表明,本文所提模型在不带有标志帧的EgoGesture数据集上优于现有模型。
![]() |
下载CSV 表 6 不同模型准确率对比 Table 6 Accuracy comparison of different model |
Dense-TCNs模型由于提取短时时空特征时依赖DenseNets网络的正确率,导致准确率较低。KF+FF模型虽然在野外场景下的小型数据集上取得了极高的准确率,但由于鲁棒性较差,导致该模型在本文数据集包含的6个室内外场景上准确率为86.22%,与本文所提方法相差4.74个百分点。VGG模型由于使用了对时间域信息缺乏处理能力的2D卷积神经网络,导致准确率低于60%。C3D模型利用3D卷积对时空域良好的学习能力提高了准确率,在RGB模态和深度模态下的准确率分别达到了83.70%和85.53%,但与本文模型相比仍有差距,分别下降了7.26、6.29个百分点。ResNet50+HandPoseNet模型从姿态提取网络中获得手势的坐标信息并进行特征融合,大大提升了识别准确率;C3D+LSTM+RSTTM模型采取C3D网络结合LSTM、递归时空变换模块RSTTM的方法,利用递归时空变换模块能够将特征图转换为更易分类的规范图特点提升了准确率,使该模型和本文模型的差距均缩小至4个百分点左右。ResNeXt-101模型由于深度残差网络良好的性能,在RGB模态和深度模态下的准确率分别高达87.92%和89.86%。MUTU模型则利用多模态网络信息并将多模态信息嵌入到单模态网络,提升了单模态网络的准确率,但和本文相比还存在一定差距。
本文提出一种具有分级结构的识别模型,将手势检测网络为第1级,手势分类网络为第2级。第1级网络作为下级网络的启动开关,保证了输入到第2级网络视频流中图像信息的有用性和提取网络的完整性。在不带标志帧的EgoGesture数据集上,与其他模型相比准确率达到最高水平,说明本文所提模型在不带标志帧的动态手势识别方面具有一定的优越性。
3.9 耗时性分析本文所提模型将识别任务分成2个阶段,且采取三维卷积神经网络参数较多,可能对模型的整体耗时产生影响。此外,由于本文检测器使用ResNet网络,而分类器模型主要在深度残差网络上进行改进,因此本文选取了ResNeXt101模型进行耗时性分析。在相同的超参数设置情况下,对模型的训练时间(epochs=10)以及对识别速率进行验证,实验结果如表 7所示。
![]() |
下载CSV 表 7 与ResNeXt101模型的对比 Table 7 Comparison with ResNeXt101 network |
通过对比训练时间可知,本文提出对3D卷积核进行拆分的模型相对原有的ResNeXt101模型减少了6.18%的训练时间,但本文的分级网络模型使网络整体的训练时间增加了1.93%,增加的部分时间主要由第1级检测器网络对手势检测引起的。虽然本文所提模型在识别的速度上略有下降,但是仍可满足实时性的要求。
4 结束语在不带有标志帧的手势视频上进行动态手势识别会导致准确率下降。针对该问题,本文提出一种使用分级网络完成识别任务的手势识别模型。通过拆分3D卷积核避免3D卷积核参数过多和模型训练时间过长。实验结果表明,本文模型能有效缩短模型训练时间,识别速度满足实时性要求,且准确率优于Dense-TCNs、KF+FF、VGG等模型。由于单一的RGB数据或深度数据使模型对手势的认识仍存在一定偏差,因此,下一步将对模型进行特征融合以提高识别率和泛化能力,此外,还将扩展其在连续动态手势识别场景下的应用范围。
[1] |
SONG Y F, ZHANG P, LIU L B. Human-computer interaction system based on visual gesture recognition[J]. Computer Science, 2019, 46(S2): 570-574. (in Chinese) 宋一凡, 张鹏, 刘立波. 基于视觉手势识别的人机交互系统[J]. 计算机科学, 2019, 46(S2): 570-574. |
[2] |
SHA J, MA J, MOU H J, et al. Overview of dynamic gesture recognition based on vision[J]. Computer Science and Applications, 2020, 10(5): 990-1001. (in Chinese) 沙洁, 麻建, 牟海军, 等. 基于视觉的动态手势识别综述[J]. 计算机科学与应用, 2020, 10(5): 990-1001. |
[3] |
GRIMES G J. Digital data entry glove interface device[EB/OL]. [2020-07-12]. https://www.freepatentsonline.com/4414537.html.
|
[4] |
LIU N, LOVELL B C, KOOTSOOKOS P J, et al. Model structure selection & training algorithms for an HMM gesture recognition system[C]//Proceedings of the 9th International Workshop on Frontiers in Handwriting Recognition. Washington D.C., USA: IEEE Press, 2004: 100-105.
|
[5] |
HARTMANN B, LINK N. Gesture recognition with inertial sensors and optimized DTW prototypes[C]//Proceedings of IEEE International Conference on Systems, Man and Cybernetics. Washington D.C., USA: IEEE Press, 2010: 2102-2109.
|
[6] |
MIAO Y W, LI J Y, SUN S S. Dynamic gesture recognition combining global gesture movement and finger local movement[J]. Journal of Computer Aided Design and Graphics, 2020, 32(9): 1492-1501. (in Chinese) 缪永伟, 李佳颖, 孙树森. 融合手势全局运动和手指局部运动的动态手势识别[J]. 计算机辅助设计与图形学学报, 2020, 32(9): 1492-1501. |
[7] |
WANG Y M, ZHANG J, QIN Y H, et al. Research on command gesture recognition method based on multi-feature fusion[J]. Journal of System Simulation, 2019, 31(2): 346-352. (in Chinese) 王远明, 张珺, 秦远辉, 等. 基于多特征融合的指挥手势识别方法研究[J]. 系统仿真学报, 2019, 31(2): 346-352. |
[8] |
JI S, XU W, YANG M, et al. 3D convolutional neural networks for human action recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(1): 221-231. |
[9] |
TRAN D, BOURDEV L, FERGUS R, et al. Learning spatiotemporal features with 3D convolutional networks[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2015: 4489-4497.
|
[10] |
LI J. Dynamic gesture recognition based on deep convolutional neural network[D]. Jinan: Shandong University, 2019. (in Chinese) 李杰. 基于深度卷积神经网络的动态手势识别[D]. 济南: 山东大学, 2019. |
[11] |
LIN C, WAN J, LIANG Y Y, et al. Large-scale isolated gesture recognition using a refined fused model based on masked Res-C3D network and skeleton LSTM[C]//Proceedings of the 13th IEEE International Conference on Automatic Face & Gesture Recognition. Washington D.C., USA: IEEE Press, 2018: 231-246.
|
[12] |
MIAO Q, LI Y, OUYANG W, et al. Multimodal gesture recognition based on the ResC3D network[C]//Proceedings of IEEE International Conference on Computer Vision Workshop. Washington D.C., USA: IEEE Press, 2017: 675-689.
|
[13] |
ZHANG Y, ZHAO J Y, WANG C, et al. The application of time-domain attention Dense-TCNs in multi-modal gesture recognition[J]. Computer Engineering, 2020, 46(9): 101-109. (in Chinese) 张毅, 赵杰煜, 王翀, 等. 时域注意力Dense-TCNs在多模手势识别中的应用[J]. 计算机工程, 2020, 46(9): 101-109. |
[14] |
HUANG G, LIU Z, VANDERM, et al. Densely connected convolutional networks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 4700-4708.
|
[15] |
SHI M L, ZHANG B W, LIU G H. Real-time gesture recognition method based on depth image[J]. Computer Engineering and Design, 2020, 41(7): 2057-2062. (in Chinese) 时梦丽, 张备伟, 刘光徽. 基于深度图像的实时手势识别方法[J]. 计算机工程与设计, 2020, 41(7): 2057-2062. |
[16] |
DONAHUE J, HENDRICKS L A, GUADARRAMA S, et al. Long-term recurrent convolutional networks for visual recognition and description[C]//Proceedings of IEEE Transactions on Pattern Analysis and Machine Intelligence. Washington D.C., USA: IEEE Press, 2015: 2625-2634.
|
[17] |
MOLCHANOV P, YANG X, GUPTA S, et al. Online detection and classification of dynamic hand gestures with recurrent 3D convolutional neural networks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 4207-4215.
|
[18] |
TANG H, LIU H, WEI X, et al. Fast and robust dynamic hand gesture recognition via key frames extraction and feature fusion[J]. Neurocomputing, 2019, 331. |
[19] |
SIMONYAN K, ZISSERMAN A. Two-stream convolutional networks for action recognition in videos[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems. New York, USA: ACM Press, 2014: 568-576.
|
[20] |
HE K M, ZHANG X Y, REN S Q, et al. Identity mappings in deep residual networks[EB/OL]. [2020-07-12]. https://arxiv.org/abs/1603.05027.
|
[21] |
HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 770-778.
|
[22] |
SAEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the inception architecture for computer vision[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 2818-2826.
|
[23] |
MATERZYNAKA J, BERGER G, BAX I, et al. The jester dataset: a large-scale video dataset of human gestures[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision Workshop. Washington D.C., USA: IEEE Press, 2019: 2874-2882.
|
[24] |
ZHANG Y F, CAO C Q, CHENG J A, et al. EgoGesture: a new dataset and benchmark for egocentric hand gesture recognition[J]. IEEE Transactions on Multimedia, 2018, 20(5): 1038-1050. |
[25] |
WANG S Z. Research on gesture recognition technology based on deep learning[D]. Hangzhou: Zhejiang University, 2019. (in Chinese) 王苏振. 基于深度学习的手势识别技术研究[D]. 杭州: 浙江大学, 2019. |
[26] |
CAO C Q, ZHANG Y F, YI W, et al. Egocentric gesture recognition using recurrent 3D convolutional neural networks with spatiotemporal transformer modules[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 3783-3791.
|
[27] |
KOPUKLU O, GUNDUZ A, KOSE N, et al. Real-time hand gesture detection and classification using convolutional neural networks[C]//Proceedings of IEEE International Conference on Automatic Face Gesture Recognition. Washington D.C., USA: IEEE Press, 2019: 1-8.
|
[28] |
ABAVISANI M, JOZE H R, PATEL V. Improving the performance of unimodal dynamic hand-gesture recognition with multimodal training[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 1165-1174.
|