2. 清华大学 人文学院 计算语言学实验室, 北京 100084
2. Laboratory of Computational Linguistics, School of Humanities, Tsinghua University, Beijing 100084, China
开放科学(资源服务)标志码(OSID):
吸烟行为是目前全世界难以解决的公共卫生问题,吸烟对健康的危害已是众所周知,其会间接或直接导致很多疾病的发生甚至出现生命危险[1]。近年来,我国人民出现肺癌、心血管疾病的几率随着吸烟率的增加而迅速上涨。然而,仅通过人为管理吸烟行为,难以实现控烟目标。
吸烟行为识别的研究起源于上个世纪,涌现了不同的吸烟行为检测方法,其中视频图像的吸烟行为检测是主流研究方向[2]。吸烟行为检测主要分为针对吸烟手势识别、香烟烟雾识别、香烟识别3种,但这些方法都存在着一定不足。文献[3]设计一种将人体检测与嵌入式设备相结合的模型,其对户外的施工人员进行中距离吸烟检测。文献[4]结合吸烟行为手势与香烟目标本身特征,提出一种识别吸烟行为的检测模型,由于对吸烟行为手势的识别存在吸烟手势复杂、肤色多样、相机角度等问题,使得识别的手势具有差异,且易与吸烟行为类似的手势相混淆,因此仅使用吸烟手势来判断吸烟行为,误判率较大。文献[5]通过对获得香烟烟雾的HOG特征以及纹理特征进行相关分析,再结合相关特征融合方法对香烟的烟雾进行识别。在香烟烟雾的检测过程中,因香烟的烟雾浓度较低且易扩散、烟雾边缘不够明显,导致香烟烟雾与室内的白色背景相融合,从而难以区分。此外,在室外受复杂背景干扰,香烟烟雾检测更加难以实现。针对识别香烟自身目标,文献[6]提出一种吸烟检测系统,利用Py Qt5配置上位机界来调用训练过的改进YOLOv3模型,并对吸烟行为进行检测。文献[7]基于YOLOv3-tiny模型提出一种针对室内吸烟行为的检测算法。YOLOv3-tiny模型通过K-means聚类算法得到整个香烟的预先目标框,在初始的YOLOv3-tiny网络架构上引入一个细微的目标检测层,使得该模型能够满足实际场景的需求。文献[8]结合近红外监视摄像机与目标检测技术,提出一种新的吸烟行为检测方法。该方法利用基于深度学习的目标检测技术定位车辆前挡风玻璃和驾驶员的头部范围,通过执行双窗口异常检测局部区域并确定NIR图像的高温白色热点,基于此确定驾驶员是否有吸烟行为。文献[9]通过检测人脸并将检测到的人脸图像作为烟支检测区域,从而大幅缩小了目标检测区域,并使用Faster RCNN模型对香烟目标进行目标检测,以降低检测的误检率。文献[10]利用多个卷积神经网络任务算法级联并结合RET级联回归的方式来实现迅速定位嘴部敏感区域,在此基础上,采用残差网络对ROI内的目标进行检测和状态识别。文献[11]将检测到的人脸图像作为烟支检测区域,以缩小目标检测区域,并过滤掉与烟支相似的目标。以上算法都是直接对香烟进行检测,因香烟目标较小,其识别的准确性并不高,因此能否区分香烟与类烟物成为香烟识别的关键。
上述算法在一定程度上提升了吸烟行为的识别精度,但是其吸烟行为识别效果差。针对该问题,本文设计一种基于弱监督细粒度结构与改进EfficientDet网络的吸烟行为检测算法,用于识别实际场景中细微的香烟目标。通过EdgeBox算法[12]对边缘进行筛选,形成候选区域块,将改进的EfficientDet网络[13]作为细粒度两级注意力模型[14]的物体级筛选器,并在细粒度两级注意力模型的DomainNet网络结构中融入通道注意力机制[15],利用特征多尺度以及局部感受区域融合空间信息和通道信息,提取包含局部和全局信息的特征,进一步提升网络的识别精度。
1 网络架构为快速而精准地区分香烟与类烟物,本文算法分为2个模块:第1个模块是特征边缘筛选,通过将收集到的图片进行有效的边缘筛选,以保存包含前景物体的候选区域,得到具有香烟目标和背景的像素块;第2个模块是改进的弱监督细粒度网络模块,通过两级注意力模型与改进的EfficientDet网络相融合,使其能快速筛选出候选区域,且具有更优的特征捕捉能力。其中细粒度模型主要分为2个子模型:1)物体级模型,其通过对模型的预训练进行对象级图像分类,以滤除背景信息,保留包含待检目标的候选区域;2)局部级模型,其筛选出得分最高的像素块,最终通过检测结果获取吸烟特征,并判定是否存在吸烟行为。本文网络结构如图 1所示。
![]() |
Download:
|
图 1 本文网络结构 Fig. 1 Structure of the proposed network |
以w×h像素的图片作为模型的输入,利用边缘框的结构化边缘检测算子[16]提取图像边缘,并通过策略聚合得到的边缘段,并用非极大值抑制处理以得到稳定的目标边缘。
相似度的计算如式(1)所示:
$ a\left({s}_{i}, {s}_{j}\right)={\left|\mathrm{c}\mathrm{o}\mathrm{s}({\theta }_{{s}_{i}}-{\theta }_{ij})\mathrm{c}\mathrm{o}\mathrm{s}({\theta }_{{s}_{j}}-{\theta }_{ij})\right|}^{\gamma } $ | (1) |
其中:
边缘段的权值如式(2)所示:
$ {w}_{\mathrm{b}}\left({s}_{i}\right)=1-\underset{T}{\mathrm{m}\mathrm{a}\mathrm{x}}\prod\limits _{j}^{\left|T\right|-1}a({t}_{j}, {t}_{j+1}) $ | (2) |
其中:T为由t1 =Sj∈Sb到
$ \begin{array}{l}{h}_{\mathrm{b}}=\frac{\sum\limits _{i}{w}_{\mathrm{b}}\left({s}_{i}\right){m}_{i}}{2({b}_{\mathrm{w}}+{b}_{\mathrm{h}}{)}^{k}}\\ {m}_{i}=\sum\limits _{p\in {s}_{i}}{m}_{p}\end{array} $ | (3) |
其中:mi为边缘段的边缘强度;bw和bh分别为滑动窗口的宽和长;k为算法的平衡系数,以平衡不同窗口边缘段数量的差异。本文k取值为1.5。
特征边缘筛选过程通过上述公式得到每个滑动窗口的分数,设定阈值过滤最低值,则得到候选区域合集。
1.2 改进的弱监督细粒度网络模块在细粒度分类领域中区分包含待检测物体的前景区域和检测物体,分为物体级筛选与分类和局部级选择与分类两个过程。图 2表示细粒度模型的识别流程。
![]() |
Download:
|
图 2 细粒度模型的识别流程 Fig. 2 Recognition procedure of fine-grained model |
物体级筛选器使用EfficientDet-D0网络,对其在自建数据集上进行预训练处理,并在候选区域内进行背景噪声滤除,目的是删除与对象无关的嘈杂音色。原算法虽然能够滤除噪声,但其在分类预训练时使用的模型参数限制了位置回归准确率的提高。噪声的来源一般为环境、人物等未包含类烟物的候选区域,由于本文改进算法和原算法都使用特征金字塔网络(Feature Pyramid Network,FPN)等结构,区分纯背景与类烟物的准确率能达到98%以上,因此噪声的滤除效果远优于卷积神经网络(Convolutional Neural Network,CNN)。本文算法通过改进特征边缘筛选,以保证在深层特征图中依然可以提取香烟位置信息,由于特征边缘筛选通过EdgeBox算法获得众多的候选区域以及高召回率,并且检测网络结合局部级的注意力特性,能够完整地保留图像中的目标信息。因此,物体级筛选器能够有效地筛选出与香烟类别相近的候选区域和背景候选区域。EfficientDet-D0网络由3个部分构成:第1个部分是基于EfficientNet-B0结构的骨干网络;第2个部分是模型的特征提取结构BiFPN,其作用是通过将骨干网络EfficientNet-B0结构中3~7层的输出特征不断地做自顶向下和自底向上的特征融合;第3个部分是分类和检测框的预测网络。改进的EfficientDet网络结构如图 3所示。
![]() |
Download:
|
图 3 改进的EfficientDet网络结构 Fig. 3 Structure of improved EfficientDet network |
在实际场景中,本文采集的吸烟图像中香烟目标的相对尺寸为小于0.05的细小目标对象(相对图像的宽高),从而丢失了较多的空间信息,这种像素级特征的感受野不够大,且物体存在多尺度问题,使得普通的特征提取方式效果较差。为提高特征提取网络的提取能力,本文利用上下不同层级的语义关系和位置信息,增加浅层特征的语义信息,在特征提取时特征提取网络具有足够的上下文信息,同时也包括目标的细节信息。因此,本文在BiFPN中增加了跨级的数据流,将下层节点特征融合到上层节点进行共同学习,其结构如图 4所示。
![]() |
Download:
|
图 4 特征融合网络结构 Fig. 4 Structure of feature fusion network |
本文利用双向路径(自顶向下和自底向上)进行特征融合,将融合得到的全局特征与原始特征图连接起来,这种改进方法的目的是同时利用低层特征高分辨率和高层特征的高语义信息,通过融合这些不同层的特征使学习权重自动加权融合到输入特征,实现多层次、多节点融合学习。该过程称为融合目标的细节特征(浅层特征)和全局特征(深层特征也是上下文语义信息)的过程,由此得到最后的物体上下文特征表示。图 4中Pi表示主干网络中分辨率为输入图像(1/2i)的特征图,从图 4可以看出,高语义特征经过上采样后,其长、宽与对应的浅层特征相同,而改进增加的BiFPN跨级数据流通道是固定的,因此需要对底层特征进行卷积,使得底层特征输出的通道数与BiFPN跨级数据流通道相同,然后对两者进行横向连接,得到最终特征图。BiFPN能够充分利用不同层级的特征图信息,且收集不同尺度的语义信息并对其进行融合,以实现提取细微特征,这种方式得到的不同尺度的信息比全局池化所得的全局信息更具代表性。与特征未融合方法相比,检测到包含香烟目标区域的精确度提升1.4%以上,而计算量仅增加0.25%。主要原因是在未融合之前,特征未融合方法未考虑到各级特征对融合后特征的共享度问题,即之前模型认为各级特征的贡献度相同,而本文考虑到香烟目标的尺寸下降,导致它们分辨率不同。因此,不同香烟目标的分辨率对融合后特征的贡献度不同,在特征融合阶段引入了权重,同时通过双向融合将上下不同层级的语义关系和位置信息进行整合,将上采样后的高语义特征与浅层的定位细节特征进行融合,以达到对多个维度同时放大的目的。
改进的特征融合网络结构BiFPN通过将双向的跨尺度连接与快速的归一化相融合,并对图像特征进行提取,即将EfficientNet-B0骨干网络中3~7层的输出特征结果不断地将自顶向下和自底向上的特征进行融合。图 5所示为单个BiFPN的流程。
![]() |
Download:
|
图 5 BiFPN流程 Fig. 5 BiFPN procedure |
对BiFPN的每层输出进行分析。特征融合网络结构如式(4)所示:
$ \begin{array}{l}{P}_{7}^{\mathrm{o}\mathrm{u}\mathrm{t}}=\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}\left({P}_{7}^{\mathrm{i}\mathrm{n}}\right)\\ {P}_{6}^{\mathrm{o}\mathrm{u}\mathrm{t}}=\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}({P}_{6}^{\mathrm{i}\mathrm{n}}+\mathrm{R}\mathrm{e}\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}({P}_{7}^{\mathrm{o}\mathrm{u}\mathrm{t}}\left)\right)\\ ⋮\\ {P}_{3}^{\mathrm{o}\mathrm{u}\mathrm{t}}=\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}({P}_{3}^{\mathrm{i}\mathrm{n}}+\mathrm{R}\mathrm{e}\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}({P}_{4}^{\mathrm{o}\mathrm{u}\mathrm{t}}\left)\right)\end{array} $ | (4) |
其中:Piin=Pi;Piout为中间层的输出,i∈(3~7)。本文仅用第6层输出举例,其他层的输出类似。经过特征融合网络结构的输出如式(5)~式(6)所示:
$ {P}_{6}^{\mathrm{t}\mathrm{d}}=\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}\left(\frac{{\omega }_{1}\times {P}_{6}^{\mathrm{i}\mathrm{n}}+{\omega }_{2}\times \mathrm{R}\mathrm{e}\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}\left({P}_{7}^{\mathrm{i}\mathrm{n}}\right)}{{\omega }_{1}+{\omega }_{2}+\epsilon }\right) $ | (5) |
$ \begin{array}{l}{P}_{6}^{\mathrm{o}\mathrm{u}\mathrm{t}2}=\\ \mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}\left(\frac{{\omega }_{1}^{\mathrm{\text{'}}}\times {P}_{6}^{\mathrm{i}\mathrm{n}}+{\omega }_{2}^{\mathrm{\text{'}}}\times {P}_{6}^{\mathrm{t}\mathrm{d}}+{\omega }_{3}^{\mathrm{\text{'}}}{P}_{5}^{\mathrm{t}\mathrm{d}}+{\omega }_{4}^{\mathrm{\text{'}}}\times \mathrm{R}\mathrm{e}\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}\left({P}_{5}^{\mathrm{o}\mathrm{u}\mathrm{t}}\right)}{{\omega }_{1}^{\mathrm{\text{'}}}+{\omega }_{2}^{\mathrm{\text{'}}}+{\omega }_{3}^{\mathrm{\text{'}}}+{\omega }_{4}^{\mathrm{\text{'}}}+\epsilon }\right)\end{array} $ | (6) |
其中:P
整个特征提取网络是自底向上的前向传播过程,随着下采样次数不断地增加,获得的语义信息随之增多,但位置信息不断减少。虽然更深层次的特征图具有较多的语义信息,但其分辨率较低,原始图像中32×32像素的物体经过5次下采样后大小仅1×1像素,因此更深层次的特征图对小尺寸目标进行检测,其精确度较低。改进的EfficienDet网络在特征提取过程中充分利用不同层级的特征图信息,并增加前一层级的位置信息,使得在实际场景中香烟目标的检测结果较优。改进的EfficienDet网络利用FocalLoss解决正负样本不均匀的问题,由于网络内部具有较多的depthwise conv,因此通过将结果缓存在内存中以及逐点卷积完成后释放内存这2个步骤,使得EfficienDet网络准确性优于未改进前的EfficienDet网络,且FLOPS和参数量减少一个数量级。本文通过不固定BN层来进一步提高检测性能,与EfficienDet网络相比,改进的网络增加了参数量,并且对收敛的速度影响甚微。
1.2.2 局部级检测及分类局部级模型通过选择其第4个卷积层融合通道注意力机制,并将物体级筛选出的候选区域聚类成2类,同时利用聚类方式形成2个部分检测器。在检测器进行聚类并选择输入的候选区域过程中主要分为4个步骤:1)修改并整合输入的图片尺寸;2)通过一次前向的传递得到筛选器的激活分数;3)将相同类别筛选器的激活分数相加;4)在每个选择器的相同类别中选择获得分数最高的候选区域,并把这块当作重要块。改进的模型具有更强的特征捕捉能力,在实际场景中能够改进类烟物与香烟的区分效果。局部级检测模型结构如图 6所示。
![]() |
Download:
|
图 6 局部级检测模型结构 Fig. 6 Structure of local level detection model |
改进的DomainNet融合了注意力机制,利用通道注意力卷积块(AC-Block)替换原模型的所有卷积层,学习各个通道间关系以得到不同通道的权重,最后乘以原来的特征图得到最终特征。该方法使模型关注信息量最大的通道特征,而抑制不重要的通道特征。该方法主要分为:1)Squeeze操作,其通过对特征进行全局平均池化来实现;2)Excitation操作,池化输出的1×1×C数据经过两级全连接,使用sigmoid函数将值限制在[0, 1]范围内,并将得到的值分别乘到C个通道上,作为下级的输入数据。AC-Block卷积块结构如图 7所示。
![]() |
Download:
|
图 7 AC-Block结构 Fig. 7 AC-Block structure |
由于物体级和局部级接受的块不同,因此其功能和优势各不同。物体级筛选器为局部级检测器提供了选择的候选区域并进行前馈,为获得图像的预测标签,通过计算所有候选区域输出的平均分类分布以得到平均的预测标签。局部级分类器仅对包含判别力的局部特征进行处理。尽管有的块被两个分类器同时使用,但是它们代表不同的特征,能够潜在的互补。从图 6可以看出,在局部检测后得到的两组区域,一组是香烟目标,另一组是背景噪声。
物体级选择器选择关注整个对象的多个视图,这些候选区域驱动了细粒度的局部级模块——局部级检测器。局部级检测器通过选择并处理包含区分特征和局部特征的候选区域,使Alex网络的第4层卷积层形成2个聚类检测器,以生成候选区域块的激活分数。此外,物体级选择器通过对香烟目标进行定位,以完成前述算法的物体与局部区域检测工作。局部级检测器对检测到的香烟目标位置进行特征提取。通过物体级选择器和局部级检测器相互协调,完成了对细粒度香烟目标分类过程中物体、局部区域的检测与特征提取工作。以往文献是将卷积网络作为特征提取器,并未从整体上考虑效果,然而本文从整体上使用全局和局部信息对细粒度级别进行分类,在不借助数据集部分标注的情况下,完全依赖于物体级别和局部级别信息,具有较优的局部信息捕捉能力。最后,本文将2种注意力集中方法的预测结果进行合并,以结合两者的优势。即使2个分类器都接受了某些候选区域,但这些候选区域的特征在每个分类中都有不同的表示形式,但具有互补的信息。
本文将两个模型的结果相结合,通过最终的分值来判定是香烟目标还是类烟物,如式(7)所示:
$ {F}_{\mathrm{F}\mathrm{i}\mathrm{n}\mathrm{a}\mathrm{l}\;\mathrm{ }\mathrm{s}\mathrm{c}\mathrm{o}\mathrm{r}\mathrm{e}}={O}_{\mathrm{o}\mathrm{b}\mathrm{j}\mathrm{e}\mathrm{c}\mathrm{t}\;\mathrm{ }\mathrm{s}\mathrm{c}\mathrm{o}\mathrm{r}\mathrm{e}}+\mathrm{\alpha }\times {P}_{\mathrm{p}\mathrm{a}\mathrm{r}\mathrm{t}\;\mathrm{ }\mathrm{s}\mathrm{c}\mathrm{o}\mathrm{r}\mathrm{e}} $ | (7) |
其中:
本文实验的平台系统是Ubuntu 18.04,图形处理单元(GPU)是NVIDIA GTX 1080Ti,主要为python3.7+ numpy1.18.1+torchvision0.5.0+pytorch1.4.0+pycocotools+opencv3.4.2,优化器为Adam,其中衰减系数分别为0.9和0.999。模型训练输入图像的像素为512×512,batch_size都为12,模型迭代次数设为300,学习率设置为10-4。
本文算法虽然属于弱监督吸烟行为识别,所需的样本无需目标级别的标注,但无论是在前期的特征分析还是之后的实验论证都需要数据集支撑,由于吸烟行为识别的研究还不太成熟,没有类似于其他动作识别的标准数据集。为此,本文构建了吸烟行为检测数据集BUU-Smoke,并在该数据集上进行测试。BUU-Smoke数据集(19 816张图片)是一个具有挑战性的吸烟动作检测数据集。本文数据集在办公楼下、街边等5个摄像头下采集数据,拍摄于白天,光照条件良好,数据集像素主要为512×512和640×640,其中包含4 881张通过网上获得、视频截图的影视图片以及14 935张包含生活、工作、街头等场景采集的真实图像数据,实景采集的每张图中至少有3人存在吸烟行为。其中包括吸烟数据、手拿类烟物数据以及正常无目标数据片段,为确保数据与实际场景符合,数据集的比例根据统计的中国30%的吸烟率[17]来设计,吸烟∶非吸烟比例为3∶7,其非吸烟数据中,手拿类烟物与正常无目标的比例也为3∶7,为确保检测算法的适用性,数据片段的背景涉及到各个生活场景。由于数据采集的环境不同,光照明暗以及设备的性能优劣等,手动采集的数据存在对比度低、有噪声等缺点。本文在模型训练前,对数据集进行了图像增强、灰度取值范围相同、大小归一化等预处理。数据集样例如图 8所示。基线方法在此数据集上的效果只有15.5%,表明本数据集具有一定的研究意义和学术价值。
![]() |
Download:
|
图 8 数据集样例 Fig. 8 Sample data set |
本文通过对比实验和消融实验对算法的性能进行评估和分析,
3.1 评价指标本文实验采用损失函数(Loss)、时间度、准确率(P)、召回率(R)和
$ \begin{array}{l}P=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{P}}}\\ R=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{N}}}\\ {A}_{\mathrm{A}\mathrm{P}}={\int }_{0}^{1}P\left(R\right)\mathrm{d}R\\ {m}_{\mathrm{m}\mathrm{A}\mathrm{P}}=\frac{1}{\left|{Q}_{\mathrm{R}}\right|}\sum\limits _{q\in {Q}_{\mathrm{R}}}{A}_{\mathrm{A}\mathrm{P}}\left(q\right)\end{array} $ | (8) |
其中:TTP表示对象为正例,识别为正例;FFP表示对象为负例,识别为正例;FFN表示对象为正例,识别为负例;QR为测试集个数;AAP为平均精度。
3.2 对比实验1为评估本文算法在吸烟行为检测中的性能,本文在香烟烟雾识别、吸烟手势识别、香烟识别这3种主要的吸烟行为识别方式中,分别选取最具代表性的算法进行对比。为保证结果公平,所选取的算法均在本实验平台进行重新训练,除本文算法以外,其他算法均采用有预训练模型的迁移学习进行训练。为模拟真实吸烟场景,以保证实验的可靠性,本文共进行10次测验,根据文献[17]中研究的3∶7的吸烟人数选取每次测验数据量,随机选取70个非吸烟场景,30个类似吸烟场景,其中类似吸烟场景包括25个真实吸烟场景和5个手拿类烟物场景,最终评判结果取每次测验结果的平均值。
在BUU-Smoke数据集上对不同模型的性能指标进行对比,从表 1可以看出,整个10次测试实验数据,文献[4]、文献[5]和文献[8]模型的
![]() |
下载CSV 表 1 在BUU-Smoke数据集上不同算法的指标对比 Table 1 Indexs comparison among different algorithms on BUU-Smoke data set |
不同算法的loss值对比如图 9所示,从图 9可以看出,相比其他算法,本文算法的loss不论是收敛值还是曲线平滑程度都具有明显的优势。
![]() |
Download:
|
图 9 不同算法的loss值对比 Fig. 9 Comparison of loss values among different algorithms |
对比实验Ⅰ评估了算法在吸烟行为识别的性能,与其他吸烟算法相比,本文算法具有较优的准确度和误检率。由于本文研究还涉及细粒度方向,对比实验Ⅱ主要评估算法分辨类烟物与香烟的性能,采用测试集数据总数为100张,其中香烟目标场景与类烟物场景比例为1∶1。细粒度与粗粒度算法的实验结果对比如表 2所示。本文分别选取粗粒度与细粒度最具代表性的算法与本文所提算法进行对比,选取Faster RCNN[18]、SSD[19]、RetinaNet[20]、EfficientDet-D4[13]作为粗粒度算法,选取MAMC[21]、MVC[22]、DFL-CNN[23]作为细粒度算法,所有算法均采用预训练模型的迁移学习进行训练,由于本文实验受硬件性能限制,即使将训练过程中的批大小降为最小的1,硬件性能仍然达不到训练EfficientDet系列的最优算法D7的程度,所以采用EfficienDet-D4进行对比实验。
![]() |
下载CSV 表 2 粗粒度与细粒度算法的实验结果对比 Table 2 Experimental results comparison of coarse-grained and fine-grained algorithms |
从表 2可以看出,Faster-RCNN和SSD两个算法主要是评估特征金字塔网络中受语义多尺度特征的影响。EfficientDet作为目前性能较优的目标检测器,其D4模型的
本文设置了一组消融实验,以全面评估本文所提算法的性能,将算法进行部分剥离,从而评判模型部分的缺失对整体效果的影响。
消融实验描述如表 3所示,本文消融实验分为5个部分:1)算法1仅使用网络中的目标检测网络EfficientDet-D0;2)算法2仅使用细粒度两级注意力模型;3)算法3使用整个网络,但是将候选区域提取算法进行替换;4)算法4是去除模型中添加的通道注意力卷积块(AC-Block);5)本文算法。
![]() |
下载CSV 表 3 消融实验描述 Table 3 Description of ablation experiment |
消融实验结果如表 4所示,仅使用粗粒度或者细粒度模型的算法1和算法2的
![]() |
下载CSV 表 4 消融实验结果 Table 4 Results of ablation experiment |
本文提出一种基于弱监督细粒度结构与改进EfficientDet网络的吸烟行为检测算法,用于解决真实场景下吸烟行为识别过程中目标细小检测效果差的问题。通过改进EfficientDet网络中的BiFPN结构,将下层节点特征融合到上层节点并共同学习,利用上下不同层级的语义关系和位置信息增加跨级的数据流,实现多层次、多节点的融合学习。此外,在DomainNet网络结构中融入基于通道注意力机制的卷积块(AC-Block),使模型提取到信息量最大的通道特征。实验结果表明,本文算法的吸烟行为识别准确率为93.1%,并具有较优的鲁棒性和泛化能力。后续将扩展识别场景,使模型优化为具有普适性的复杂动作识别架构,以适应更复杂的场景。
[1] |
REBECCA A, LAUREN P, ROBERT G, et al. The united states national cancer institute's coordinated research effort on tobacco use as a major cause of morbidity and mortality among people with HIV[J]. Nicotine & Tobacco Research, 2021, 23(2): 1-10. |
[2] |
FEICHTENHOFER C, PINZ A, ZISSERMAN A. Convolutional two-stream network fusion for video action recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2016: 1933-1941.
|
[3] |
林镇涛. 中距离户外施工人员吸烟行为检测方法研究[D]. 成都: 电子科技大学, 2020. LIN Z T, Research on smoking behavior detection method of middle-distance outdoor construction workers[D]. Chengdu: University of Electronic Science and Technology of China, 2020. (in Chinese) |
[4] |
ZHANG D, CHEN J, WANG S. Smoking image detection based on convolutional neural networks[C]//Proceedings of the 4th International Conference on Computer and Communications. Washington D. C., USA: IEEE Press, 2018: 1-10.
|
[5] |
刘远丁. 基于多特征融合的室内吸烟烟雾识别算法研究[D]. 秦皇岛: 燕山大学, 2018. LIU Y D. Research on indoor smoking smoke recognition algorithm based on multi-feature fusion[D]. Qinhuangdao: Yanshan University, 2018. (in Chinese) |
[6] |
王梦依. 基于深度学习图像处理的吸烟行为检测[D]. 北京: 北方工业大学, 2020. WANG M Y. Smoking behavior detection based on deep learning image processing[D]. Beijing: North China University of Technology, 2020. (in Chinese) |
[7] |
ZHAO R, WANG M, ZHAI Z, et al. Indoor smoking behavior detection based on YOLOv3-tiny [C]//Proceedings of Chinese Automation Congress. Hangzhou, China: [s. n. ], 2019: 3477-3481.
|
[8] |
ARTAN Y, BALCI B, ELIHOS A, et al. Vision based driver smoking behavior detection using surveillance camera images[C]//Proceedings of International Conference on Image Analysis and Processing. New York, USA: [s. n. ], 2019: 468-476.
|
[9] |
李倩. 基于深度学习的烟支检测技术研究与应用[D]. 西安: 西安邮电大学, 2020. LI Q. Research and application of cigarette detection technology based on deep learning[D]. Xi'an: Xi'an University of Posts and Telecommunications, 2020. (in Chinese) |
[10] |
程淑红, 马晓菲, 张仕军, 等. 基于多任务分类的吸烟行为检测[J]. 计量学报, 2020, 41(5): 538-543. CHENG S H, MA X F, ZHANG S J, et al. Smoking behavior detection based on multi-task classification[J]. Acta Metrology, 2020, 41(5): 538-543. (in Chinese) |
[11] |
韩贵金, 李倩. 基于Faster R-CNN的吸烟快速检测算法[J]. 西安邮电大学学报, 2020, 25(2): 85-91. HAN G J, LI Q. Faster smoking detection algorithm based on Faster R-CNN[J]. Journal of Xi'an University of Posts and Telecommunications, 2020, 25(2): 85-91. (in Chinese) |
[12] |
ZITNICK C L, DOLLAR P. Edge boxes: locating object proposals from edges[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2014: 391-405.
|
[13] |
TAN M, PANG R, LE Q V. Efficientdet: scalable and efficient object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2020: 1-10.
|
[14] |
XIAO T, XU Y, YANG K, et al. The application of two-level attention models in deep convolutional neural network for fine-grained image classification[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2015: 1-10.
|
[15] |
HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023. DOI:10.1109/TPAMI.2019.2913372 |
[16] |
DOLLAR P, ZITNICK C L. Structured forests for fast edge detection[C]//Proceedings of the IEEE International Conference on Computer Vision. Washington D. C., USA: IEEE Press, 2013: 1841-1848.
|
[17] |
张迪. 中国吸烟流行趋势及其对慢性疾病的影响[J]. 中华医学杂志, 2020, 100(24): 1871. ZHANG D. The trend of smoking in China and its impact on chronic diseases[J]. Chinese Medical Journal, 2020, 100(24): 1871. (in Chinese) |
[18] |
REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. DOI:10.1109/TPAMI.2016.2577031 |
[19] |
LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multiBox detector [C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 21-37.
|
[20] |
LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 99: 2999-3007. |
[21] |
SUN M, YUAN Y, ZHOU F, et al. Multi-attention MultiClass constraint for fine-grained image recognition [C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2018: 834-850.
|
[22] |
HUANG W F, ZHANG T, CHANG D L, et al. Fine-grained image classification method based on the multiple perspectives fusion[J]. Signal Processing, 2021, 154: 100-110. |
[23] |
WANG Y, MORARIU V I, DAVIS L S. Learning a discriminative filter bank within a CNN for fine-grained recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D. C., USA: IEEE Press, 2018: 4148-4157.
|