«上一篇 下一篇»
  计算机工程  2021, Vol. 47 Issue (11): 276-282  DOI: 10.19678/j.issn.1000-3428.0059379
0

引用本文  

陶施帆, 李玉峰, 黄煜峰, 等. 基于深度残差网络和注意力机制的人脸检测算法[J]. 计算机工程, 2021, 47(11), 276-282. DOI: 10.19678/j.issn.1000-3428.0059379.
TAO Shifan, LI Yufeng, HUANG Yufeng, et al. Face Detection Algorithm Based on Deep Residual Network and Attention Mechanism[J]. Computer Engineering, 2021, 47(11), 276-282. DOI: 10.19678/j.issn.1000-3428.0059379.

基金项目

国家高分专项辽宁湿地遥感监测与生态旅游遥感调查产业化应用项目(70-Y40-G09-9001-18/20);辽宁省自然科学基金(20180550334);辽宁省教育厅项目(L201701);国家青年科学基金(61801308);辽宁省“兴辽英才计划”项目(XLYC1907195)

作者简介

陶施帆(1995-), 女, 硕士研究生, 主研方向为人脸检测与识别;
李玉峰, 教授、博士;
黄煜峰, 讲师、博士;
蓝晓宇, 副教授、博士

文章历史

收稿日期:2020-08-27
修回日期:2020-10-26
基于深度残差网络和注意力机制的人脸检测算法
陶施帆 , 李玉峰 , 黄煜峰 , 蓝晓宇     
沈阳航空航天大学 电子信息工程学院, 沈阳 110136
摘要:人脸检测技术作为一种人员身份识别的主流技术被广泛应用于人们的日常生活中。然而在特定应用场景中,当人脸被遮挡或人脸目标非常密集时,人脸识别的检测性能急剧下降。提出一种基于深度残差网络和注意力机制的高精度人脸检测算法。使用残差网络ResNet-50并结合IoU损失函数提高人脸检测精度,并利用注意力机制优化突出脸部区域特征,在此基础上采用非极大值抑制方法增强算法鲁棒性。在公开FDDB数据集上的实验结果表明,该算法的准确率达到96.1%相比传统卷积网络VGG-16算法提高1.6个百分点。
关键词人脸检测    非极大值抑制    注意力机制    残差网络    IoU损失函数    
Face Detection Algorithm Based on Deep Residual Network and Attention Mechanism
TAO Shifan , LI Yufeng , HUANG Yufeng , LAN Xiaoyu     
School of Electronic Information Engineering, Shenyang University of Aeronautics and Astronautics, Shenyang 110136, China
Abstract: As a mainstream technology for personal identification, face detection has been widely used in daily life. However, in some application scenarios, the face recognition performance will be decreased dramatically when the face is occluded or the face targets are very dense.To address the problem, a high-precision face detection algorithm based on deep residual network and attention mechanism is proposed.The algorithm utilizes the residual network ResNet-50 combined with the IoU loss function to improve the accuracy of face detection, and then the attention mechanism is employed to optimize the prominent facial area features.On this basis, the Non-Maximum Suppression(NMS) method is used to enhance the robustness of the algorithm.The experimental results on the public dataset, FDDB, show that the accuracy rate of the proposed algorithm reaches 96.1%, which is 1.6% higher than that of the traditional algorithm based on VGG-16.
Key words: face detection    Non-Maximum Suppression(NMS)    attention mechanism    residual network    IoU loss function    

开放科学(资源服务)标志码(OSID):

0 概述

随着图像处理技术的迅速发展,人脸检测逐渐应用到人们日常生活的各个方面,如刷脸支付、刷脸乘车等。然而在特定场景中,在面部受到遮挡、或是人脸比较密集等情况下,检测成功概率将会大幅下降。因此,如何在信息不完整的特殊情况下实现高效、精准的人脸检测是一个亟需解决的问题。特别是随着国内防疫工作常态化,在部分复工复学的学校及企业中,利用人脸检测技术对出入人员进行身份核验能够有效提高工作效率。因此,研究提高戴口罩人员的检测概率是一个重要的研究课题[1]

近年来,随着深度学习技术的快速发展,在目标检测算法的基础上涌现出了大量人脸检测的智能算法。在人脸检测方面,DDFD(Deep Dense Face Detector)[2]是一种基于AlexNet进行微调改进的深度学习网络模型,该模型不需要姿态或者关键点标注,能够用一个单一的模型抓取各个方向上的人脸,对各种姿势有很强的抵抗能力,但偏转角度、姿势的变换越大,准确度就会越低。CascadeCNN[3]是对经典的Viola-Jones[4]方法的深度卷积网络实现,构建一种级联结构来检测从粗糙到精细的面部特征。Face R-CNN[5]基于Faster R-CNN[6]框架进行人脸检测,在原有的R-CNN结构中加入了中心损失函数,在训练阶段将图片经过不同尺度缩放,可以更好地检测小尺寸图片。UnitBox[7]提出一个新的交并比(Intersection over Union,IoU)损失函数,代替常用的L2损失函数,提高了人脸检测精度。虽然人脸检测技术已经取得了极大进步,但是对有遮挡的人脸进行检测效果仍不尽如人意,因为没有关于遮挡部分的先验知识,遮挡部分可以在面部图像的任何位置,或者可以是任何大小或形状。在智能算法方面,视觉注意模型可以有效理解图像,在计算机视觉任务中的应用非常成功。SANGHYUN等[8]提出轻量级卷积块注意模块(CBAM)用于对象识别。PENG等[9]提出一种用于细粒度图像分类的对象部分注意模型(OPAM),该模型结合注意力机制和残差网络模块,成功应用于细粒度图像分类,并具有较好的性能,然而在有遮挡的人脸检测领域尚缺乏相关研究。

为解决密集人脸检测精度低的问题,本文提出一种基于深度残差网络和注意力机制的算法模型。该模型包括算法模型修改、引入注意力机制及非极大值抑制(NMS)技术3个方面。利用2个完全卷积层的分支去分别预测像素级边界框及置信分数,同时引入IoU损失函数优化网络,提高人脸检测的精度。在深度残差网络中通过注意力机制提升算法对复杂场景的理解能力,减少遮挡和密集等无用信息的干扰,实现对人脸有效目标信息的准确提取。最终在检测过程中利用非极大值抑制[10]技术,克服因人脸目标密集或重叠导致的误检和漏检,以提高算法的性能。

1 相关工作 1.1 残差网络

在传统卷积神经网络中,多层特征随着网络层数的叠加而更加丰富,因此网络层数越深,意味着图像处理的效果越好。但是简单的叠加网络会导致梯度消失问题,阻碍模型的收敛。初始化和正则化可以保证几十层的网络能够正常收敛,然而在更深层次的网络中,准确率达到饱和后效果反而变差。

针对上述情况,ResNet引入了残差学习来解决深度网络难以优化的问题,其模块结构如图 1所示。令$ {M}_{c}\left(F\right)=\sigma \left({W}_{1}\right({W}_{2}\left({F}_{\mathrm{a}\mathrm{v}\mathrm{g}}^{c}\right))+{W}_{1}({W}_{2}\left({F}_{\mathrm{m}\mathrm{a}\mathrm{x}}^{c}\right)\left)\right) $表示最优的映射,使用堆叠的非线性层去拟合另一个映射$ {M}_{c}\left(F\right)=\sigma \left({W}_{1}\right({W}_{2}\left({F}_{\mathrm{a}\mathrm{v}\mathrm{g}}^{c}\right))+{W}_{1}({W}_{2}\left({F}_{\mathrm{m}\mathrm{a}\mathrm{x}}^{c}\right)\left)\right) $,此时最优映射可以表示为$ {M}_{c}\left(F\right)=\sigma \left({W}_{1}\right({W}_{2}\left({F}_{\mathrm{a}\mathrm{v}\mathrm{g}}^{c}\right))+{W}_{1}({W}_{2}\left({F}_{\mathrm{m}\mathrm{a}\mathrm{x}}^{c}\right)\left)\right) $。残差映射在前馈网络中增加快捷连接,执行简单的恒等映射,这样不会增加额外参数和计算复杂度,比原有映射更易优化。

Download:
图 1 残差网络结构 Fig. 1 Residual network structure

普通直连的卷积神经网络和ResNet的最大区别在于:ResNet有旁路的支线将输入直接连到后面的层,使得后面的层直接学习残差,这种结构也被称为直连或跳跃式传递。传统的卷积层或全连接层在信息传递时,或多或少会存在信息丢失、损耗等问题。ResNet在某种程度上解决了这个问题,通过直接将输入信息传到输出,保护信息的完整性,整个网络只需要学习输入、输出差别即可,简化了学习目标和难度。

1.2 IoU损失函数

对于图像中的每个像素(ij),真实值的边界框可以定义为一个4维向量,xtxbxlxr分别表示当前像素位置(ij)与真实值的上下边界之间的距离,为计算简便省略了注释ij。因此,将预测的边界框定义为$ {M}_{c}\left(F\right)=\sigma \left({W}_{1}\right({W}_{2}\left({F}_{\mathrm{a}\mathrm{v}\mathrm{g}}^{c}\right))+{W}_{1}({W}_{2}\left({F}_{\mathrm{m}\mathrm{a}\mathrm{x}}^{c}\right)\left)\right) $,如图 2所示。

Download:
图 2 IoU损失函数原理 Fig. 2 The IoU loss function principle

IoU为预测框与真实框的交并比,IoU损失函数如式(1)所示:

$ \mathrm{I}\mathrm{o}\mathrm{U}\;\mathrm{ }\mathrm{l}\mathrm{o}\mathrm{s}\mathrm{s}=\\-\mathrm{l}\mathrm{n}\frac{\mathrm{I}\mathrm{n}\mathrm{t}\mathrm{e}\mathrm{r}\mathrm{s}\mathrm{e}\mathrm{c}\mathrm{t}\mathrm{i}\mathrm{o}\mathrm{n}(\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{d}\mathrm{i}\mathrm{c}\mathrm{t}\mathrm{i}\mathrm{o}\mathrm{n}, \mathrm{G}\mathrm{r}\mathrm{o}\mathrm{u}\mathrm{n}\mathrm{d}\;\mathrm{ }\mathrm{t}\mathrm{r}\mathrm{u}\mathrm{t}\mathrm{h})}{\mathrm{U}\mathrm{n}\mathrm{i}\mathrm{o}\mathrm{n}(\mathrm{P}\mathrm{r}\mathrm{e}\mathrm{d}\mathrm{i}\mathrm{c}\mathrm{t}\mathrm{i}\mathrm{o}\mathrm{n}, \mathrm{G}\mathrm{r}\mathrm{o}\mathrm{u}\mathrm{n}\mathrm{d}\;\mathrm{ }\mathrm{t}\mathrm{r}\mathrm{u}\mathrm{t}\mathrm{h})} $ (1)

其中:Prediction表示预测值;Ground truth表示真实值;Intersection表示交集;Union表示并集。

1.3 注意力机制

目前图像处理最常用的注意力机制为通道注意力机制[11]和空间注意力机制[12]

1)通道注意力机制

通道注意力机制更关注图像输入的通道的信息,通过对通道信息的特征提取来提取特征分类上的精度[13]。通道注意力模块首先对输入的特征图$ {M}_{c}\left(F\right)=\sigma \left({W}_{1}\right({W}_{2}\left({F}_{\mathrm{a}\mathrm{v}\mathrm{g}}^{c}\right))+{W}_{1}({W}_{2}\left({F}_{\mathrm{m}\mathrm{a}\mathrm{x}}^{c}\right)\left)\right) $分别进行最大池化和平均池化进行空间维度压缩,其中,C表示输入特征图的通道数,HW表示特征图的长和宽。然后通过共享多层感知器(Multi-Layer Perceptron,MLP)计算通道注意力图。最后使用激活函数sigmoid进行输出,得到通道注意力特征图$ {M}_{c}\left(F\right)=\sigma \left({W}_{1}\right({W}_{2}\left({F}_{\mathrm{a}\mathrm{v}\mathrm{g}}^{c}\right))+{W}_{1}({W}_{2}\left({F}_{\mathrm{m}\mathrm{a}\mathrm{x}}^{c}\right)\left)\right) $,其网络结构如图 3所示,计算公式如式(2)所示。

$ {M}_{c}\left(F\right)=\sigma \left({W}_{1}\right({W}_{2}\left({F}_{\mathrm{a}\mathrm{v}\mathrm{g}}^{c}\right))+{W}_{1}({W}_{2}\left({F}_{\mathrm{m}\mathrm{a}\mathrm{x}}^{c}\right)\left)\right) $ (2)
Download:
图 3 通道注意力结构 Fig. 3 Channel attention structure

其中:F为输入特征图;$ {F}_{s}=\frac{1}{C}\sum\limits _{i\in C}F\left(i\right)+ $$ \underset{i\in C}{\mathrm{m}\mathrm{a}\mathrm{x}}F\left(i\right) $$ {F}_{s}=\frac{1}{C}\sum\limits _{i\in C}F\left(i\right)+ $$ \underset{i\in C}{\mathrm{m}\mathrm{a}\mathrm{x}}F\left(i\right) $分别代表经过平均池化和最大池化的特征图;W1W2表示多层感知器中两层的权重。

2)空间注意力机制

空间注意力机制主要关注于目标在图像上的位置信息,通过空间特征的加权和来选择性地聚合每个空间的特征[14]。输入特征图$ {F}_{s}=\frac{1}{C}\sum\limits _{i\in C}F\left(i\right)+\underset{i\in C}{\mathrm{m}\mathrm{a}\mathrm{x}}F\left(i\right) $,将输入的特征先后进行最大池化和平均池化,如式(3)所示,然后通过7×7的卷积核和sigmoid激活函数进行处理,如式(4)所示,得到空间注意权重图$ {F}_{s}=\frac{1}{C}\sum\limits _{i\in C}F\left(i\right)+\underset{i\in C}{\mathrm{m}\mathrm{a}\mathrm{x}}F\left(i\right) $,其网络结构如图 4所示。

$ {F}_{s}=\frac{1}{C}\sum\limits _{i\in C}F\left(i\right)+ \underset{i\in C}{\mathrm{m}\mathrm{a}\mathrm{x}}F\left(i\right) $ (3)
$ {M}_{S}=\sigma \left({f}^{7\times 7}\right({F}_{s}\left)\right) $ (4)
Download:
图 4 空间注意力结构 Fig. 4 Spatial attention structure
1.4 非极大值抑制算法

对于检测任务,非极大值抑制(NMS)算法是对检测结果进行冗余去除操作的后处理算法,基于一个固定的距离阈值进行贪婪聚类,即贪婪地选取得分高的检测结果并删除超过预设阈值的相邻结果,在召回率和精度之间取得权衡[15]。利用IoU损失函数提取阈值范围内的所有人脸检测框,将上述检测框按照得分进行排序,选取得分最高的检测框,然后计算其他的框与当前框的重合程度,如果重合程度大于一定阈值则删除,因为在同一个脸上可能会有好几个高得分的框,但是只需要一个即可。NMS的公式如下:

$ {s}_{i}=\left\{\begin{array}{c}{s}_{i}, \mathrm{I}\mathrm{o}\mathrm{U}(N, {x}_{i}) < T\\ 0, \mathrm{I}\mathrm{o}\mathrm{U}(N, {x}_{i})\ge T\end{array}\right. $ (5)

其中:N表示当前得分最高的边界框,为待处理框,和N重叠的候选窗口xi的重叠度IoU小于预设阈值T的保留其得分,大于预设阈值T的窗口,其得分全部设置为0。

2 基于深度残差网络的人脸检测算法

针对人脸检测应用中存在的人脸密集、戴口罩遮挡等问题,本文提出一种利用ResNet-50作为骨干网络并引入注意力机制和NMS优化的人脸检测算法。

2.1 改进的深度残差网络

为获取更深层的图像参数,使用ResNet-50作为骨干网络,ResNet-50网络结构如图 5所示。输入图像经过第1次卷积池化后传入残差块中,在随后的每个阶段都要经过一次卷积加归一化(Conv+Batch Norm)的操作,即Conv Block,然后经过多个输入和输出维度都一致的Identity Block,在经过第2阶段~第5阶段的卷积后,通过7×7大小的平均池化层(AVG Pool),传入Flatten层将数据压缩成一维数组,再与全连接层连接。

Download:
图 5 ResNet-50网络结构 Fig. 5 ResNet-50 network structure

本文删除了ResNet-50中的完全连接层,并添加了2个完全卷积层的分支去分别预测像素级边界框和置信分数,网络结构如图 6所示。

Download:
图 6 深度残差网络中的置信和预测分支 Fig. 6 Confidence and prediction branch block of deep residual network

图 6可以看出,在ResNet-50第4阶段的末尾添加了1个卷积层,步长为1,内核大小为512×3×3×1,随后执行线性插值将特征图调整为原始图像大小,最后将要素图与输入图像对齐之后,获得了具有相同输入图像尺寸的通道特征图。在该特征图上使用S形交叉熵损失来回归生成的置信度热图。

为预测边界框热图,在ResNet-50第5阶段的末尾添加卷积内核大小为512×3×3×4的卷积层,同第4阶段,类似地将特征图调整为原始图像大小并与输入图像对齐。此外,插入ReLU层确保边界框预测非负,预测边界与IoU损失函数共同优化。最终损失计算为2个分支的损失的加权平均值。

将置信分支连接在ResNet-50第4阶段的末尾,而边界框分支插入在第5阶段的末尾,是由于IoU损失计算的边界框是一个整体,因此需要更大的感受野,并且可以直观地从置信度热图中预测对象的边界框。这样,边界框分支被视为一种自下而上的策略,可以从置信度热图中抽象出边界框。

2.2 注意力机制的引入

本文在网络结构的卷积块中引入了注意力机制[16],给定中间特征图为输入I$ \mathbb{R} $C×H×W,主干部分由两组残差单元组成,分支部分由一组残差单元、通道注意力模块和空间注意力模块组成,如图 7所示。中间特征图首先通过通道注意力模块,生成一维的通道注意力图WC$ \mathbb{R} $C×1×1,然后通过空间注意力模块生成二维的空间注意力图WS$ \mathbb{R} $H×W。图中⊗为对应矩阵元素相乘,通道注意力模块相乘时,先把一维通道注意力图扩张为WC$ \mathbb{R} $C×H×W再相乘,空间注意力模块相乘时也同样先把二维的空间注意力图沿着通道维度扩张为WS$ \mathbb{R} $C×H×W再相乘。

Download:
图 7 卷积块中的注意力机制 Fig. 7 Attention mechanism of convolution block

上述过程可以看作是通道和空间注意力学习的相互结合,以实现层级间互信息的最大化,从而引导模型在迭代训练中学习到更显著的人脸相关信息。

2.3 网络整体结构

图 8所示为人脸检测整体网络结构,将注意力机制应用于整个残差网络,促使图像有用信息在网络中有效流动,捕捉人脸关键部位的有用信息,提高对有遮挡人脸的检测能力,使用置信度和边界框的热图准确地定位人脸。在阈值置信度热图上通过椭圆拟合人脸,由于人脸椭圆太粗糙而无法定位对象,因此进一步选择这些人脸椭圆的中心像素,并从这些选择的像素中提取相应的边界框。

Download:
图 8 深度残差网络结合注意力机制的网络结构 Fig. 8 The network structure of the deep residual network combined with the attention mechanism
2.4 非极大值抑制算法

非极大值抑制算法(NMS)计算出每一个检测框的面积,根据得分进行排序,随后计算其余检测框与当前最大得分的检测框交并比,删除交并比大于设定阈值的检测框。重复上述过程,直至候选检测框为空,最终得到最佳的人脸检测框,如图 9所示,由此可以提升定位人脸的准确性。

Download:
图 9 NMS算法人脸定位 Fig. 9 NMS algorithm faces locates
3 实验结果与分析 3.1 实验环境

本文基于PyTorch的深度学习框架平台进行算法研究,深度学习平台为PyTorch0.4,编译环境为Python3.5,操作系统为Ubuntu18.04。硬件平台为Dell T7810工作站,CPU为Intel E5-2620 V4 2.1 GHz,内存为16 GB,GPU计算卡为Nvidia Quadro P4000 4 GB。

3.2 实验结果

本文使用FDDB数据集进行实验结果测试,FDDB是当前权威的人脸检测评测集之一,共包含了2 845张图片,人脸状态多样,包括遮挡、密集、分辨率低等情况。使用的权重根据ImageNet[17]上预先训练的ResNet-50模型初始化,然后在数据集WiderFace[18]上进行微调。微调过程采用随即梯度下降(Stochastic Gradient Descent,SGD),并将批量大小设置为10。动量和权重衰减因子分别设置为0.9和0.000 2。学习率设置为最大训练值10-8,微调期间不使用任何数据扩充。

3.2.1 人脸检测与置信度效果

人脸检测结果与置信度热图如图 10所示,可以看出本文算法能够准确找到人脸置信度高的像素点,如图 10(b)所示,并能够生成对应的人脸检测边界框,如图 10(a)所示。

Download:
图 10 人脸检测结果 Fig. 10 Face detection result
3.2.2 有无注意力机制检测效果对比

在人脸有遮挡的情况下,与不含注意力机制的残差网络进行检测结果对比,如图 11所示,可以看出本文算法可以准确检测出佩戴口罩的人脸,精度高于不含注意力机制的方法,表明其对于有遮挡人脸的检测效果较好,说明通过增加注意力机制模块对复杂的人脸图像具有很强的适应性。

Download:
图 11 有无注意力机制的检测结果对比 Fig. 11 Comparison of detection results with or without attention mechanism
3.2.3 人脸密集情况下检测效果对比

图 12为本文方法与CascadeCNN、FastCNN人脸检测算法的检测结果对比。由图 12(a)~图 12(c)可见,CascadeCNN方法对于小尺度人脸和有遮挡的人脸检测效果不理想,FastCNN方法可以检测出被遮挡的人脸,但是对于小尺度人脸检测效果不理想,本文方法对于检测密集型人脸和有遮挡的人脸,都能取得理想的效果。

Download:
图 12 人脸密集检测结果对比 Fig. 12 Comparison of face dense detection results
3.3 评价指标与定量分析

本文使用目标检测领域常用的ROC曲线(Receiver Operating Characteristic curve)和每秒帧率(Frame Per Second,FPS)来客观评价本文算法对于人脸的检测能力[19]

ROC曲线表示的是真正率和假正数的关系。其中,真正率(True Positive Rate)ρ的计算公式为:

$ ρ=\frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{N}} $ (6)

其中:真正数(True Positive,TP)表示正样本被预测为正样本的个数;假正数(False Positive,FP)表示负样本被预测为正样本的个数;假负数(False Negative,FN)表示正样本被预测为负样本的个数。

本文算法通过与人脸检测表现较好的算法DDFD、CascadeCNN、FastCNN、DP2MFD、UnitBox进行对比,可以看出本文算法检测性能优于其他人脸检测算法,如图 13所示。DDFD、CascadeCNN算法精确率较差,在85%左右;FastCNN、DP2MFD算法的精确率较好,能达到90%左右;UnitBox和本文算法的精确率较高,基本在95%以上。对精确率在假正数为500时的值进行统计,同时可得出误检率。

Download:
图 13 ROC曲线对比 Fig. 13 ROC curve comparison

每秒帧率(FPS)表示每秒处理的图片数量,用来衡量算法的检测效率。本文实验的FPS和总共检测完2 845张图像所需时间如表 1所示[20]。从表 1可以看出,本文算法的人脸检测精确率达96.1%,与使用VGG-16网络的UnitBox算法相比精确率提高了1.6%,在检测速度方面,本文算法的检测速度显著优于DDFD、CascadeCNN、FastCNN、DP2MFD等算法,达到10 frame/s以上,略低于UnitBox算法。

下载CSV 表 1 人脸检测算法性能对比 Table 1 Performance comparison of face detection algorithms
4 结束语

本文提出一种基于深度残差网络和注意力机制的人脸检测算法。通过使用深度残差网络并在网络中添加注意力机制,增强特征图在通道上的表达能力,抑制无用的特征信息,并在特征图空间上增强上下文联系和特征描述能力。利用IoU损失函数提升人脸检测的性能,并且在检测过程中加入非极大值抑制方法,使得在人脸遮挡情况下的对象定位更加准确。在FDDB数据集上的实验结果表明,本文算法具有较高的准确率,在检测有口罩遮挡的人脸时,也能得到较好的检测效果。但本文算法改进后由于网络计算量有所增加,检测效率还有待提高,下一步将设计更为精简的网络框架,提高检测效率,使得该算法能够更好地应用于实时场景中。

参考文献
[1]
LI G J, RONG Y. Face mask detection algorithm based on DCN-SERes-YOLOv3[J]. Computer and Modernization, 2021(9): 12-20. (in Chinese)
李国进, 荣誉. 基于DCN-SERes-YOLOv3的人脸佩戴口罩检测算法[J]. 计算机与现代化, 2021(9): 12-20. DOI:10.3969/j.issn.1006-2475.2021.09.003
[2]
SUDHAKAR F S, MOHAMMAD S, LI L J. Multi-view face detection using deep convolutional neural networks[C]//Proceedings of the 5th ACM on International Conference on Multimedia Retrieval. New York, USA: ACM Press, 2015: 643-650.
[3]
LI H X, LIN Z, SHEN X H, et al. A convolutional neural network cascade for face detection[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE Computer Society, 2015: 5325-5334.
[4]
VIOLA P A, JONES M J. Rapid object detection using a boosted cascade of simple features[C]//Proceedings of 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Kauai, USA: IEEE Computer Society, 2001: 1-11.
[5]
JIANG H Z, LEARNED-MILLER E. Face detection with the faster R-CNN[C]//Proceedings of the 12th IEEE International Conference on Automatic Face & Gesture Recognition. Washington D.C., USA: IEEE Computer Society, 2017: 650-657.
[6]
REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39(1): 1137-1149.
[7]
YU J H, JIANG Y N, WANG Z Y, et al. UnitBox: an advanced object detection network[C]//Proceedings of the 24th International Conference on Multimedia. Amsterdam, Netherlands: [s. n. ], 2016: 516-520.
[8]
WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Computer Society, 2018: 3-19.
[9]
PENG Y X, HE X T, ZHAO J J. Object-part attention model for fine-grained image classification[J]. IEEE Transactions on Image Processing, 2018, 27(3): 1487-1500. DOI:10.1109/TIP.2017.2774041
[10]
JAN H, BENENSON R, SCHIELE B. Learning non-maximum suppression[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE Computer Society, 2017: 6469-6477.
[11]
LIANG B, LIU Q, XU J, et al. Target-specific sentiment analysis based on multi-attention convolutional neural network[J]. Computer Research and Development, 2017, 54(8): 1724-1735. (in Chinese)
梁斌, 刘全, 徐进, 等. 基于多注意力卷积神经网络的特定目标情感分析[J]. 计算机研究与发展, 2017, 54(8): 1724-1735.
[12]
ZHU X Z, CHEN D Z, ZHANG Z, et al. An empirical study of spatial attention mechanisms in deep networks[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul, Korea: IEEE Computer Society, 2019: 6687-6696.
[13]
ZHANG H T, ZHANG M. SSD target detection algorithm with channel attention mechanism[J]. Computer Engineering, 2020, 46(8): 264-270. (in Chinese)
张海涛, 张梦. 引入通道注意力机制的SSD目标检测算法[J]. 计算机工程, 2020, 46(8): 264-270.
[14]
ZHU Y N, NI X, YAO Y. Face recognition combined with singular value face and attention deep learning[J]. Journal of Chinese Computer Systems, 2020, 41(8): 1763-1767. (in Chinese)
朱娅妮, 倪煊, 姚晔. 结合奇异值脸和注意力深度学习的人脸识别[J]. 小型微型计算机系统, 2020, 41(8): 1763-1767. DOI:10.3969/j.issn.1000-1220.2020.08.032
[15]
YE F, ZHAO X W, GONG E L, et al. Real-time scene small face detection method based on deep learning[J]. Computer Engineering and Applications, 2019, 55(12): 162-168. (in Chinese)
叶锋, 赵兴文, 宫恩来, 等. 基于深度学习的实时场景小脸检测方法[J]. 计算机工程与应用, 2019, 55(12): 162-168.
[16]
FENG X J, ZHANG L, ZENG Y Z. Question similarity calculation model based on multi-attention CNN[J]. Computer Engineering, 2019, 45(9): 284-290. (in Chinese)
冯兴杰, 张乐, 曾云泽. 基于多注意力CNN的问题相似度计算模型[J]. 计算机工程, 2019, 45(9): 284-290.
[17]
DENG J, DONG W, SOCHER R, et al. ImageNet: a large-scale hierarchical image database[C]//Proceedings of 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, USA: IEEE Computer Society, 2009: 248-255.
[18]
YANG S, LUO P. Wider face: a face detection benchmark[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE Computer Society, 2016: 5525-5533.
[19]
LI Y K, YU Z M. Cascade convolutional neural network face detection method[J]. Computer Engineering and Applications, 2019, 55(24): 184-189. (in Chinese)
李亚可, 玉振明. 级联的卷积神经网络人脸检测方法[J]. 计算机工程与应用, 2019, 55(24): 184-189.
[20]
LI X B, CHEN L. Face detection algorithm in natural scene based on improved Faster-RCNN[J]. Computer Engineering, 2021, 47(1): 210-216. (in Chinese)
李祥兵, 陈炼. 基于改进Faster-RCNN的自然场景人脸检测[J]. 计算机工程, 2021, 47(1): 210-216.