开放科学(资源服务)标志码(OSID):
近年来,随着互联网大数据的快速发展、计算机运算能力的提升以及国内外在深度学习研究上的突破,目标检测技术日趋成熟。目前,将目标检测与实际应用场景结合是一个热门方向[1],但较少用于地铁安检方面,地铁安检仍采用人为识别的方法。由于安检工作人员的熟练程度以及精神状态都可能会影响安检的准确率[2],因此将目标检测用于地铁安检具有重要的研究意义。
GIRSHICK等于2014年提出了R-CNN(Regions with CNN Features)[3]算法,促使深度学习在目标检测领域快速发展。此后,SPP-Net(Spatial Pyramid Pooling Networks)、YOLO[4-5]、YOLO2、Fast RCNN[6]、Faster RCNN[7]、SSD[8]、DSSD[9]等算法的出现也进一步促进了目标检测的发展。目前主流的目标检测算法大致分为两类:一类是基于R-CNN进行展开,以Faster RCNN为代表的两阶段算法;另一类是以YOLO和SSD为代表的一阶段算法。两阶段算法先进行区域选取,再对所选区域进行分类,一阶段算法则是对产生的区域同时进行这两项操作。两阶段算法的检测精度略高于一阶段算法,但检测速度很慢,因此,两阶段算法不适用于地铁安检这类对实时性要求较高的应用场景。在一阶段算法中,SSD算法已被广泛应用于目标检测并取得了不错的效果,如文献[10]将SSD应用于舰船目标检测,文献[11]将SSD应用于柑橘实时分类检测,文献[12]将SSD应用于果园行人实时检测。
本文提出一种改进的SSD算法,通过轻量级网络融合对传统SSD算法中的金字塔特征层进行特征增强,同时加入一种基于残差模块的检测单元以避免增加网络模型容量,从而在提高检测精确度的同时保证识别速度。
1 SSD目标检测SSD目标检测算法在YOLO的基础上融合了RPN的思想。该算法在多个不同尺度上对输入图片进行检测,且在各特征层上都使用不同的卷积模型,从而使模型具有更高的识别准确率。此外,作为一阶段算法,其检测速度比两阶段算法快得多。
虽然SSD能够改善传统算法对物体尺度敏感、对尺度变化大的物体泛化能力差的缺点,但仍存在对小目标检测精度低的问题[13-15]。对此,多种改进的SSD算法相继被提出[16-18],如DSSD、DSOD等。DSSD将SSD的基础网络由VGG-16改为ResNet,并且引入反卷积层用于传递信息,尽管提高了识别小目标的准确率,但是网络结构复杂,使识别速度变慢,实时性变差。DSOD先将基础网络换为DenseNet,再融合两层特征图,不仅加快了训练速度,而且提高了检测性能。
1.1 传统SSD的网络结构传统SSD检测模型结构分为两部分:第一部分是利用卷积神经网络来提取输入图像特征信息的分类网络VGG-16;第二部分是后端的多尺度检测网络。由于浅层的特征图适用于小目标检测,而深层的特征图适用于大目标检测,因此多尺度检测网络需要在不同深度的特征图上进行回归计算和极大值抑制,并输出最终结果。传统SSD网络结构如图 1所示。
![]() |
Download:
|
图 1 传统SSD网络结构 Fig. 1 Structure of traditional SSD network |
SSD算法通过利用多尺度的方法来获取特征图。假设检测时采用的特征图层数为n,那么第k个默认框比例sk可表示为:
$ {s}_{k}={s}_{\mathrm{m}\mathrm{i}\mathrm{n}}+\frac{{s}_{\mathrm{m}\mathrm{a}\mathrm{x}}-{s}_{\mathrm{m}\mathrm{i}\mathrm{n}}}{n-1}(k-1), k\in [1, n] $ | (1) |
其中:
$ \left\{\begin{array}{l}{w}_{k}^{\left(m\right)}={s}_{k}\sqrt{{r}_{\left(m\right)}}\\ {h}_{k}^{\left(m\right)}={s}_{k}\sqrt{{r}_{\left(m\right)}}\end{array}\right. $ | (2) |
其中,m表示5种默认框的宽高比尺寸,
$ {s}_{k}^{\text{'}}=\sqrt{{s}_{k}{s}_{k+1}} $ | (3) |
因此,SSD在每个特征图共产生6个默认框,第6个默认框的宽度和高度表示为:
$ {w}_{k}^{\left(6\right)}={h}_{k}^{\left(6\right)}=\sqrt{{s}_{k}{s}_{k+1}} $ | (4) |
设定默认框中心坐标为
$ {x}_{\mathrm{m}\mathrm{i}\mathrm{n}}=\frac{{c}_{x}-\frac{{w}_{\mathrm{b}}}{2}}{{w}_{\mathrm{f}\mathrm{e}\mathrm{a}\mathrm{t}\mathrm{u}\mathrm{r}\mathrm{e}}}{w}_{\mathrm{i}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}}=\left(\frac{a+0.5}{\left|{f}_{k}\right|}-\frac{{w}_{k}}{2}\right){w}_{\mathrm{i}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}} $ | (5) |
$ {y}_{\mathrm{m}\mathrm{i}\mathrm{n}}=\frac{{c}_{x}-\frac{{h}_{\mathrm{b}}}{2}}{{h}_{\mathrm{f}\mathrm{e}\mathrm{a}\mathrm{t}\mathrm{u}\mathrm{r}\mathrm{e}}}{h}_{\mathrm{i}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}}=\left(\frac{b+0.5}{\left|{f}_{k}\right|}-\frac{{h}_{k}}{2}\right){h}_{\mathrm{i}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}} $ | (6) |
$ {x}_{\mathrm{m}\mathrm{a}\mathrm{x}}=\frac{{c}_{x}+\frac{{w}_{\mathrm{b}}}{2}}{{w}_{\mathrm{f}\mathrm{e}\mathrm{a}\mathrm{t}\mathrm{u}\mathrm{r}\mathrm{e}}}{w}_{\mathrm{i}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}}=\left(\frac{a+0.5}{\left|{f}_{k}\right|}+\frac{{w}_{k}}{2}\right){w}_{\mathrm{i}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}} $ | (7) |
$ {y}_{\mathrm{m}\mathrm{a}\mathrm{x}}=\frac{{c}_{x}+\frac{{h}_{\mathrm{b}}}{2}}{{h}_{\mathrm{f}\mathrm{e}\mathrm{a}\mathrm{t}\mathrm{u}\mathrm{r}\mathrm{e}}}{h}_{\mathrm{i}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}}=\left(\frac{b+0.5}{\left|{f}_{k}\right|}+\frac{{h}_{k}}{2}\right){h}_{\mathrm{i}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}} $ | (8) |
其中:
SSD算法的损失函数可表示:
$ L(x, c, l, g)=\frac{1}{N}\left({L}_{\mathrm{c}\mathrm{o}\mathrm{n}\mathrm{f}}\right(x, c)+\alpha {L}_{\mathrm{l}\mathrm{o}\mathrm{c}}(x, l, g\left)\right) $ | (9) |
其中:x为当前预测框的类别匹配信息;c代表标注类别;l代表预测边界框坐标;g代表标注边界框坐标;N代表匹配到的default box的数量;
${L_{{\rm{loc}}}}(x,l,g) = \sum\limits_{i \in {P_{{\rm{os}}}}}^N {\sum\limits_{m \in {B_{{\rm{ox}}}}} {{x_{ij,k}}} } {S_{{\rm{L}}1}}\left( {{l_{i,m}}\left( {{l_{i,m}} - {{\hat g}_{j,m}}} \right)} \right)$ | (10) |
其中:
$ {S}_{\mathrm{L}1}\left(x\right)=\left\{\begin{array}{l}0.5{x}^{2}, \left|x\right|<1\\ \left|x\right|-0.5, \mathrm{其}\mathrm{他}\end{array}\right. $ | (11) |
${L_{{\rm{conf }}}}(x,c) = - \sum\limits_{i \in {\rm{ Pos }}}^N {\left( {{x_{ij,p}}\lg \;{{\hat c}_{i,p}}} \right)} - \sum\limits_{i \in {\rm{ Neg }}} {\lg \;} {\hat c_{i,0}}$ | (12) |
其中:
${\hat c_{i,p}} = \frac{{\exp \;{c_{i,p}}}}{{\sum\limits_p {\exp } \;{c_{i,p}}}}$ | (13) |
传统SSD算法低层次的定位效果好但是分类精度低,又由于6个不同特征图相互独立,因此其对小目标的检测效果一般。造成以上情况的主要原因是:
1) 特征图维度会随着CNN层数的增加而变小,进而得到语义特征更加明显的结果,同时位置信息也变得更加模糊。如果采用的是SSD_300×300的模型,则主要依赖Conv4_3检测小目标,虽然其分辨率较高,而且先验框的尺寸和检测目标更接近,但是特征表达的能力却仅来源于前10层卷积层,显然不能很好地捕捉深层次语义信息。
2) 随着卷积层数的增加,输入图像的感受野和映射区域也会扩大,卷积感受野过大时会降低精确定位目标的性能,并且当映射区域过大时,如果出现在检测区域包括多个检测目标的情况,则无法有效地区分目标。
针对以上问题,本文提出融合轻量级网络来改进传统SSD算法,通过加入基于残差模块的检测单元来避免增加网络模型容量以及运算复杂度,同时提高检测精确度。
2 改进的SSD算法本文改进的SSD算法整体网络结构框图如图 2所示,首先对Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2 (简记为ConvY_Y)这5个特征层进行卷积操作(由于Pool11的特征层尺寸很小,包含语义信息较多,因此无需对其进行卷积操作)。为避免特征融合后再进行特征降维操作,要求进行卷积操作后生成的Conv4_3_0、Conv7_0、Conv8_2_0、Conv9_2_0、Conv10_2_0(简记为ConvY_Y_0)的特征维数不超过原始的特征维数[19]。然后将Conv4_3和Conv4_3_0、Conv7和Conv7_0、Conv8_2和Conv8_2_0、Conv9_2和Conv9_2_0以及Conv10_2和Conv10_2_0这5对两两融合,依次得到Conv4_3_1、Conv7_1、Conv8_2_1、Conv9_2_1和Conv10_2_1,并与Pool11形成最终的金字塔特征层[19]。
![]() |
Download:
|
图 2 整体网络结构框图 Fig. 2 Block diagram of overall network structure |
ConvY_Y_0比ConvY_Y具有更强的语义信息和更大的卷积特征尺度。同时,由于本文提出的卷积没有改变补边的特征尺寸,因此能更好地保留原特征图的边缘信息。所以,本文最终形成的金字塔特征层与传统SSD算法的金字塔特征层相比,增强了特征层的语义信息,改善了SSD算法对小物体识别率低的问题。由于生成的特征层相比于最初的特征层特征维数没有升高,特征图的边缘特征没有损失,因此在特征融合时高层特征不仅无需调整尺寸,而且不用进行降维操作,相比于传统的特征融合操作,本文采用的特征融合方法更具优势。上述改进虽然提高了检测精度,但是难免会使检测网络复杂化,从而降低识别速率。针对以上情况,本文新加入基于残差模块的检测单元,从而实现特征图维度与主分支维度的统一,避免网络模型容量和运算复杂度增加。
2.1 特征融合策略特征对应元素相加与特征连接是特征融合策略中最流行的2种融合方式[16, 20]。基于特征连接的特征融合方式,本文设计一种轻量级特征融合方式来对金字塔特征层进行特征增强。
在进行特征融合时,要求ConvY_Y_0与ConvY_Y尺寸相同且ConvY_Y_0的维数不高于ConvY_Y,因此,在进行特征融合的操作时不必调整特征图的尺寸,也不用对融合后的特征进行降维,从而大幅简化了操作。
在进行特征融合时,设x为输入特征,
特征连接的特征融合方式如图 3所示,将ConvY_Y_0的特征维数统一设置为128维,低于ConvY_Y特征层的特征维数,然后直接将ConvY_Y与ConvY_Y_0串联得到ConvY_Y_1,将这种特征融合称为轻量级网络融合。
![]() |
Download:
|
图 3 特征连接的特征融合方式 Fig. 3 Feature fusion mode of feature connection |
本文通过加入一种基于残差模块的检测单元来避免增加网络模型的容量以及运算复杂度,并防止直接用主干网络来预测目标[21]。残差模块分为短接分支和主分支2个部分,其结构如图 4所示。主分支共包含3个卷积层,即2个1×1的卷积层和1个3×3的卷积层;短接分支主要作用是用1个1×1的卷积层使特征图与主分支的维度达到统一[21]。在网络训练过程中,每个卷积层后都添加了1个非线性激活层,此做法不仅可以降低预测单元所产生的梯度值对主干网络形成的影响,而且还可以起到缓冲的作用。同时,由于残差模块的加入,预测层的网络深度加深,能有效改善浅层特征图语义表征能力较弱的问题[21]。本文新加入残差模块的作用虽然与插入3×3卷积模块基本相同,但是残差模块中的1×1卷积层可以将特征图调整到比较低的维度[21]。因此,本文新插入的残差模块要比直接插入1个3×3卷积模块占用的模型参数低得多。
![]() |
Download:
|
图 4 ResBlock结构 Fig. 4 Structure of ResBlock |
本文采用类似Faster RCNN的anchor机制,Faster RCNN采用的是3×3的卷积核,因为模型参数与运算量会随着卷积核的减小而降低,所以本文尝试采用1×1的卷积核,经过实验发现1×1的卷积核不仅没有明显降低检测精度,反而能够提高网络的运算速率。此外,由于加入的残差模块可以起到统一维度的效果,因此即使是不同预测单元上的分类器也能够在训练过程中达到参数共享。相比于传统SSD直接在网络卷积层上面提取目标,然后再针对不同的检测单元训练出其对应的分类器而言,本文所采取的操作要更为简单实用。综上,本文新加入的残差模块能够大幅降低网络模型大小,从而提高网络的运算速率。
2.3 网络模型的训练策略在网络模型训练的过程中,需要对训练数据集进行翻转、旋转以及亮度与尺度变化,从而提高网络模型的稳健性。由于本文算法形成了新的金字塔特征层,与传统SSD相差较多,因此不能直接在已经训练好的SSD模型上修改。本文以VGG-16网络作为改进SSD算法的基础框架,训练位置损失函数采用smooth L1,训练分类损失函数采用Log loss。此外,本文算法的学习率、提取各个特征层所对应的Box长宽比以及挖掘决策困难样本均和传统SSD算法相同,IOU值设置为0.5。
本文使用的GPU型号为GTX1080 Ti,基于Ubuntu16.04操作系统,在TensorFlow平台上完成对改进SSD算法的训练以及测试的工作。由于设备的限制,本文提出的算法采取单GPU训练。
3 实验与结果分析本文算法主要解决了传统SSD算法对小目标识别率低的问题,并新加入基于残差模块的检测单元避免增加网络模型容量以及运算复杂度。实验通过对mAP、FPS的测试来验证本文算法对传统SSD的改进程度。此外,将本文训练好的算法用于地铁安检图像的检测,以验证其应用性能。
3.1 实验步骤首先将在ImageNet训练好的VGG-16网络作为本文算法的基础框架,然后在PASCAL-VOC2007的训练集与验证集上来训练本文算法,并以mAP和FPS作为性能指标在其测试集上检测本文算法对小目标检测的能力,最后与性能优异的改进SSD算法、YOLOv3算法和Faster RCNN算法进行比较。
3.2 评价指标本文使用的评价指标为平均准确率均值(mAP)与检测速率(FPS)。其中,平均准确率均值是所有类别平均准确率(AP)的平均值,检测速率为每秒处理图像的帧数。
平均准确率定义为:
$ \mathrm{A}\mathrm{P}={\int }_{0}^{1}P\left(R\right)\mathrm{d}R $ | (14) |
其中,R代表召回率,P代表准确率。
3.3 PASCAL-VOC2007的测试结果PASCAL-VOC2007是1个标准的小目标数据集,其具体的物体类别见表 1。该数据集提供的图片集共分为20种类别。
![]() |
下载CSV 表 1 PASCAL-VOC2007具体的物体类别 Table 1 PASCAL-VOC2007 specific object categories |
为对比本文算法与传统SSD、DSSD、DSOD、YOLOv3和Faster RCNN的检测性能,从PASCAL-VOC2007数据集中挑选189具有代表性的图片,共涉及11种物体类别,分别为飞机、船、小轿车、鸟、猫、狗、马、羊、瓶子、盆栽植物和人。对这些图片进行相应的处理后,标注物体的ground truth共有1 601个。分别采用传统SSD算法、DSSD算法、DSOD算法、YOLOv3算法、Faster RCNN算法和本文算法进行目标检测实验,mAP指标测试结果如表 2所示,FPS指标测试结果如表 3所示。其中,本文算法与传统SSD算法是在单个1080 Ti GPU测试的,而其他算法则是在单个Titan X GPU上测试的。
![]() |
下载CSV 表 2 不同算法在PASCAL-VOC2007数据集上的mAP指标 Table 2 mAP indicators of different algorithms on PASCAL-VOC2007 data set |
![]() |
下载CSV 表 3 不同算法在PASCAL-VOC2007数据集上的FPS指标 Table 3 FPS indicators of different algorithms on PASCAL-VOC2007 data set |
从表 2可以看出,本文算法的mAP指标相比于传统SSD算法提高了8.5%,并且检测物体越小,检测精度提升得越高,比DSOD算法的mAP提高1%,比YOLOv3算法提高2%,比Faster RCNN算法提高3.9%。本文算法比DSSD算法的mAP低0.8%的原因是DSSD的基础网络是ResNet-101,该网络比VGG-16网络深、性能好,但是结构也更为复杂,大幅降低了检测速率,不适用于对检测速度要求较高的检测场景,从表 3中也验证了这一结论。
由于本文算法在进行特征融合时既不需要进行降维操作也不需要调整图片尺寸,同时加入了一种基于残差模块的检测单元,可避免增加网络模型容量以及运算复杂度,因此本文算法的FPS相比于传统SSD的85 frame/s仅损耗了2 frame/s,可达到83 frame/s,远高于DSSD、DSOD和Faster RCNN算法,同时也高于YOLOv3的51 frame/s。
3.4 地铁安检图像的检测结果地铁安检图像中的一些小物体(如指甲刀、打火机等)往往只占据检测图片中的很小一部分,同时有可能会被别的物体覆盖,增加了检测的难度。本文收集了约550张的地铁安检图像,其中,包含的检测目标数量基本均衡,对所有图像采用多目标标记,然后随机选取总数的30%作为测试集,其余的分为训练集和验证集。分别用传统的SSD算法和本文算法进行目标检测实验,图 5为部分的检测结果,从中可以看出本文算法对检测结果的改进。表 4为测试各类目标的mAP指标。
![]() |
Download:
|
图 5 传统SSD算法与本文算法的检测结果对比 Fig. 5 Comparison of detection results of the proposed algorithm and traditional SSD algorithm |
![]() |
下载CSV 表 4 传统SSD算法与本文算法的mAP指标对比 Table 4 Comparison of mAP indicators of traditional SSD algorithm and the proposed algorithm |
从图 5的检测结果图和表 4中的检测结果可以看出,本文算法较传统SSD算法检测更准确,在对小目标(如scissors)上检测精度提升更为明显,mAP提升了12.3%。
4 结束语本文对SSD算法中各尺度特征进行尺寸大小不变的卷积操作,将卷积前后对应的特征进行轻量级网络融合,进而生成新的金字塔特征层,最后通过加入基于残差模块的检测单元,提升检测精确度。实验结果表明,在用于地铁安检图像检测时,该算法对于小目标的检测精度较传统SSD算法提升明显,并且能够保证检测速率,检测速率达到83 frame/s。后续将对本文算法的网络结构进行优化,进一步加快检测速度,并且尝试将算法应用于其他特定场景中。
[1] |
LÜ M M, SUN J M. Moving image target detection based on modified Gaussian mixture model[J]. Semiconductor Optoelectronics, 2019, 40(6): 874-878, 885. (in Chinese) 吕苗苗, 孙建明. 基于改进高斯混合模型的运动图像目标检测算法[J]. 半导体光电, 2019, 40(6): 874-878, 885. |
[2] |
QU X X. Research on the reliability of airport security inspectors[D]. Shenyang: Shenyang Institute of Aeronautical Technology, 2009. (in Chinese) 曲欣欣. 机场安检人员的可靠性研究[D]. 沈阳: 沈阳航空工业学院, 2009. |
[3] |
GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2014: 580-587.
|
[4] |
REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//Proceedings of 2016 IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2016: 779-788.
|
[5] |
REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 6517-6525.
|
[6] |
GIRSHICK R. Fast R-CNN[C]//Proceedings of 2015 IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2015: 1440-1448.
|
[7] |
REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C]//Proceedings of the 28th International Conference on Neural Information Processing Systems. Cambridge, USA: MIT Press, 2015: 91-99.
|
[8] |
LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]//Proceedings of European Conference on Computer Vision. Aire-la-Ville, Switzerland: Eurographics Association Press, 2016: 21-37.
|
[9] |
FU C Y, LIU W, RANGA A, et al. DSSD: deconvolutional single shot detector[EB/OL]. (2017-01-23)[2020-07-10]. http://cn.arxiv.org/abs/1701.06659.
|
[10] |
LI H H, ZHOU K P, HAN T C. Improved SSD ship target detection based on CReLU and FPN[J]. Journal of Instrumentation, 2020, 41(4): 183-190. (in Chinese) 李晖晖, 周康鹏, 韩太初. 基于CReLU和FPN改进的SSD舰船目标检测[J]. 仪器仪表学报, 2020, 41(4): 183-190. |
[11] |
LI S J, HU D Y, GAO S M, et al. Real time classification and detection of Citrus Based on improved SSD[J]. Journal of Agricultural Engineering, 2019, 35(24): 307-313. (in Chinese) 李善军, 胡定一, 高淑敏, 等. 基于改进SSD的柑橘实时分类检测[J]. 农业工程学报, 2019, 35(24): 307-313. DOI:10.11975/j.issn.1002-6819.2019.24.036 |
[12] |
LIU H, ZHANG L S, SHEN Y, et al. Real time pedestrian detection in orchard based on improved SSD[J]. Journal of Agricultural Machinery, 2019, 50(4): 29-35, 101. (in Chinese) 刘慧, 张礼帅, 沈跃, 等. 基于改进SSD的果园行人实时检测方法[J]. 农业机械学报, 2019, 50(4): 29-35, 101. |
[13] |
CHEN C Y, LIU M Y, TUZEL O, et al. R-CNN for small object detection[C]//Proceedings of Asian Conference on Computer Vision. Berlin, Germany: Springer, 2016: 214-230.
|
[14] |
BELL S, LAWRENCE Z C, BALA K, et al. Inside-outside net: detecting objects in context with skip pooling and recurrent neural networks[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 2874-2883.
|
[15] |
KONG T, YAO A B, CHEN Y R, et al. HyperNet: towards accurate region proposal generation and joint object detection[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 845-853.
|
[16] |
CAO G M, XIE X M, YANG W Z, et al. Feature-fused SSD: fast detection for small objects[EB/OL]. (2018-11-27)[2020-07-10]. https://arxiv.org/ftp/arxiv/papers/1709/1709.05054.pdf.
|
[17] |
LI Z X, ZHOU F Q. FSSD: feature fusion single shot multibox detector[EB/OL]. (2018-05-17)[2020-07-10]. https://arxiv.org/abs/1712.00960.
|
[18] |
JEONG J, PARK H, KWAK N. Enhancement of SSD by concatenating feature maps for object detection[EB/OL]. (2017-05-26)[2020-07-10]. https://arxiv.org/abs/1705.09587.
|
[19] |
TAN H C, LI S H, LIU B, et al. Feature enhanced SSD algorithm and its application in target detection[J]. Journal of Computer Aided Design and Graphics, 2019, 31(4): 573-579. (in Chinese) 谭红臣, 李淑华, 刘彬, 等. 特征增强的SSD算法及其在目标检测中的应用[J]. 计算机辅助设计与图形学学报, 2019, 31(4): 573-579. |
[20] |
LIU W, RABINOVICH A, BERG A C. ParseNet: looking wider to see better[EB/OL]. (2015-11-19)[2020-07-10]. https://arxiv.org/pdf/1506.04579.pdf.
|
[21] |
SUN H Z, CHANG T Q, ZHANG L, et al. Fast detection of armored target based on lightweight network[J]. Journal of Computer Aided Design and Graphics, 2019, 31(7): 1010-1121. (in Chinese) 孙皓泽, 常天庆, 张雷, 等. 基于轻量级网络的装甲目标快速检测[J]. 计算机辅助设计与图形学学报, 2019, 31(7): 1010-1121. |