开放科学(资源服务)标志码(OSID):
目标检测作为计算机视觉领域的主要研究方向,长期以来受到广泛关注,相关技术已被应用于医学图像检测、火灾检测、汽车无人驾驶等领域。
基于深度学习的目标检测是近年来研究的热点,国内外研究人员针对目标检测网络中存在的不足进行改进。针对网络训练效率低的问题,HE等[1]通过残差网络解决了深层网络难以收敛的问题。LOFFE等[2]提出批归一化(Batch Normalization)解决网络训练过程中梯度消失的问题。REDMON等[3]等提出目标预测与检测过程一体化,大幅缩短了网络检测时间。针对待检测目标尺寸差异大、难以有效检测的问题,LIU等[4-5]通过多尺度特征信息的融合,提升了网络对多尺度目标的检测能力。SIEGEDY等[6-7]使用Inception结构及改进金字塔结构,提升网络对的尺度信息获取。DAI等[8]通过空洞卷积思想构建可变性卷积,提升了网络对多尺寸目标的检测能力。针对网络检测时存在过多冗余信息的问题,MA等[9]使用注意力机制,实现目标特征权重再分配,减少了冗余信息的干扰。ZHU等[10]通过Anchor-free实现对目标位置及大小的预测,通过减少网络议框产生的数量以减少冗余信息。针对网络目标定位能力弱的问题,XIAO等[11]通过对多尺度显著图进行融合以提升对显著目标的检测完整性。ZHENG等[12-13]通过引入目标区域惩罚项提升目标定位能力。QING等[14]使用层级偏移,提升目标预测区域的定位以及检测精度。针对网络中浅层目标特征信息难以实现目标的分类问题。LI等[15-17]通过使用空洞卷积提升网络层感受野的大小,丰富网络中特征语义信息的同时提高了网络的目标识别能力。ZHU等[18]采用扩张卷积的策略提升对浅层特征的提取。但鲜有文献针对目标检测网络难以检测多尺寸目标的问题进行研究。
本文针对经典网络YOLOv3在目标定位以及识别问题上的不足,使用LossGIOU作为新的定位损失函数,实现目标预测区域回归过程的整体化以降低目标区域漏检的概率,将空洞感受野模块与双向特征金字塔模块联结使用,增强各预测分支输出特征的语义强度,并通过浅深层特征的双向融合,提升整网络的对多尺寸目标的定位与分类能力。
1 YOLO v3网络 1.1 网络结构如图 1(a)所示,YOLOv3[12]共包含3个模块,分别为Darknet53特征提取模块、特征金字塔模(Feature Pyramid Network,FPN)及预测分支模块。图 1(b)为特征提取模块Darknet53的基本网络结构,此模块由5个残差结构组成,每个残差结构将输入特征尺寸压缩至原尺寸的1/2。以输入图像大小为416×416×3为例,残差模块1、2、3、4、5的输出特征图谱大小分别为208×208×64,104×104×128,52×52×256,26×26×512,13×13×1 024。其中残差模块3、4、5的输出特征图谱将作为下一模块的输入。图 1(c)为FPN模块的结构图。图中DBL结构由卷积层、批归一化层、激活层串联组成。FPN模块包含3个预测分支结构,依次为大、中、小尺寸目标的检测提供特征信息。模块通过自顶向下的特征流,将来自高层预测分支中包含强语义特征信息融入到浅层特征中,为浅层预测分支提供更强的语义特征信息。图 1(d)为预测分支结构,以FPN结构生成的包含多尺度特征信息的融合特征1、2、3为特征,通过DBL结构与1×1大小的卷积层,产生模型的最终特征输出Output1、Output2、Output3。
![]() |
Download:
|
图 1 YOLOv3网络结构 Fig. 1 Structure of YOLOv3 network |
Yolov3网络损失函数由目标定位损失
$ {L}_{\mathrm{L}\mathrm{o}\mathrm{s}\mathrm{s}}={L}_{\mathrm{L}\mathrm{o}\mathrm{s}\mathrm{s}}^{\mathrm{c}\mathrm{o}\mathrm{o}\mathrm{r}}+{L}_{\mathrm{L}\mathrm{o}\mathrm{s}\mathrm{s}}^{\mathrm{c}\mathrm{o}\mathrm{n}\mathrm{f}}+{L}_{\mathrm{L}\mathrm{o}\mathrm{s}\mathrm{s}}^{\mathrm{c}\mathrm{l}\mathrm{s}} $ | (1) |
目标定位损失
$ {I}_{\mathrm{I}\mathrm{o}\mathrm{U}}=\frac{\left|\mathrm{A}\mathrm{r}\mathrm{e}\mathrm{a}\left(A\right)\bigcap \mathrm{A}\mathrm{r}\mathrm{e}\mathrm{a}\left(B\right)\right|}{\left|\mathrm{A}\mathrm{r}\mathrm{e}\mathrm{a}\left(A\right)\bigcup \mathrm{A}\mathrm{r}\mathrm{e}\mathrm{a}\left(B\right)\right|} $ | (2) |
其中:
对式(2)筛选出的区域,计算其对应
$ \begin{array}{*{20}{l}} {L_{{\rm{Loss}}}^{{\rm{coor}}} = \sum\limits_{i = 1}^n {\sum\limits_{j = 1}^3 {\rm{m}} } {\rm{ask}} \times \left[ {({{({x_p})}_j}} \right. - {{({x_t})}_j}{)^2} + ({{({y_p})}_j} - }\\ {\;\;\;\;\;\;\;\;\;\;\;\;{{({y_t})}_j}{)^2} + {{({{({w_p})}_j} - {{({w_t})}_j})}^2} + \left. {{{({{({h_p})}_j} - {{({h_t})}_j})}^2}} \right]} \end{array} $ | (3) |
其中:
针对YOLOv3在多尺寸目标检测精度较差的问题,使用LossGIoU函数替换原有目标定位损失函数,通过目标定位过程一体化以提升目标定位精度。通过在网络中添加空洞感受野模块,提升网络层感受野大小,从而增强特征语义强度。改进FPN为双向特征金字塔模块,通过将高层特征与浅层特征实现双向融合,最终构建BR-YOLOv3目标检测模型。
2.1 位置损失函数的改进针对YOLOv3目标定位损失函数对目标预测区域中心点的横纵坐标,以及预测区域的宽高进行独立的偏移量计算,割裂了目标预测区域的整体性。使用
$ {\sigma }_{1}=\frac{\left|\mathrm{A}\mathrm{r}\mathrm{e}\mathrm{a}\left(C\right)/\left(\mathrm{A}\mathrm{r}\mathrm{e}\mathrm{a}\right(A)\bigcup \mathrm{A}\mathrm{r}\mathrm{e}\mathrm{a}(B\left)\right)\right|}{\left|\mathrm{A}\mathrm{r}\mathrm{e}\mathrm{a}\left(C\right)\right|} $ | (4) |
其中:
式5所示为
$ \mathrm{G}\mathrm{I}\mathrm{o}\mathrm{U}=\mathrm{I}\mathrm{o}\mathrm{U}-{\sigma }_{1} $ | (5) |
$ \mathrm{L}\mathrm{o}\mathrm{s}{\mathrm{s}}_{\mathrm{G}\mathrm{I}\mathrm{o}\mathrm{U}}={\sigma }_{2}(1-\mathrm{G}\mathrm{I}\mathrm{o}\mathrm{U}) $ | (6) |
通过
$ {\sigma }_{2}=2-\mathrm{O}{\mathrm{B}}_{W}\times \mathrm{O}{\mathrm{B}}_{H}/{(\mathrm{I}\mathrm{m}\mathrm{a}\mathrm{g}\mathrm{e}\_\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e})}^{2} $ | (7) |
其中:
通过使用LossGIoU作为目标定位损失函数,使预测区域的回归调整过程一体化,从而满足目标区域整体性的要求。此外,解决了预测区域回归调整过程中,当出现调整后的预测区域与真实区域间的
如图 2所示,浅色框代表目标预测区域,深色框代表目标真实区域,图 2中两个真实框为统一真实框。图 2(a)中,真实框与预测框的二范数‖.‖2的值,即定位损失值为10,2框GIoU的计算值为17/56,LossGIoU的值为39/56;图 2(b)中,真实框与预测框的定位损失值同为10,2框的GIoU值为7/18,LossGIoU的值为11/18。图 2中的例子对比显示,通过使用LossGIoU作为损失函数能更好地刻画了目标预测区域与真实区域的位置关系。在目标回归计算的过程中,若2区域的IoU值为0,则无法进行回归计算,导致该预测区域的直接丢失,通过使用IoU作为目标位置关系的刻画函数,在对预测区域进行回归调整时,当出现2区域不相交时,IoU为一负值,将会继续对目标区域进行回归计算,而不会导致预测区域丢失,即出现漏检情况。
![]() |
Download:
|
图 2 同一目标区域定位损失函数值 Fig. 2 Location loss function value for the same target area |
YOLOv3利用3个来自不同特征层级、具有不同分辨率的特征图谱,实现对不同尺寸的目标进行差异化的检测。但浅层特征语义强度较弱,不能充分满足目标识别的任务需求。原检测网络中虽然使用了FPN将深层特征层中包含的强特征语义信息融入到浅层特征中,但由于深层特征层对输入图像进行了高倍数的特征压缩,因此其对于小目标的敏感性极低。如图 1中的特征图谱4、5是在输入信息上进行16、32倍的特征压缩后的特征输出,其对于小目标的敏感性极低,对于尺寸小于16×16,32×32的目标,高层的特征信息无法为浅层特征带来高质量特征强度的提升,难以弥补网络在小目标上的检测缺陷。针对上述不足,构建空洞感受野模块(Atrous Receptive Module,ARM),并将该模块直接作用于特征提取网络输出的特征图谱上,直接增大相应网络层的感受野大小,提升输出特征的语义强度。
通过利用空洞卷积以包含更大的感受野,使其能够捕捉到多尺度信息。在感受野模块的不同分支使用不同大小、不同数量的传统卷积及不同膨胀率的空洞卷积,构建如图 3所示的空洞感受野模块。其中Branch1、Branch2、Branch3、Branch4对应模块的4个分支结构。图 3中1×1conv,3×3conv分别表示卷积核大小为1×1和3×3的卷积层;3×3conv rate=2,表示卷积核大小为3×3,膨胀率为2的空洞卷积;当rate=3,表示膨胀率为3的空洞卷积。DBL层是由卷积层、批归一化层和激活层组成的层级结构。concat表示在特征的最后一个维度进行堆叠运算,以产生融合特征。Add表示进行矩阵相加运算。其中
![]() |
Download:
|
图 3 空洞感受野模块 Fig. 3 Atrous receptive module |
感受野模块的输出特征计算过程如式(8)~式(12)所示。其中:
对输入特征
$ {F}_{1}={F}_{0}^{W\times H\times C}\mathrm{*}{B}^{1\times 1\times (C/4)}\mathrm{*}{B}^{3\times 3\times (C/4)} $ | (8) |
输出特征
$ {F}_{2}={F}_{0}^{W\times H\times C}\mathrm{*}{B}^{1\times 1\times (C/4)}\mathrm{*}{B}^{3\times 3\times (C/4)}\mathrm{*}({A}^{3\times 3\times (C/4)}{)}^{2} $ | (9) |
输出特征
$ \begin{array}{*{20}{l}} {{F_3} = F_0^{W \times H \times C}{\rm{*}}{B^{1 \times 1 \times (C/8)}}{\rm{*}}{B^{3 \times 3 \times (3C/16)}}{\rm{*}}}\\ {\;\;\;\;\;\;\;\;{B^{3 \times 3 \times (C/4)}}{\rm{*}}{{({A^{3 \times 3 \times (C/4)}})}^3}} \end{array} $ | (10) |
输出特征
$ {F}_{4}={F}_{0}^{W\times H\times C}\mathrm{*}DB{L}^{1\times 1\times C} $ | (11) |
如图 3所示,将Branch1、2、3输出F1、F2、F3进行concat运算,并将输出结果进行一次DBL算法获得融合特征
$ {F}_{5}=\left({F}_{1}\mathrm{\Theta }{F}_{2}\mathrm{\Theta }{F}_{3}\right)\mathrm{*}DB{L}^{1\times 1\times C} $ | (12) |
如图 3所示,将融合特征F5特征与F4特征进行跳跃连接,进行矩阵相加运算,并进卷积大小为1×1的DBL层进行通道调整,获得最终输出特征O。特征O的大小为
$ O=({F}_{5}\oplus {F}_{4})\mathrm{*}\mathrm{D}\mathrm{B}{\mathrm{L}}^{1\times 1\times C} $ | (13) |
原网络中以FPN为特征融合方式,该结构仅包含单向的自顶向下的特征融合过程,仅为浅层特征提供了特征语义增强,忽略了高层特征对于上下文信息的缺失。高层特征由于经过高倍数的特征压缩导致特征图谱中丢失了大量的细节信息,难以满足精确目标定位任务的需求。本文通过使用双向特征金字塔(Bidirectional Feature Pyramid Network,BiFPN)替代原有FPN结构,实现浅、深层特征的双向融合,提升网络目标检测的能力。
如图 4所示,BiFPN包含双向的特征传递信息流,即下行信息流和上行信息流。图中Fi表示各层级结构的特征输出,Ti表示输入特征图谱编号。降维操作层表示对输入特征的维度降为原特征的1/2;上采样降维层表示对传入网络特征,将特征维度降维到原特征维度的1/2,对变换后的特征进行上采样,将特征图谱的尺寸放大1倍。特征融合表示将2个传入特征在特征的最后一个维度上进行连接。图中的5×DBL结构,表示依次将特征传入5个DBL层进行运算,每个DBL层由1个卷积层、1个批归化层和1个激活层组成。该结构的使用可充分增加网络对于非线性特征的表达能力。下采样升维层表示对输入特征,先将其特征图谱的维度数扩大1倍,再将其特征图谱的尺寸下采样压缩为原尺寸的1/2。
![]() |
Download:
|
图 4 双向特征金字塔结构 Fig. 4 Bidirectional feature pyramid structure |
改进模块中,在每个特征图谱后添加了降维层,目的在于降低输出特征维度数,减少模块参数,从而降低网络运算的开支。在改进模型中多次使用5×DBL结构,原因在于该结构可以提升模型对于非线性特征的表达能力。改进结构中通过自顶向下的特征融合信息流,将深层特征中强语义特征信息融入到浅层特征中,提升了网络浅层目标预测分支目标分类的能力。通过自底向上的特征融合特征流,将浅层特征中丰富上下文细节特征信息融入到深层特征中,提升了深层目标预测分支的目标定位能力。
2.4 实验步骤为解决YOLOv3网络在多尺寸目标检测较差的问题,首先通过使用改进
![]() |
Download:
|
图 5 实验流程 Fig. 5 Experimental procedure |
实验采用Pascal VOC数据集,该数据集是图像识别与分割领域公开的标准化数据集。实验数据分为2部分:训练数据集(Trainval),包含VOC2012数据集的全部以及VOC2007数据集的Trainval部分,共包含16 552张完整标注的图片;测试集(Test)采用VOC2007数据集的test部分,共包含4 953张完整标注的图片。
3.2 实验结果评价标准实验中采用AP、Recall、mAP作为实验结果评价标准。Precision表示某一类别预测目标中预测正确占总真实标签个数的比例。Recall表示预测目标正确的数量占目标预测总数的比例。AP值由精度(Precision)和召回率(Recall)组成的PR曲线与x,y轴所围成面积计算得到。本文所采用的数据集共包含20个样本种类。mAP为20个类别的AP值相加除以总类别数计算得到。
3.3 实验参数实验中使用在ImageNet上训练好的Darknet53的参数为模型特征提取网络的初始化参数。在模型训练过的前2个批次采用预热学习率,对特征提取网络以外的参数进行初步调整。在2~50个epoch间,采用余弦退火学习方式,学习率逐步由0.000 1下降到0.000 001。在2~20个批次,对特征提取网络部分模型参数进行固定,对其余网络参数进行调整。在20~50个批次,对整体网络的参数进行微调。训练过程中每次传入网络的图片数量(Batch Size)为4。
3.4 实验环境本文实验在LINUX系统下进行,使用显卡型号为RTX2080Ti,CPU型号为i9-9900k,所使用的编程语言为python3.6,使用深度框架为Tensorflow 1.11.0。
3.5 实验结果针对本文所使用的数据集,使用kmeans算法对数据集中包含的所有真实区域进行聚类计算,获得实验中所使用Anchor框的大小。通过kmeans获得的Anchor框的尺寸大小如下:(26,40),(48,98),(125,98),(73,199),(173,184),(123,297),(330,192),(220,329),(361,362)。
首先对定位损失函数LossGIOU的改进模型与使用MSE做为定位损失函数的原模型的结果进行对比实验。实验结果如表 1所示。
![]() |
下载CSV 表 1 不同损失定位损失函数模型检测精度 Table 1 Different loss positioning loss function model detection accuracy |
实验结果表明,通过使用LossGIoU作为网络目标定位损失函数,实验检测精度达到76.48%,在原网络的基础上提升了0.76个百分点。通过使用LossGIoU损失函数有助于提升目标定位精度,并最终提升了目标检测精度。为进一步论证LossGIoU定位损失函数的有效性及鲁棒性,通过分别计算测试集大、中、小尺寸的目标的检测精度。其中,目标尺寸大于206×206的目标为大尺寸目标,尺寸在206×206与104×104之间的目标为中尺寸目标,尺寸小于104×104的目标为小尺寸目标。多尺寸目标检测精度的实验结果如图 6所示。使用定位损失函数为LossGIoU的改进检测模型在大、中、小尺寸目标的检测精度分别为88.45%、81.51%、70.53%;以MSE为目标定位损失函数的检测模型在大、中、小目标上的检测精度依次为87.75%、78.51%、60.37%。实验结果表明,使用LossGIoU作为定位损失函数的检测模型,在小尺寸目标的检测精度上较原模型检测精度获得较大提升,且改进目标定位损失函数具有良好的稳定性。
![]() |
Download:
|
图 6 不同定位损失函数下不同尺寸目标检测精度 Fig. 6 Object detection accuracy of different sizes under different positioning loss functions |
实验第2阶段,将ARM模块加入网络的不同结构位置,分析在不同结构位置使用空洞感受野模块所带来的精度变化。如图 7(b)所示,将ARM连接到特征提取网络之后,并将该网络命名为ARM(1)-YOLOv3;如图 7(c)所示,将ARM连接在FPN结构后,并将该网络命名为ARM(2)-YOLOv3。图 7(a)为原网络结构。
![]() |
Download:
|
图 7 测试模型结构 Fig. 7 Test model structure |
实验对比结果如表 2所示。由实验结果可知,在特征提取网路后添加ARM模块相较于在FPN结构后添加ARM模块对总体网络的检测精度的提升更大。实验C的检测精度达到了76.93%,在原网络检测精度上提升1.21个百分点。在E、F这2组实验中,将LossGIoU融入改进网络进行实验,实验结果表明,在使用空洞感受野模型的基础上使用LossGIoU损失函数可以使目标检测精度得到进一步提升,达到77.96%,在原网络检测精度的基础上提升了2.96个百分点。
![]() |
下载CSV 表 2 不同位置添加ARM的模型检测精度 Table 2 Model detection accuracy of adding ARMs in different locations |
实验第3阶段,在YOLOv3网络的基础上使用双向特征金字塔结构代替原有的FPN网络结构,网络结构如图 7(d)所示。实验结果如表 3所示,实验G的检测精度达到77.20%,相较于原网络在检测精度上提升1.48个百分点。实验结果表明通过使用双向特征金字塔提升网络共享特征利用率,不仅提升了深层检测分支的目标定位能力,而且提升了整体网络的目标检测能力。实验H中,将双向特征金字塔结构融入到实验E所用目标检测模型ARM(1)-YOLOv3(LossGIoU)中,得到模型G,即BiFPN-ARM(1)-YOLOv3。模型结构如图 7(e)所示。实验结果表明,该整体网络检测精度进一步提升到了79.24%,在原YOLOv3的基础上提升了3.52个百分点。
![]() |
下载CSV 表 3 采用BIFPN模块不同模型的检测精度 Table 3 Detection accuracy of different models using BIFPN module |
以实验H中所获模型为最终改进目标检测网络的结构,改进网络结构如图 7(e)所示。
在Darknet53特征提取网络后添加ARM-BiFPN组合结构,代替原有的FPN网络结构,并替换原有目标定位损失函数为LossGIOU,获得最终改进检测网络BR-YOLOv3。如表 4所示,对主流经典目标检测网络Faster RCNN(Faster Region Convolution Nerual network)及SSD在同一实验环境下进行对比实验。实验结果表明,改进的BR-YOLOv3在12个目标类别的检测结果上均取得了最优的结果。改进网络在Bird、Cat、Cow、Dog等目标上,相较于YOLOv3网络的检测精度结果均获得了明显的提升。BR-YOLOv3最终检测精度均优于当下的主流目标检测网络。
![]() |
下载CSV 表 4 VOC2012测试集检测精度 Table 4 VOC2012 test set detection accuracy |
图 8(a)和图 8(c)为YOLO v3的实例检测结果,图 8(b)和图 8(d)为改进网络BR-YOLOv3的实例检测结果。通过对比发现,图 8(a)和图 8(c)均未能检测到图像右下角的小尺寸目标,而图 8(b)和图 8(d)的改进模型成功检测到了位于图像右下角的Boat以及Horse。
![]() |
Download:
|
图 8 YOLOv3与BR-YOLOv3多尺寸目标检测结果 Fig. 8 YOLOv3 and BR-YOLOv3 multi-size target detection results |
2组模型在相同输入图像上产生差异化检测结果的原因在于:YOLOv3采用了以MSE为目标函数的目标定位损失函数,在网络的训练过程中,通过对1个batch内所有预测框选区域进行回归调整,使小目标预测框所贡献的定位损失较小,而针对目标区域产生的损失值由尺寸较大的目标预测区域所主导,最终导致预测区域在调整过程中,出现由于调整尺度过大而造成小目标预测框偏离真实区域的现象,致使网络无法计算其回传梯度值,最终导致目标的丢失。这使得网络对于小目标的检测缺乏有效的学习,原网络在测试过程中出现边缘小目标漏检现象。改进网络通过引入LossGIoU定位损失函数,有效避免了当预测区域发生偏离无法进行回归调整的问题。在LossGIoU定位损失函数中添加对不同尺寸目标的惩罚项,通过衰减大目标预测区损失以提升小目标预测区域贡献的损失占比,为网络学习小目标检测提供更多机会。通过使用ARM模块提升浅层预测分支使用特征的语义强度,提升浅层目标预测分支对小目标的准确定位与有效分类的能力。通过以上分析可知,改进模型在多尺寸目标的检测上具有更优异的表现。
4 结束语本文基于空洞感受野模块和双向特征金字塔结构提出BR-YOLOv3目标检测网络,将空洞感受野模块嵌入特征提取网络,提升各层预测分支输出特征的语义强度,使用双向特征金字塔结构提高共享特征的利用率。将丰富目标位置信息、边缘信息融入深层特征中,提升深层特征预测分支的目标定位能力。实验结果表明,改进模型提升了对多尺寸目标检测的性能,相较于Faster RCNN、SSD等主流目标检测算法具有更高的准确率,整体平均检测精度达到79.24%。下一步将采用Mixup、Cutmix等图像增强方法及风格迁移对抗以提升对数据集中困难数据样本的识别率,并尝试使用随机遮挡目标的训练方法,提升网络对所识别目标各个部分的敏感性,以充分发掘网络对残缺目标的识别能力。
[1] |
HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 770-778.
|
[2] |
IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[EB/OL]. [2020-07-01]. https://arxiv.org/abs/1502.03167
|
[3] |
REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. [2020-07-01]. https://arxiv.org/abs/1804.02767.
|
[4] |
LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 21-37.
|
[5] |
LIN T, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 936-944.
|
[6] |
SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the inception architecture for computer vision[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 2818-2826.
|
[7] |
ZHAO Y N, WU L M, CHEN Q, et al. Small object detection algorithm based on multiscale fusion SSD[J]. Computer Engineering, 2020, 46(1): 247-254. (in Chinese) 赵亚男, 吴黎明, 陈琦. 基于多尺度融合SSD的小目标检测算法[J]. 计算机工程, 2020, 46(1): 247-254. |
[8] |
DAI J, QI H, XIONG Y, et al. Deformable convolutional networks[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 764-773.
|
[9] |
MA S Q, ZHOU K. Improved small target detection algorithm based on attention mechanism and feature fusion[J]. Computer Applications and Software, 2020, 37(5): 194-199. (in Chinese) 麻森权, 周克. 基于注意力机制和特征融合改进的小目标检测算法[J]. 计算机应用与软件, 2020, 37(5): 194-199. DOI:10.3969/j.issn.1000-386x.2020.05.034 |
[10] |
ZHU C, HE Y, SAVVIDES M. Feature selective anchor-free module for single-shot object detection[C]//Proceedings of Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 840-849.
|
[11] |
XIAO F, LI R N. Salient object detection algorithm under guidance of semantic information[J]. Computer Engineering, 2019, 45(4): 248-253. (in Chinese) 肖锋, 李茹娜. 语义信息引导下的显著目标检测算法[J]. 计算机工程, 2019, 45(4): 248-253. |
[12] |
REZATOFIGHI H, TSOI N, GWAK J Y, et al. Generalized intersection over union: a metric and a loss for bounding box regression[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 658-666.
|
[13] |
ZHENG Z, WANG P, LIU W, et al. Distance-IoU loss: faster and better learning for bounding box regression[C]//Proceedings of Conference on Artificial Intelligence. Washington D.C., USA: IEEE Press, 2020: 435-451.
|
[14] |
QIN S, ZHANG X L, CHEN L L, et al. Hierarchical offset object detection based on human visual mechanism[J]. Computer Engineering, 2018, 44(6): 253-258. (in Chinese) 秦升, 张晓林, 陈利利, 等. 基于人类视觉机制的层级偏移式目标检测[J]. 计算机工程, 2018, 44(6): 253-258. DOI:10.3969/j.issn.1000-3428.2018.06.043 |
[15] |
LI Z, PENG C, YU G, et al. Detnet: a backbone network for object detection[EB/OL]. [2020-07-01]. https://www.researchgate.net/publication/324584281_DetNet_A_Backbone_network_for_Object_Detection.
|
[16] |
TIAN Z, SHEN C, CHEN H, et al. Fcos: fully convolutional one-stage object detection[C]//Proceedings of IEEE International Conference on Computer Vision. 2019: 9627-9636.
|
[17] |
LIU W, LIAO S, REN W, et al. High-level semantic feature detection: a new perspective for pedestrian detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 5187-5196.
|
[18] |
ZHU H, QIN P L. U-Net pulmonary nodule detection algorithm based on multi-scale feature structure[J]. Computer Engineering, 2019, 45(4): 254-261. (in Chinese) 朱辉, 秦品乐. 基于多尺度特征结构的U-Net肺结节检测算法[J]. 计算机工程, 2019, 45(4): 254-261. |