«上一篇 下一篇»
  计算机工程  2022, Vol. 48 Issue (2): 173-179  DOI: 10.19678/j.issn.1000-3428.0059979
0

引用本文  

汪常建, 丁勇, 卢盼成. 融合改进FPN与关联网络的Faster R-CNN目标检测[J]. 计算机工程, 2022, 48(2), 173-179. DOI: 10.19678/j.issn.1000-3428.0059979.
WANG Changjian, DING Yong, LU Pancheng. Object Detection Using Faster R-CNN Combining Improved FPN and Relation Network[J]. Computer Engineering, 2022, 48(2), 173-179. DOI: 10.19678/j.issn.1000-3428.0059979.

基金项目

国家自然科学基金面上项目(61473146)

作者简介

汪常建(1997-), 男, 硕士研究生, 主研方向为目标检测与跟踪;
丁勇, 副教授;
卢盼成, 硕士研究生

文章历史

收稿日期:2020-11-12
修回日期:2020-12-25
融合改进FPN与关联网络的Faster R-CNN目标检测
汪常建 , 丁勇 , 卢盼成     
南京航空航天大学 自动化学院, 南京 210016
摘要:在无人机场景下,目标检测存在样本数量不足、成像视角不同的问题,导致检测精度低。提出一种结合改进特征金字塔网络(FPN)与关联网络的Faster R-CNN目标检测算法。通过在传统FPN结构中以自下而上的特征融合方式提取特征图的语义信息和位置信息,最大程度地保留特征图的多尺度信息。同时利用候选区域之间的形状特征和位置特征构造区域之间的关联特征,并与深度特征相融合进行分类回归,从而充分提取特征图的整体信息,实现目标检测。在PASCAL VOC 2007和NWPU VHR-10数据集上的实验结果表明,相比FPN+Faster R-CNN算法,该算法的交并比和平均检测精度分别提高了10和2.7个百分点,具有较优的目标检测性能。
关键词目标检测    尺度    特征金字塔网络    关联网络    特征融合    
Object Detection Using Faster R-CNN Combining Improved FPN and Relation Network
WANG Changjian , DING Yong , LU Pancheng     
College of Automation Engineering, Nanjing University of Aeronautics and Astronautics, Nanjing 210016, China
Abstract: The existing target detection usually suffers from insufficient sample number and different image angles, resulting in low detection accuracy. This paper proposes a target detection algorithm using Faster R-CNN by combining improved Feature Pyramid Network(FPN) structure with a relation network.Base on the traditional FPN structure, the bottom-up feature fusion process is added to extract rich semantic information and location information of the feature map of targets.Then the location information and shape features between candidate regions are used to construct relation features, which are subsequently fused with deep features, so fully extract the overall information of the feature map and realize target detection.The experimental results on PASCAL VOC 2007 and NWPU VHR-10 datasets show that compared with the FPN+Faster R-CNN algorithm, the proposed algorithm increases the Intersection over Union (IoU) by about 10 percentage points and detection accuracy by about 2.7 percentage points, displaying excellent performance in target detection.
Key words: object detection    scale    Feature Pyramid Network(FPN)    relation network    feature fusion    

开放科学(资源服务)标志码(OSID):

0 概述

无人机是利用无线遥控设备和自备的程序控制装置操纵的不载人飞机,与有人驾驶的飞行器相比,无人机具有的高机动性使其更适合执行地面目标的检测任务[1]。无人机通过自动识别和定位图像中的目标可以增强人机交互下的感知功能,为其自主探测和飞行提供必备的技术支持[2]。目前,基于图像的目标检测算法在面向自然场景(如人脸识别[3]、智能检测[4]等)下已经取得较大进展,在无人机场景下,目标检测存在成像视角不同、样本数量不足等问题,检测效果较差[5]。因此,适用于复杂无人机场景下的目标检测算法成为研究热点。

基于深度学习的目标检测算法主要有以R-CNN[6-8]系列算法为代表的基于候选区域的两阶段算法和以YOLO[9-11]系列与SSD[12]为代表的基于回归的单阶段目标检测算法。两阶段算法对待检测图片进行预处理生成若干个候选区域,并放入分类器中进行分类确定目标位置,具有更精准的目标定位。单阶段目标检测算法直接对预测的目标物体进行回归,对输入图片直接进行处理,输出层直接输出边界框的位置信息和其所属类别,算法速度较快但准确率较低。针对检测图片中目标存在的尺度变化问题,文献[13]提出一种多尺度的特征金字塔结构目标检测算法,通过下采样实现高层特征图与底层特征图的融合,这种特征构造方式能够有效利用高层特征图具有较强语义信息的特点,将语义信息融入到底层特征图中,可以较好地处理目标检测中的尺度问题,但未有效地利用底层特征图的位置信息。文献[14]提出一种尺度注意力模块,用于融合特征金字塔网络(Feature Pyramid Network,FPN)所有检测分支的特征。在视觉领域,通过获取上下文信息或对象之间的关系有助于识别检测。文献[15]提出一种地理上下文的方法,使用对象空间提高检测效果。文献[16]提出自动上下文的概念。文献[17]提出一种注意力模块,通过从一组元素中聚集信息从而影响单个元素,由任务目标驱动自动学习聚合权重,对元素之间依赖性进行建模,提高翻译效果。文献[18]提出一种AC-FPN算法,通过集成注意力导向的多路径特征判别各个感受野范围信息,以提高检测精度。文献[19]提出一种耦合度较低的关系网络模块,更便捷地插入其他网络结构中以构造目标之间的关系。在目标检测中,通过提取图片整体信息构建目标之间的关联性有助于检测目标,但由于目标之间关联较抽象,构造关联性难度较大。

本文基于Faster R-CNN提出一种融合改进FPN与关联网络的目标检测算法,在FPN结构中增加自下而上的融合方式,利用候选区域之间的特征构建关联特征,通过将待检测图像中的关联特征与深度特征相融合,解决尺度变化较大情况下的目标检测问题。

1 Faster R-CNN算法

Faster R-CNN算法是两步式目标检测算法R-CNN和Fast R-CNN的升级算法。Faster R-CNN算法的流程如图 1所示。首先,采用VGG[20]网络架构或ResNet[21]残差网络结构提取输入图片的特征,利用区域建议网络(Region Proposal Network,RPN)在提取的特征图上生成候选区域,经过非极大值抑制后由全连接层对候选区域进行分类回归实现目标检测。

Download:
图 1 Faster R-CNN算法流程 Fig. 1 Procedure of Faster R-CNN algorithm

Faster R-CNN算法引入Anchor机制和边框回归,利用滑动窗口以Anchor为中心生成大小不同的9个框(3种面积,3种长宽比例),每个候选框分别判定是否含有目标信息,选择与真实值交并比最高的框作为检测结果,并对其进行回归实现目标检测。RPN网络结构如图 2所示。

Download:
图 2 RPN网络结构 Fig. 2 Structure of RPN network

在Faster R-CNN算法中引入RPN网络结构的目的是提取目标在图像上可能存在的区域,替代之前算法采用的选择性搜索方法,使得整个网络可进行端到端的训练。Faster R-CNN算法利用滑动窗口对特征图像进行卷积操作生成特征向量,并输入至回归层和分类层,其中分类层主要预测目标的置信度分数,回归层计算目标的位置坐标偏移量。由于Faster R-CNN算法直接使用RPN网络生成检测框,因此可以有效解决生成候选区域较慢的问题,但其依然在单一尺度下对目标进行检测。当面对无人机图像中存在尺度变化较大的场景时,网络层对后面浅层特征图的贡献信息小。因此,Faster R-CNN算法不能解决多尺度下的目标检测问题。

2 结合改进FPN与关联网络的目标检测算法

针对Faster R-CNN算法存在的提取尺度信息不足和目标之间关联性不明确的问题,本文提出一种改进FPN与关联网络相结合的Faster R-CNN目标检测算法。本文算法流程如图 3所示,首先对输入图片经卷积层提取深度特征,利用改进的FPN对不同卷积层提取的特征进行融合;通过RPN网络的滑动窗口生成候选区域并输入至全连接层,由关联网络接收候选区域的信息并构造区域之间的关联特征,将关联特征加入深度特征之中,最后进行分类回归,从而实现目标检测。该算法在输出特征图中通过改进的FPN结构来最大程度地保存目标的多尺度信息;将候选区域单独作为目标,利用候选区域的位置关系和外观特征构造区域之间的关联性,充分地提取图片的整体信息,有助于提高目标检测效果。

Download:
图 3 本文算法流程 Fig. 3 Procedure of the proposed algorithm
2.1 改进FPN的多尺度检测

传统Faster R-CNN算法是在单一尺度上生成特征图,用于检测的只是卷积层最后一层的输出特征图,并未利用之前的多层卷积层特征提取结果。在目标检测中,底层特征图具有丰富的位置信息,有助于小尺度目标的检测,高层特征图具有丰富的语义信息,适合处理尺度较大的目标。为解决小目标的尺度问题,文献[13]提出一种FPN结构,如图 4所示。FPN采用自上而下和横向连接的结构,融合底层位置信息与高层语义信息更丰富的特征图,以得到新的特征图中保存了目标底层的位置信息,提高较小尺度目标的检测效果。不同卷积层得到的深度特征通过1×1卷积核进行通道的匹配,融合后的特征图利用3×3卷积核进行处理以减少不同层特征融合带来的混叠影响。

Download:
图 4 FPN结构 Fig. 4 FPN structure

传统的FPN能够有效地融合底层特征图的位置信息,但是高层特征图经过2倍上采样处理导致语义信息被减弱。为同时获得较强的语义信息和位置信息,本文提出一种改进的FPN结构,如图 5所示,输入图片经过ResNet网络提取特征,将高层特征图上采样后与底层特征图相加,将底层特征图进行下采样后与高层特征图相加的双向融合方式获取最终的特征图,再经过RPN网络生成4种尺度{256×256,128×128,64×64,32×32}和3种比例{1∶2,1∶1,2∶1}共24种Anchor。特征图输入到ROI池化层进行池化操作,最后经过检测器输出实现目标检测。

Download:
图 5 改进的FPN结构 Fig. 5 Improved FPN structure

改进FPN的Faster R-CNN多尺度检测算法包含目标丰富的语义信息和位置信息,但在后续处理中,没有考虑图片中目标之间可能存在的关系,而是将目标单独进行检测。为更充分提取图片信息,本文考虑加入关联网络结构,通过提取图片上不同位置处特征信息的关联性进一步提高检测效果,确保输出特征图中同时保存足够的语义信息和位置信息,有效提高多尺度目标的检测效果。

2.2 改进的Faster R-CNN算法

在Faster R-CNN算法中,RPN网络将生成的候选区域输入到ROI池化层进行池化处理,得到每个区域的特征向量,包括候选区域的目标位置信息和深度特征信息,随后将每个区域未处理的信息送入全连接层和Softmax处理,得到候选框具体所属的类别,并未利用候选区域之间的相互关系。为进一步获取候选区域之间的关联性,本文引入一种关联网络结构,利用特征信息和位置信息对目标之间的关系进行建模,构造关联特征并与深度特征相融合,进一步提高检测效果。关联网络结构如图 6所示。

Download:
图 6 关联网络结构 Fig. 6 Structure of relation network

图 6可以看出,关联网络以ROI池化层输出的形状特征$ {f}_{\mathrm{A}} $和位置特征$ {f}_{\mathrm{G}} $为输入,将提取到的每个候选区域单独作为一个目标,通过关联网络构造区域之间的关联,构造方法为图 6虚线方框。图中$ {f}_{\mathrm{A}}^{n} $为输入的第$ n $个区域的形状特征,$ {f}_{\mathrm{G}}^{m} $$ {f}_{\mathrm{G}}^{n} $为输入的第$ m $个和第$ n $个区域的位置特征,用一个4维的bbox坐标信息表示。$ {\boldsymbol{W}}_{V} $$ {\boldsymbol{W}}_{Q} $$ {\boldsymbol{W}}_{K} $$ {\boldsymbol{W}}_{\mathrm{G}} $均为变换矩阵。在目标检测过程中,本文给定N个目标的输入参数为$ \left\{\right({f}_{\mathrm{A}}^{n}, {f}_{\mathrm{G}}^{n}{\left)\right\}}_{n=1}^{N} $,定义第$ n $个目标,受其周围m个目标的影响因子$ {f}_{R}\left(n\right) $如式(1)所示:

$ {f}_{\mathrm{R}}\left(n\right)=\sum\limits _{m}{\omega }^{mn}\times ({\boldsymbol{W}}_{V}\times {f}_{\mathrm{A}}^{m}) $ (1)

其中:$ {\omega }^{mn} $为关联特征权重,表示目标$ m $受到其他目标的影响因子;$ {f}_{\mathrm{A}}^{m} $为第$ m $个目标的形状特征,经过变换矩阵$ {\boldsymbol{W}}_{V} $进行维度变化之后,与权重参数$ {\omega }^{mn} $相乘进行归一化处理,得到其他目标对第$ n $个目标的关联程度。关联特征权重$ {\omega }^{mn} $如式(2)所示:

$ {\omega }^{mn}=\frac{{\omega }_{\mathrm{G}}^{mn}\times \mathrm{e}\mathrm{x}\mathrm{p}\left({\omega }_{\mathrm{A}}^{mn}\right)}{\sum\limits _{k}{\omega }_{\mathrm{G}}^{kn}\times \mathrm{e}\mathrm{x}\mathrm{p}\left({\omega }_{\mathrm{A}}^{kn}\right)} $ (2)

其中:$ {\omega }_{\mathrm{G}}^{mn} $为第$ m $个目标相对于第$ n $个目标的位置特征权重;$ {\omega }_{\mathrm{A}}^{mn} $为第$ m $个目标相对于第$ n $个目标的形状特征权重,分母起到归一化的作用。形状特征权重$ {\omega }_{\mathrm{A}}^{mn} $如式(3)所示:

$ {\omega }_{\mathrm{A}}^{mn}=\frac{\mathrm{d}\mathrm{o}\mathrm{t}({\boldsymbol{W}}_{K}{f}_{\mathrm{A}}^{m}, {\boldsymbol{W}}_{Q}{f}_{\mathrm{A}}^{n})}{\sqrt{{d}_{k}}} $ (3)

其中:$ {\boldsymbol{W}}_{K} $$ {\boldsymbol{W}}_{Q} $均为参数矩阵;通过变换矩阵$ {\boldsymbol{W}}_{K} $$ {\boldsymbol{W}}_{Q} $将原始输入的外观特征$ {f}_{\mathrm{A}}^{m} $$ {f}_{\mathrm{A}}^{n} $映射到子空间度量其特征的匹配程度;$ {d}_{k} $为映射后的特征维度;$ \mathrm{d}\mathrm{o}\mathrm{t} $为向量的点积运算。式(3)分母的作用是限制数值规模,防止$ {\omega }^{mn} $出现非0即1的情况。位置特征权重$ {\omega }_{\mathrm{G}}^{mn} $如式(4)所示:

$ {\omega }_{\mathrm{G}}^{mn}=\mathrm{m}\mathrm{a}\mathrm{x}\{0, {\boldsymbol{W}}_{\mathrm{G}}\times {\varepsilon }_{\mathrm{G}}({f}_{\mathrm{G}}^{m}, {f}_{\mathrm{G}}^{n}\left)\right\} $ (4)

为了使目标不受平移缩放的影响,本文对目标位置信息进行尺度归一化和对数变换,如式(5)所示:

$ {\left(\mathrm{l}\mathrm{g}\left(\frac{\left|{x}_{m}-{x}_{n}\right|}{{\omega }_{m}}\right), \mathrm{l}\mathrm{g}\left(\frac{\left|{y}_{m}-{y}_{n}\right|}{{h}_{m}}\right), \mathrm{l}\mathrm{g}\left(\frac{{\omega }_{n}}{{\omega }_{m}}\right), \mathrm{l}\mathrm{g}\left(\frac{{h}_{n}}{{h}_{m}}\right)\right)}^{\mathrm{T}} $ (5)

其中:$ ({x}_{m}, {y}_{m}, {\omega }_{m}, {h}_{m}) $$ ({x}_{n}, {y}_{n}, {\omega }_{n}, {h}_{n}) $表示第$ m $个和第$ n $个目标的位置信息。

通过式(5)对位置特征进行尺度归一化和$ \mathrm{l}\mathrm{o}\mathrm{g} $操作来增加尺度不变性,使得在训练过程中不会因为数值变化范围过大而引起数据发散。在得到所需要的关联特征$ {f}_{\mathrm{R}}^{n} $后,通过Concat聚合方式聚合Nr个关联特征,并将其与目标的深度特征$ {{f}_{\mathrm{A}}}^{n} $相融合,作为最终输出的新特征$ {f}_{\mathrm{A}}^{n} $,如式(6)所示:

$ {f}_{\mathrm{A}}^{n}={f}_{\mathrm{A}}^{n}+\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{c}\mathrm{a}\mathrm{t}\left[{f}_{\mathrm{R}}^{1}\right(n), {f}_{\mathrm{R}}^{2}(n), \cdot \cdot \cdot , {f}_{\mathrm{R}}^{{N}_{r}}(n\left)\right] $ (6)

从式(6)可以看出,在输入图像原有深度特征的基础上加入关联特征,通过构造不同候选区域之间的关联性,并将这种关联性加入到特征中进行后续的回归分类处理,充分提取图片信息。

融合改进FPN和关联网络的Faster R-CNN目标检测算法主要分为7个步骤:

步骤1    输入待检测图片,利用ResNet网络提取图片的深度特征。

步骤2   利用改进的FPN结构融合不同层次的卷积块输出特征图。

步骤3    利用RPN网络在步骤2生成的特征图上生成候选区域。

步骤4   将生成的候选区域输入ROI Pooling层池化到特定大小(7×7),并输入至全连接层。

步骤5   接收全连接层输出,通过关联网络构建关联特征,主要有以下3个部分。

1)构建关联网络数目$ {N}_{r}=16 $

2)应用二元交叉熵损失函数训练权重$ \{{W}_{K}^{r}, $$ {W}_{Q}^{r}, $ $ {W}_{V}^{r}, {W}_{G}^{r}{\}}_{r=1}^{{N}_{r}} $

3)对每个输入对象进行如下操作:(1)利用式(4)计算位置特征权重$ \{{\omega }_{\mathrm{G}}^{mn}{\}}_{m=1}^{N} $;(2)利用式(3)计算外观特征权重$ \{{\omega }_{\mathrm{A}}^{mn}{\}}_{m=1}^{N} $;(3)利用式(2)计算关系特征权重$ \{{\omega }^{mn}{\}}_{m=1}^{N} $;(4)利用式(1)计算关联特征$ {f}_{\mathrm{R}}\left(n\right) $;(5)利用式(6)输出新的特征$ \{{f}_{\mathrm{A}}^{n}{\}}_{n=1}^{N} $

步骤6   对融合后的特征信息$ \{{f}_{\mathrm{A}}^{n}{\}}_{n=1}^{N} $进行分类回归,生成各个区域的类别概率分布和一组特定于类的边界框回归信息。

步骤7   输出目标检测结果。

3 实验与结果分析

实验采用Ubuntu 16.04操作系统和NVIDIA GeForce GTX 1660显卡,以Tensorflow作为深度学习框架构建算法模型。为验证本文所提算法的目标检测效果,在PASCAL VOC 2007和NWPU VHR-10上进行实验验证,其中PASCAL VOC 2007作为标准数据集,是衡量图像分类识别能力的基准数据集之一,包括20个类别的目标,拥有标签train-val(5 011张图片)和test(4 952张图片)。NWPU VHR-10包含800个高分辨率的卫星图像,均来自Google Earth和Vaihingen数据集,由专家手动注释产生。实验将从检测效果、检测精度和P-R曲线3个方面进行验证。

3.1 目标检测效果对比

本文选用PASCAL VOC2007部分有代表性图片,本文算法与FPN+Faster R-CNN算法的目标检测对比如图 7所示。从图 7(a)可以看出,第1幅和第4幅为图片中同时存在尺度较大目标和尺度较小目标;第2幅图片为在模糊环境下的船舶;第3幅图片为在特殊视角下的船体检测。

Download:
图 7 本文算法与FPN+Faster R-CNN算法的目标检测结果对比1 Fig. 7 Object detection results comparison 1 of the proposed algorithm and FPN+Faster R-CNN algorithm

当待检测图片中目标尺度发生较大变化时,FPN+Faster R-CNN算法可以在一定程度上对尺度变化的目标进行检测,但不能完全准确地定位到每个目标的位置信息,特别是对小目标的检测,如第1幅图片中最小的一只鸟,第2幅图片中大船旁边的小船只,均出现了漏检的情况。本文改进后的算法综合考虑了目标的尺度变化与目标之间的关联性,在处理包含这些小目标或者特殊视角的目标时,如图 7(a)中第3幅图片船舶的检测结果,本文算法能较准确地识别特殊视角下的目标信息,不会将其分类为背景信息而出现漏检情况。

待检测图片为NWPU VHR-10数据集中包含的部分航拍图像,本文算法和FPN+Faster R-CNN算法的目标检测结果对比如图 8所示。由于无人机拍摄图像的目标尺度较小,因此传统检测算法存在定位不精确的问题。当待检测目标受相似环境干扰(如图 8(a)第3幅图片)时,传统算法容易出现漏检情况。

Download:
图 8 本文算法与FPN+Faster R-CNN算法的目标检测结果对比2 Fig. 8 Object detection results comparison 2 of the proposed algorithm and FPN+Faster R-CNN algorithm

图 8可以看出,FPN+Faster R-CNN算法在对无人机视角下的图片进行检测时,当存在相似性干扰情况下(如第3幅图片中飞机与跑道)会出现漏检。本文算法对目标框的回归更精确。本文对待检测图片中目标自左向右依次编号为1、2(1)、2(2)、3(1)、3(2),将本文算法和传统FPN+Faster R-CNN算法两次目标检测结果与目标真实值回归框相比较,并以检测结果与真实值的交并比(Intersection of Union,IoU)作为评价标准,真实值为定位框左上角的横纵坐标和右下角的横纵坐标,结果如表 1所示。

下载CSV 表 1 本文算法与FPN+Faster R-CNN算法IOU对比 Table 1 IOU comparison of the proposed algorithm and FPN+Faster R-CNN algorithm

表 1检测结果的IOU值对比可以看出,与FPN+Faster R-CNN算法相比,本文算法整体检测准确率分别提高了5、22、10和13个百分点,本文算法对目标定位更精准,目标检测效果更优。

3.2 检测精度对比

在PASCAL VOC数据集上选取20个类别的图片,在每个类别上本文算法和FPN+Faster R-CNN算法的平均检测精度mAP(mean average precision)对比如表 2所示,并将检测结果与提供的真实值进行对比。

下载CSV 表 2 本文算法与FPN+Faster R-CNN算法的mAP对比 Table 2 mAP comparison of the proposed algorithm and FPN+Faster R-CNN algorithm  

表 2可以看出,本文算法在引入改进FPN结构和关联特征后的mAP为80.1%,相较于FPN+Faster R-CNN算法的mAP提高了2.7个百分点。本文算法与FPN+Faster R-CNN算法的检测性能对比如表 3所示,本文算法改进前算法检测速度上慢了21 ms,以较低的时间损耗得到较高的检测精度,能够满足在无人机场景下目标检测识别的要求。

下载CSV 表 3 本文算法与FPN+Faster R-CNN算法的检测性能对比 Table 3 Detection performance comparison of the proposed algorithm and FPN+Faster R-CNN algorithm
3.3 P-R曲线对比

在目标检测中,P-R曲线是评估算法的重要指标,P表示正样本精确率,如式(7)所示:

$ P=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{P}}} $ (7)

其中:$ {T}_{\mathrm{T}\mathrm{P}} $表示判断为正例的正例;$ {F}_{\mathrm{F}\mathrm{P}} $表为判断为正例的负例。

R表示正样本召回率,如式(8)所示:

$ R=\frac{{T}_{\mathrm{T}\mathrm{P}}}{p} $ (8)

其中:$ p $为所有正例的个数。

P-R曲线包围面积接近1,说明算法性能越好。本文算法和FPN+Faster R-CNN算法的P-R曲线对比如图 9所示,本文算法的P-R曲线包围面积更大,其样本分类性能更优。

Download:
图 9 本文算法和FPN+Faster R-CNN算法的P-R曲线对比 Fig. 9 P-R cures comparison of the proposed algorithm and FPN+Faster R-CNN algorithm
4 结束语

本文基于Faster R-CNN网络结构提出一种改进的目标检测算法。在特征金字塔网络结构中加入自下而上的特征融合路径,增大底层位置信息在输出特征图中的比率,并通过构建候选区域之间的特征关联性,充分提取目标信息。实验结果表明,本文算法平均交并比和平均检测精度分别为12.5和80.1%,具有较优的目标检测效果。下一步将考虑利用卷积层代替目标检测框架中的全连接层,以减少参数运算量和算法运行时间。

参考文献
[1]
KANELLAKIS C, NIKOLAKOPOULOS G. Survey on computer vision for UAVs[J]. Journal of Intelligent and Robotic Systems, 2017, 87: 141-168. DOI:10.1007/s10846-017-0483-z
[2]
VINCENZI D A, TERWILLIGER B A, ISON D C. Unmanned Aerial System(UAS) human-machine interfaces: new paradigms in command and control[J]. Procedia Manufacturing, 2015, 3: 920-927. DOI:10.1016/j.promfg.2015.07.139
[3]
ZHANG K, ZHANG Z, LI Z, et al. Joint face detection and alignment using multitask cascaded convolutional networks[J]. IEEE Signal Processing Letters, 2016, 23(10): 1499-1503. DOI:10.1109/LSP.2016.2603342
[4]
RAGHUNANDAN A, MOHANA M, RAGHAV P, et al. Object detection algorithms for video surveillance applications[C]//Proceedings of International Conference on Communication and Signal Processing. Washington D.C., USA: IEEE Press, 2018: 563-568.
[5]
VADDI S, KUMAR C, JANNESARI A. Efficient object detection model for real-time UAV applications[EB/OL]. [2020-10-10]. https://arxiv.org/abs/1906.00786.
[6]
GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2014: 580-587.
[7]
GIRSHICK R. Fast R-CNN[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2015: 1440-1448.
[8]
REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39(6): 1137-1149.
[9]
REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2015: 779-788.
[10]
REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]//Proceedings of IEEE Conference on Computer Vision & Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 6517-6525.
[11]
REDMON J, FARHADI A. YOLOv3: an incremental improvement[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recongnition. Washington D.C., USA: IEEE Press, 2018: 1-6.
[12]
LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 21-37.
[13]
LIN T, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 936-944.
[14]
邹逸群, 肖志红, 赖普坚, 等. Anchor-free的尺度自适应行人检测算法[J]. 控制与决策, 2021, 36(2): 295-302.
ZHOU Y Q, XIAO Z H, LAI P J, et al. Anchor-free scale adaptive pedestrian detection algorithm[J]. Control and Decision, 2021, 36(2): 295-302. (in Chinese)
[15]
DIVVALA S K, HOIEM D, HAYS J H, et al. An empirical study of context in object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2009: 1-2.
[16]
TU Z. Auto-context and its application to high-level vision tasks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2008: 1-2.
[17]
VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. New York, USA: ACM Press, 2017: 6000-6010.
[18]
CAO J X, CHEN Q, GUO J, et al. Attention-guided context feature pyramid network for object detection[EB/OL]. [2020-10-09]. http://arxiv.org/abs/2005.11475v1.
[19]
HU H, GU J, ZHANG Z, et al. Relation networks for object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 3588-3597.
[20]
SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2020-10-10]. https://arxiv.org/pdf/1409.1556.pdf.
[21]
HE K, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 770-778.