2. 中国科学院光电技术研究所, 成都 610209;
3. 中国科学院大学 电子电气与通信工程学院, 北京 100049
2. Institute of Optics and Electronics, Chinese Academy of Sciences, Chengdu 610209, China;
3. School of Electronic, Electrical and Communication Engineering, University of Chinese Academy of Sciences, Beijing 100049, China
开放科学(资源服务)标志码(OSID):
目标检测是计算机视觉领域的重要研究方向,现有方法通常使用可见光图像进行目标检测,在黑夜、沙尘暴、大雾、雨天等缺少可见光光源、距离较远、能见度较低的情况下,很难进行有效成像,检测效果不佳[1]。红外成像技术根据不同目标向外界散发的不同红外辐射强度进行成像,无需借助外部环境光,不受雨雪风霜等天气影响,具有全天候工作、可视距离远等优点[2]。红外成像技术主要运用在目标捕获、跟踪、定位等军事领域以及铁路、煤矿、消防抢险、安防监控等民用领域。
传统红外目标检测主要包括模板匹配、阈值分割、帧差等方法。LIU等[3]提出将主成分分析得到的投影系数用作模板,并通过非线性相关性衡量匹配度。ZHANG等[4]改进固定阈值识别方法,根据计算二维红外通道中的亮度温度直方图,提出基于二维Otsu和上下文测试的检测算法。YIN等[5]提出一种基于经典W4和帧差结合的算法,克服由背景突变引起的误检,消除帧差造成的空洞。然而,由于红外图像的纹理细节少、目标轮廓信息不明显,在快速变化的复杂背景环境下容易产生错检漏检,因此上述方法对红外场景目标的检测效果不理想。
随着科学技术的快速发展,依靠大数据管理和高性能计算的深度学习技术受到研究人员的广泛关注并基于其提出一系列目标检测方法。基于深度学习的目标检测方法在计算机视觉领域展现出超越传统算法的优越性能,其中,两阶段方法有R-CNN[6]、Fast R-CNN[7]、Faster R-CNN[8]等,单阶段方法有SSD[9]、YOLO[10-12]等。但目前专门用于红外目标检测的深度学习算法较少,由于红外目标的特性,因此直接使用这些通用的深度学习算法的检测准确度不高。为解决上述问题,LEE等[13]将轻量级卷积神经网络(Convolutional Neural Network,CNN)和增强的随机森林相结合,改变原有的全连接方式,将CNN的输出与增强的随机森林相连接。HERRMANN等[14]提出一种红外数据预处理策略,使红外数据尽可能接近RGB域,再使用红外数据集进行训练微调,提升对红外数据的检测效果。WEI等[15]借鉴MobileNetv2轻量化网络,将3个特征输出层进行自上而下的特征金字塔逐次连接,结合YOLOv3检测头进行红外目标预测,加快了网络检测速度。HU等[16]提出一种基于增强特征融合域的红外目标检测算法,将静态目标模式分析与动态多帧相关检测相结合,使用神经网络融合不同层次的红外目标特征,通过增强目标特征抑制背景杂波和虚警率。
上述研究工作从不同角度提升了对红外目标检测的性能,但对复杂背景的适应性不强,在检测准确度和速度的平衡方面还有待提升。本文在YOLOv3模型的基础上,提出改进的Effi-YOLOv3模型。针对DarkNet53模型规模大、训练速度慢且对设备性能要求高的问题,使用轻量高效的EfficientNet骨干网络,降低内存消耗,提升网络模型的运行速度。由于目标尺度差异较大,浅层特征的感受野较小,通过模拟人类视觉的感受野机制,引入改进的感受野模块(Receptive Field Block,RFB),在增加少量计算量的情况下,大幅增加网络模型感受野。在检测层部分,基于可变形卷积以及动态ReLU激活函数构建DBD结构和CBD结构,提升模型特征编码灵活性,增加网络模型容量。使用兼顾预测框与真值框长宽比偏差、重叠率和中心点距离的CIoU损失代替原来的IoU损失,加快网络模型的训练速度,提升预测框的回归准确度。
1 相关工作 1.1 YOLOv3YOLOv3是目标检测中常用的单阶段网络,与两阶段网络先产生候选区域再进行分类不同,YOLOv3在产生候选区域的同时进行分类,提升了网络检测速度。YOLOv3的骨干网络为由残差结构组成的DarkNet53,残差结构可以缓解深层网络训练时的梯度消失问题。YOLOv3网络结构如图 1所示。为加强网络对不同尺度目标的检测精度,YOLOv3采用类似FPN的方式,将低层次的包含更多细粒度信息的特征层与高层次的包含较多语义信息的特征层进行特征融合,YOLOv3中共进行两次特征融合,形成3个不同尺度的检测层,分别对应检测大尺度目标、中等尺度目标、小尺度目标。不同尺度的特征层会被划分为S×S个网格,每个网格会生成3个先验框,共生成10 647个先验框进行预测,每个先验框预测(B+C+N)维向量,其中,B表示4个边界框偏移量,C表示目标预测的置信度,N表示需要预测的类别总数。
![]() |
Download:
|
图 1 YOLOv3网络结构 Fig. 1 Structure of YOLOv3 network |
YOLOv3损失函数由目标框位置损失
$ L={L}_{\mathrm{c}\mathrm{o}\mathrm{n}\mathrm{f}}+{L}_{\mathrm{l}\mathrm{o}\mathrm{c}}+{L}_{\mathrm{c}\mathrm{l}\mathrm{s}} $ | (1) |
EfficientNet[17]是一个可以平衡缩放网络输入图像分辨率、网络宽度和网络深度的模型,减少了模型参数量,增强了特征提取能力,使网络处于高效平衡的状态。EfficentNet由多个MBConv模块构成,MBConv中包含深度可分离卷积、Swish激活函数以及Dropout连接,并且在模块中加入了SE通道注意力机制。MBConv模块结构如图 2所示。
![]() |
Download:
|
图 2 MBConv模块结构 Fig. 2 Structure of MBConv module |
Swish激活函数计算公式如下:
$ f(\boldsymbol{x})=\boldsymbol{x}·\mathrm{s}\mathrm{i}\mathrm{g}\mathrm{m}\mathrm{o}\mathrm{i}\mathrm{d}(\beta \boldsymbol{x}) $ | (2) |
在Swish函数中x为输入,包含β个常数或者可训练的参数。Swish具备无上界、有下界、平滑、非单调的特点,将ReLU替换为Swish就能将Mobile NASNetA在ImageNet上的Top-1分类准确率提升0.9%。
深度可分离卷积是由逐通道卷积和逐点卷积组合而成。逐通道卷积中每一个通道被一个卷积核独立计算,没有利用不同通道在相同的空间区域上的特征信息。因此,使用逐点卷积将逐通道卷积产生的特征图进行融合,逐点卷积的卷积核大小为1×1,对逐通道卷积产生的特征图在深度方向进行加权组合,得到最终的输出特征层。
2 基于Effi-YOLOv3的红外目标检测为解决YOLOv3对于红外目标检测精度较低、计算复杂度较高的问题,本文提出一种基于Effi-YOLOv3的红外目标检测方法。采用更轻量高效的EfficientNet-B2作为目标特征提取表示的骨干网络,提高网络对目标表示的鲁棒性和特征提取的高效性。通过添加改进的RFB结构,增强网络感受野。构建基于可变形卷积和动态ReLU激活函数的DBD结构和CBD结构,自适应调整卷积区域和通道激活率,提升模型表达能力。使用CIoU损失加快模型收敛时间,提升预测框的准确率,最终实现对红外目标更高效准确的检测。
2.1 骨干网络为改善YOLOv3的特征提取能力以及减少模型参数,引入EfficientNet作为特征提取骨干网络。对应不同场景的需求,EfficientNet系列网络有B0~B7共8种由小到大的网络模型。针对红外场景目标检测任务,将EfficentNet-B2去除最后的全局平均池化层、Dropout层和全连接层后代替YOLOv3原始的DarkNet53网络进行特征提取。
EfficeintNet-B2共有23个MBConv模块,为了进行多尺度的特征融合,取第8个MBConv模块的输出层为P3层,取第16个MBConv模块的输出为P4层,取第23个MBConv模块的输出为P5层,将富有语义信息的高层特征通过上采样后与具有较多空间细节信息的低层特征进行通道级联,使用1×1卷积对不同通道的特征进行融合。由于红外场景目标尺度变化较大,使用单一尺度特征层进行检测不能同时兼顾不同尺度的目标,借鉴YOLOv3的多尺度检测策略,构建P3、P4和P5层特征融合后的3种不同尺度的检测层,分别针对大尺度目标、中等尺度目标、小尺度目标进行检测,提升检测的准确性和鲁棒性。
2.2 网络感受野的增强网络模型神经节点对于感受野中不同位置像素的敏感度不同,对感受野中心区域的像素敏感度高,对感受野边缘区域的像素敏感度低,并且从中心向边缘快速衰减,符合二维高斯分布。在人类视觉系统中,视网膜对于同一幅图像的不同区域的注意程度不同,在注视区域中心视觉灵敏程度最高,在周边区域灵敏度低很多,突出注视区域信息。
RFB[18]受人类视觉感受野结构启发,考虑视觉感受野大小和偏心率之间的关系以增大模型感受野,主要思想是采用不同尺寸卷积核和不同空洞率(rate)的空洞卷积,并对它们的结果进行级联组合。为获得不同尺度的局部特征信息,增大网络模型的感受野,进而提升网络的检测精度,同时为减少卷积层参数误差造成的估计均值的偏移,进一步改进RFB,获得增强的网络感受野,结构如图 3所示。由于红外成像中目标亮度高于背景亮度并且目标纹理特征弱,因此改进的RFB在原有基础上增加一条Maxpool分支以突出待检测目标,提升特征图在区域内的显著性,保留更多的目标纹理信息。
![]() |
Download:
|
图 3 改进的RFB模块结构 Fig. 3 Structure of improved RFB module |
改进的RFB模块由具有不同大小的卷积核(类似Inception结构)和不同空洞率的空洞卷积层构成,用于模拟人类视觉。首先将输入的特征经过1×1的卷积进行降维,减少模块的参数量,并保留1个残差边连接到输出层,有利于网络训练。多分支层由1×1、3×3、5×5的卷积和Maxpool构成,模拟不同多尺度的群体感受野,实际使用2个3×3卷积代替5×5卷积,减少参数量。然后不同大小的卷积核连接对应空洞率为1、3、5的3×3空洞卷积用于模拟人类视觉中群体感受野尺度与偏心率之间的关系。最后将不同空洞卷积结果和使用1×1卷积通道变换后的Maxpool层级联在一起进行通道融合,并与之前的残差边逐元素相加得到最终的输出特征。
2.3 可变形卷积和动态激活函数传统卷积只能对固定区域进行计算,导致对几何形变部分的建模受到限制。可变形卷积[19]在一定程度上解决了上述问题,主要思想是通过对不同的卷积区域计算附加的偏置,改变原有的卷积计算位置,使其卷积区域贴合目标的几何外形。引入可变形卷积,使其根据感兴趣的目标区域自适应调整卷积区域,增强特征提取能力,减少背景信息的干扰。
普通膨胀率为1的3×3卷积的采样区域是一个规则的形状R,R∈{(-1,-1),(-1,0),…,(1,1)}。对于输入特征图x中的位置
$ \boldsymbol{y}\left({p}_{0}\right)=\sum\limits_{{p}_{n}\in \boldsymbol{R}}\boldsymbol{w}\left({p}_{n}\right)\cdot \boldsymbol{x}({p}_{0}+{p}_{n}) $ | (3) |
如图 4所示,可变形卷积在卷积操作时,额外对每个采样点
![]() |
Download:
|
图 4 可变形卷积计算流程 Fig. 4 Calculation process of deformable convolution |
由于不同区域像素对检测性能的贡献不同,当可变形卷积的区域大于目标所在区域时,会对非目标区域进行错误识别,因此在DCNv2[20]中对每一个偏移量预测权重
$ \boldsymbol{y}\left({p}_{0}\right)=\sum\limits_{{p}_{n}\in \boldsymbol{R}}\boldsymbol{w}\left({p}_{n}\right)\cdot \boldsymbol{x}({p}_{0}+{p}_{n}+\Delta {p}_{k})\cdot \mathrm{\Delta }{m}_{k} $ | (4) |
计算得到的偏移量像素索引是一个浮点类型索引,为了使得到的像素值更加准确并且可以进行反向梯度传导,还需要对浮点类型像素值坐标经过双线性插值得到输出像素值。在初始化时,位置偏移
ReLU[21]是深度神经网络中常用的激活函数,将输入中的所有负值均设置为0,计算简单高效。之后出现了Leaky ReLU、PReLU、RReLU等多种ReLU函数的变体,但激活函数在推理阶段均是静态的。静态激活函数在网络运行之前设定激活率,在推理过程中激活函数对所有的输入数据执行相同的操作,缺乏灵活性。CHEN等[22]提出动态ReLU(DY-ReLU)替换静态的激活函数。
动态ReLU可以根据输入特征来学习调节ReLU的正值激活率和负值抑制率。对于一个给定的输入向量x,动态激活函数被定义为分段函数
传统的静态ReLU函数定义为
$ {y}_{c}={f}_{\boldsymbol{\theta }\left(\boldsymbol{x}\right)}\left({x}_{c}\right)=\underset{1\le k\le K}{\mathrm{m}\mathrm{a}\mathrm{x}}\left\{{a}_{c}^{k}\right(\boldsymbol{x}){x}_{c}+{b}_{c}^{k}(\boldsymbol{x}\left)\right\} $ | (5) |
$ \begin{array}{l}[{a}_{1}^{1}, {a}_{2}^{1}, \cdots , {a}_{C}^{1}, \cdots , {a}_{1}^{K}, {a}_{2}^{K}, \cdots , {a}_{C}^{K}, \\ {b}_{1}^{1}, {b}_{2}^{1}, \cdots , {b}_{C}^{1}, \cdots , {b}_{1}^{K}, {b}_{2}^{K}, \cdots , {b}_{C}^{K}{]}^{\mathrm{T}}=\boldsymbol{\theta }\left(\boldsymbol{x}\right)\end{array} $ | (6) |
其中:K为函数的个数;C为通道数;激活函数参数(
![]() |
Download:
|
图 5 动态ReLU网络结构 Fig. 5 Structure of DY-ReLU network |
基于可变形卷积和动态ReLU激活函数,设计CBD、DBD、D3BD等3种基础网络模块,其中:CBD由普通卷积(Conv)、BN层、动态ReLU函数组成;DBD由可变形卷积(DCNv2)、BN层、动态ReLU函数组成;D3BD由3个可变形卷积、BN层、动态ReLU函数组成。模块结构如图 6所示。
![]() |
Download:
|
图 6 CBD、DBD和D3BD模块结构 Fig. 6 Structure of CBD, DBD and D3BD modules |
D3BD相比DBD和CBD具有更强的特征提取能力,但是由于可变形卷积需要计算每一个卷积区域的偏移量以及对应偏移区域的权重比例,计算资源消耗相对较大,对模型运行速度产生较大影响。DBD使用一个可变形卷积和动态ReLU函数,兼顾网络运行速度和检测精度。CBD由于没有使用可变形卷积,模型运行速度相对较快。在实际测试过程中,使用D3BD网络运行速度降幅较大,为平衡检测速度和精度,选择在不同的检测层使用一次DBD模块,以实现对不同尺度目标的自适应性特征提取,后续网络使用CBD模块。
Effi-YOLOv3网络结构如图 7所示。输入图像经过改进的EfficientNet-B2骨干网络提取特征,其中P1特征层分辨率为输入图像的1/2,P2层分辨率为输入图像的1/4,以此类推,得到P3、P4、P5等3个有效特征层,其尺度大小分别为52×52、26×26、13×13,分别对应检测小尺度目标、中等尺度目标、大尺度目标。为补充P5层检测大尺度目标时感受野不足的问题,在P5层后使用改进的RFB模块增加浅层特征层的感受野,利用DBD模块使其适应大尺度的目标,得到P5_2特征层,P5_2特征经过4次CBD卷积模块得到P5_3。为进行不同尺度空间的特征融合,对P5_3使用1次CBD卷积和上采样后与P4特征层进行通道间级联融合,得到P4_1。为对中等尺度目标有更好的适应性,对P4_1特征使用DBD卷积得到P4_2,P4_2特征经过4次CBD卷积之后得到P4_3。将P4_3经过1次CBD卷积和上采样后的特征与P3特征层进行通道间级联,得到融合多尺度特征。针对小尺度目标检测的P3_1,对P3_1使用DBD卷积得到更加适应小尺度目标检测的P3_2,并对P3_2进行4次CBD卷积,得到充分融合特征后的P3_3。最终将P3_3、P4_3、P5_3分别进行1次CBD卷积和普通卷积,输出尺度大小为13×13、26×26、52×52的3个YOLO检测头。
![]() |
Download:
|
图 7 Effi-YOLOv3网络结构 Fig. 7 Structure of Effi-YOLOv3 network |
IoU是预测框与真值框之间的交并比,不仅可以用于正负样本的判断,而且是目标检测中判断预测框准确度的常用指标。YOLOv3位置损失由中心点距离损失和预测框宽高损失组合而成,不像IoU能直观地反映预测的准确度,因此考虑通过IoU反映的预测框与真值框之间的偏差作为损失函数。IoU的计算公式如下:
$ {I}_{\mathrm{I}\mathrm{o}\mathrm{U}}=\frac{|A\bigcap B|}{|A\bigcup B|} $ | (7) |
其中:A、B分别表示预测框、真值框区域;
当预测框与真值框不重合时,IoU值一直为0,直接使用IoU作为损失存在一定缺陷。为解决上述问题,REZATOFIGHI等[23]使用GIoU作为损失函数,使得预测框和真值框在没有重叠时,也能较好反映两者之间的重叠度。但当预测框和回归框之间完全包含或者两框在水平方向和垂直方向上时,此时的GIoU损失会退化为普通的IoU损失,降低了模型的收敛速度。由于预测框回归包括重叠面积、长宽比和中心点距离3个要素,因此ZHENG等[24]提出DIoU及CIoU。DIoU将预测框与真值框的中心点距离加入了损失计算,CIoU在DIoU的基础上将预测框的长宽比也加入损失函数计算中。
$ {L}_{\mathrm{C}\mathrm{I}\mathrm{o}\mathrm{U}}=1-{I}_{\mathrm{I}\mathrm{o}\mathrm{U}}+\frac{{p}^{2}(b, {b}^{\mathrm{g}\mathrm{t}})}{{c}^{2}}+\alpha v $ | (8) |
其中:
$ \alpha =\frac{v}{1-{I}_{\mathrm{I}\mathrm{o}\mathrm{U}}+v} $ | (9) |
$ v=\frac{4}{{\mathrm{\pi }}^{2}}{\left(\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\frac{{w}^{\mathrm{g}\mathrm{t}}}{{h}^{\mathrm{g}\mathrm{t}}}-\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\frac{w}{h}\right)}^{2} $ | (10) |
其中:w表示预测框宽度;h表示预测框高度;wgt表示真值框宽度;hgt表示真值框高度。
3 实验结果与分析 3.1 数据集选择FLIR公司提供的红外场景数据集,该数据集拍摄了美国加利福尼亚州的圣塔芭芭拉市的街道和高速公路,包含2017年11月至2018年5月的天气变化以及一天中不同时间的场景,图像背景有城市、山脉、隧道、树木、建筑等,背景相对复杂。训练集包含7 659张红外场景图像,使用COCO数据集格式进行标注,有22 372位行人(person)、3 986辆单车(bicycle)、41 260辆汽车(car),共67 618个目标。测试集包含1 360张红外场景图像,有5 579位行人、471辆单车、5 432辆汽车,共11 682个目标。数据集中的目标尺寸分布如图 8所示,该数据集中的目标尺寸分布中小尺寸的目标较多,不同目标间的尺寸跨度较大,并且场景中目标受到不同程度的遮挡,加大了检测难度。
![]() |
Download:
|
图 8 FLIR数据集目标尺寸分布 Fig. 8 FLIR dataset target size distribution |
通过平均精度均值(mean Average Precision,mAP),即各个类别的平均精度(Average Precision,AP)的均值来评价算法性能,mAP@0.5表示预测框与真值框的IoU大于等于0.5的情况下的准确预测概率。在计算mAP前需要先计算查准率(P)和召回率(R)。查准率是指实际为正样本且被准确预测为正样本的数量与所有被预测为正样本数量的比率,计算公式如下:
$ P=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{P}}}\times 100\mathrm{\%} $ | (11) |
其中:TTP表示实际为正样本,模型预测也为正样本的数量;FFP表示实际为负样本,但模型预测为正样本的数量。
召回率是指实际为正样本且被正确预测为正样本的数量与所有实际为正样本数量的比率,计算公式如下:
$ R=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{N}}}\times 100\mathrm{\%} $ | (12) |
其中:FFN表示实际为正样本,但是模型预测为负样本的数量。
AP计算公式如下:
$ {A}_{\mathrm{A}\mathrm{P}}={\int }_{0}^{1}P\left(R\right)\mathrm{d}R $ | (13) |
实验计算机CPU型号为Intel Core i7-4790、GPU型号为GTX1080、运行内存为16 GB、操作系统为Ubuntu18.04。编程语言为Python、深度学习框架为Pytorch1.4.0、CUDA版本为10.1、cuDNN版本为7.6.3。在训练过程中,采用Adam优化器对网络参数进行优化。在训练初始阶段,冻结骨干网络,仅对分类头进行训练,设置学习率为0.001,batchsize为16,训练30轮。之后将骨干网络进行解冻,对整个网络进行训练,设置学习率为0.000 3,batchsize为4,训练170轮。
3.3.1 Effi-YOLOv3与其他网络模型的实验结果对比将Effi-YOLOv3与原始YOLOv3的检测效果进行对比,从图 9可看出Effi-YOLOv3在3种类别检测中均取得了较好的效果。Effi-YOLOv3在单车类别的平均精度为53%,比YOLOv3的42%提升了11个百分点,行人检测从62%提升到了74%,提升了12个百分点,检测效果提升明显。在复杂背景下的目标检测、遮挡情况下的目标检测和小尺度目标检测结果分别如图 10~图 12所示。
![]() |
Download:
|
图 9 YOLOv3和Effi-YOLOv3对3种目标的检测结果对比 Fig. 9 Comparison of detection results of YOLOv3 and Effi-YOLOv3 for three targets |
![]() |
Download:
|
图 10 复杂背景下的目标检测结果 Fig. 10 Object detection results under complex background |
![]() |
Download:
|
图 11 遮挡情况下的目标检测结果 Fig. 11 Object detection results under occlusion |
![]() |
Download:
|
图 12 小尺度目标检测结果 Fig. 12 Small-scale object detection results |
为进一步验证Effi-YOLOv3模型性能,将其与YOLOv3、单阶段的SSD、两阶段的Faster R-CNN以及当前较为先进的EfficientDet网络模型进行对比实验,结果如表 1所示。从表 1可以看出,Effi-YOLOv3模型对红外目标的检测精度远高于其他网络模型,相比YOLOv3模型的mAP提升9.9个百分点,相比当前较为优秀的EfficientDet-D1模型的mAP提升了4.7个百分点。实验结果证明了改进的Effi-YOLOv3模型对红外目标检测具有更好的性能。
![]() |
下载CSV 表 1 红外目标检测实验结果 Table 1 Experimental results of infrared target detection |
在复杂的深度学习网络背景下,采用消融实验检验去除网络中某些模块后的性能,有利于更好地理解网络中不同模块对网络检测性能的影响。为明确各个模块对于网络性能的影响,设置6组实验分别进行训练,第1组为原始的YOLOv3模型,第2组~第6组为添加改进模块的网络模型,其中,“√”表示包含改进模块,“×”表示不包含改进模块。实验结果如表 2所示。从表 2中可以看出:在第2组实验中,在更换骨干网络为EfficientNet后,模型大小压缩为YOLOv3的25.4%,在检测精度相差不大的情况下,运行速度提升了4 frame/s,说明EfficientNet骨干网络相对DarkNet更加轻量高效;第3组实验增加了RFB模块增强网络感受野,与第2组实验的对比发现,大中尺度目标car和person的平均精度明显上升,分别提升了2.69和6.11个百分点,说明RFB模块增大了网络模型的感受野,提升了网络对大中尺度目标的检测精度;第4组实验增加了可变形卷积自适应调整卷积的区域及权重,对不同尺度目标的检测精度提升明显,其中由于person通常呈现不规则形状,平均精度提升最多,增加了4.33个百分点;第5组实验增加了DY-ReLU,使得每一层模型自适应地调整激活率,虽然增加了一定参数量并导致运行速度略微下降,但是极大提升了对小尺度目标的检测精度;第6组实验使用CIoU作为损失函数,在几乎不增加参数量的情况下,提升了整体预测框的检测准确率,本组实验即改进的Effi-YOLOv3模型。综上所述,改进的Effi-YOLOv3模型相比原有YOLOv3模型具有明显的性能提升,更加适合红外场景目标检测。
![]() |
下载CSV 表 2 消融实验结果 Table 2 Ablation experiment results |
为提升红外场景目标检测精度,本文提出基于Effi-YOLOv3的红外目标检测方法。将高效的EfficientNet骨干网络与YOLOv3网络相结合降低模型参数量,提升特征提取能力。通过改进RFB增大网络的有效感受野,并基于可变形卷积和动态激活函数构建DBD和CBD结构,提升模型特征编码的灵活性及增加模型容量。实验结果表明,该方法能对红外目标进行有效检测,Effi-YOLOv3模型参数量仅为YOLOv3模型的33.3%,并且在运行速度比YOLOv3模型略低的情况下,平均精度均值提升了9.9个百分点。下一步将考虑采集更多的红外场景图像丰富训练数据集,加强对红外图像的预处理提升红外目标的辨识度,并且优化网络结构,增强模型泛化能力,在保证检测精度的同时进一步加快网络运行速度。
[1] |
GUPTA A, GUPTA U. Real time target detection for infrared images[C]//Proceedings of the 4th International Conference on Inventive Systems and Control. Washington D.C., USA: IEEE Press, 2020: 570-574.
|
[2] |
张汝榛, 张建林, 祁小平, 等. 复杂场景下的红外目标检测[J]. 光电工程, 2020, 47(10): 128-137. ZHANG R Z, ZHANG J L, QI X P, et al. Infrared target detection and recognition in complex scene[J]. Opto-Electronic Engineering, 2020, 47(10): 128-137. (in Chinese) |
[3] |
LIU R M, LU Y H, GONG C L, et al. Infrared point target detection with improved template matching[J]. Infrared Physics & Technology, 2012, 55(4): 380-387. |
[4] |
ZHANG G Y, LI B, LUO J, et al. A self-adaptive wildfire detection algorithm with two-dimensional Otsu optimization[EB/OL]. [2020-12-08]. http://www.researchgate.net/publication/343665237_A_Self-Adaptive_Wildfire_Detection_Algorithm_with_Two-Dimensional_Otsu_Optimization/download.
|
[5] |
YIN J L, LIU L, LI H, et al. The infrared moving object detection and security detection related algorithms based on W4 and frame difference[J]. Infrared Physics & Technology, 2016, 77: 302-315. |
[6] |
GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2014: 580-587.
|
[7] |
GIRSHICK R. Fast R-CNN[C]//Proceedings of 2015 IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2015: 1440-1448.
|
[8] |
REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. DOI:10.1109/TPAMI.2016.2577031 |
[9] |
LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[M]. Berlin, Germany: Springer, 2016: 21-37.
|
[10] |
REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 779-788.
|
[11] |
REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 6517-6525.
|
[12] |
REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. [2020-12-08]. http://arxiv.org/pdf/1804.02767.
|
[13] |
LEE E J, KO B C, NAM J Y. Recognizing pedestrian's unsafe behaviors in far-infrared imagery at night[J]. Infrared Physics & Technology, 2016, 76: 261-270. |
[14] |
HERRMANN C, RUF M, BEYERER J. CNN-based thermal infrared person detection by domain adaptation[EB/OL]. [2020-12-08]. https://www.researchgate.net/publication/324935012_CNN-based_thermal_infrared_person_detection_by_domain_adaptation.
|
[15] |
WEI X W, DENG J H, XU S, et al. Fast recognition of infrared targets based on CNN[C]//Proceedings of the 3rd International Conference on Electronic Information Technology and Computer Engineering. Washington D.C., USA: IEEE Press, 2019: 909-914.
|
[16] |
HU X D, WANG X Q, YANG X, et al. An infrared target intrusion detection method based on feature fusion and enhancement[J]. Defense Technology, 2020, 16(3): 737-746. DOI:10.1016/j.dt.2019.10.005 |
[17] |
TAN M X, LE Q V. EfficientNet: rethinking model scaling for convolutional neural networks[EB/OL]. [2020-12-08]. https://arxiv.org/abs/1905.11946.
|
[18] |
LIU S T, HUANG D, WANG Y H. Receptive field block net for accurate and fast object detection[M]. Berlin, Germany: Springer, 2018.
|
[19] |
DAI J F, QI H Z, XIONG Y W, et al. Deformable convolutional networks[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 764-773.
|
[20] |
ZHU X Z, HU H, LIN S, et al. Deformable ConvNets v2: more deformable, better results[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 9300-9308.
|
[21] |
GLOROT X, BORDES A, BENGIO Y. Deep sparse rectifier neural networks[C]//Proceedings of the 14th International Conference on Artificial Intelligence and Statistics. Washington D.C., USA: IEEE Press, 2011: 315-323.
|
[22] |
CHEN Y P, DAI X Y. Dynamic ReLU[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2020: 351-367.
|
[23] |
REZATOFIGHI H, TSOI N, GWAK J, et al. Generalized intersection over union: a metric and a loss for bounding box regression[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 658-666.
|
[24] |
ZHENG Z H, WANG P, LIU W, et al. Distance-IoU loss: faster and better learning for bounding box regression[C]//Proceedings of 2020 AAAI Conference on Artificial Intelligence. PaloAlto, USA: AAAI Press, 2020: 12993-13000.
|