2. 战略支援部队信息工程大学 信息系统工程学院, 郑州 450000
2. School of Information Systems Engineering, Strategic Support Force Information Engineering University, Zhengzhou 450000, China
开放科学(资源服务)标志码(OSID):
目前,基于深度学习的目标检测算法主要分为一阶段目标检测算法和两阶段目标检测算法两大类。一阶段目标检测算法是基于回归的目标检测方法,能同时对图像进行分类和候选框参数的回归,摒弃了多次回归的步骤;两阶段目标检测算法是基于候选区域的目标检测方法,该算法使用先选取候选区域,后对候选区域进行分类和回归的策略。相比于两阶段目标检测算法,一阶段目标检测算法无需候选区域分类回归步骤即可直接对目标进行分类预测。因此,一阶段目标检测算法不仅降低了计算复杂性,提高了时间效率,而且对实时目标检测具有更大的适用性,应用范围更加广泛。
在一阶段目标检测算法中,RetinaNet[1]是一种基于Focal损失函数的经典网络,其继承了之前一阶段目标检测算法检测速度快的特点[2],且基本克服了训练过程中类别不平衡问题。到目前为止,RetinaNet仍被作为基础网络进行改进[3-4],或者作为主流基线网络与目前最新方法进行比较[5],被广泛用于计算机视觉领域[6-7]。然而,RetinaNet仅关注分类损失函数来解决类别不平衡问题,忽略了网络本身和边界框回归也是训练过程优化的重点,依旧存在难以充分提取与融合不同阶段特征,以及边界框回归不够准确的问题。传统的RetinaNet算法通过深度卷积网络后会输出不同阶段尺度大小不一致的特征图,深层特征对应的下采样率通常比较大,容易造成小目标在特征图上的有效信息较少,不利于小目标的检测。而浅层特征分辨率较高,往往学习到的是细节特征,不利于大目标的检测。同时,RetinaNet算法中的特征金字塔(Feature Pyramid Networks,FPN)[8]虽然试图通过横向连接进行特征集成,但FPN中的顺序方式使集成特征更多地关注相邻层特征,而较少关注其他层特征。上述问题均可归结为不能充分提取与融合不同阶段特征的问题。此外,在边界框回归过程中,RetinaNet算法中的边界框回归损失函数无法判断预测框和目标框是如何相交的,如果预测框和目标框没有重叠,那么损失函数将不起作用。上述问题归结为边界框回归不够准确的问题。
本文提出一种改进型RetinaNet算法,在特征提取模块的深度残差网络[9]中引入多光谱通道注意力(Multi-spectral Channel Attention,MCA)模块[10],该模块在ImageNet数据集[11]上可达到最佳水平,能够提取不同阶段特征的丰富信息。此外,在特征提取模块后添加多尺度特征融合(Multi-scale Feature Fusion,MFF)模块,该模块包括1个具有自底向上路径的路径聚合模块[12]和1个特征融合操作[13],通过使用不同深度集成的特征来增强多层特征融合。将RetinaNet算法中的边界框回归损失函数替换为完全交并比(Complete Intersection over Union,CIoU)损失函数[14],提高边界框在回归过程中的收敛速度。最后,在MS COCO数据集[15]和PASCAL VOC数据集[16]上验证改进型RetinaNet算法的检测性能。
1 改进型RetinaNet算法改进型RetinaNet算法的整体架构如图 1所示,首先输入一张图片,在加入MCA模块的ResNet-FPN特征提取模块中提取图像特征,通过MFF模块来融合多阶段特征,输出5层多尺度特征图,并在每层特征上设置锚框,其对应输入图像按固定长度进行平移。然后,生成的全部锚框覆盖了相对于输入图像的尺度范围,并设置交并比(Intersection over Union,IoU)阈值对锚框进行筛选。最后将其送入分类与边界框回归模块,分类分支和回归分支都是全卷积网络,分类分支预测了每个锚框上K个类别的概率,回归分支预测了锚框和目标框之间的相对偏移。
![]() |
Download:
|
图 1 改进型RetinaNet算法的整体架构 Fig. 1 Overall architecture of improved RetinaNet algorithm |
如图 1的左侧部分所示是基于多光谱通道注意力的ResNet-FPN特征提取模块。ResNet-FPN作为RetinaNet算法的特征提取模块,使用ResNet每个残差阶段中的最后一个残差块输出的特征图,即C2、C3、C4和C5这4层特征构成自底向上路径。而P2、P3、P4和P5这4层特征是经过横向连接和2倍上采样得到的。为了减少计算量,不使用高分辨率特征图P2。P7、P6是经过步幅为2的3×3卷积得到的,最后P7、P6、P5、P4和P3这5层特征构成了自顶向下路径。由于ResNet-FPN特征提取模块存在不能充分提取图片特征信息的问题,因此,本文算法加入了多光谱通道注意力(Multi-spectral Channel Attention,MCA)模块[10]来帮助有效地提取丰富的特征信息。
本文将MCA模块插入在深度残差网络的多个残差块中,以ResNet-50网络为例,该网络主要有5个阶段,第1个阶段包括7×7卷积和3×3最大池化层,后4个阶段分别包括3、4、6、3个残差块,每个残差块又包括1×1、3×3和1×1共3个卷积层,ResNet-50网络结构如表 1所示,其中64、256、128、512、1 024、2 048等数字代表通道数。
![]() |
下载CSV 表 1 ResNet-50网络结构 Table 1 Network structure of ResNet-50 |
以ResNet-50网络为例,在该网络的每个残差块中均插入一个注意力模块,具体操作如图 2所示,总共插入了16个注意力模块。
![]() |
Download:
|
图 2 插入多光谱通道注意力模块的残差块 Fig. 2 Residual block inserted in the multi-spectral channel attention module |
多光谱通道注意力模块是基于离散余弦变换(Discrete Cosine Transform,DCT)[17]提出的,二维DCT可定义为:
$ \begin{array}{l}{f}_{h, w}^{2d}=\sum\limits _{i=0}^{H-1}\sum\limits _{j=0}^{W-1}{x}_{i, j}^{2d}\underset{\mathrm{D}\mathrm{C}\mathrm{T}\mathrm{ }\mathrm{w}\mathrm{e}\mathrm{i}\mathrm{g}\mathrm{h}\mathrm{t}\mathrm{s}}{\underset{⏟}{\mathrm{c}\mathrm{o}\mathrm{s}\left(\frac{\mathrm{\pi }h}{H}\left(i+\frac{1}{2}\right)\right)\mathrm{c}\mathrm{o}\mathrm{s}\left(\frac{\mathrm{\pi }w}{W}\left(j+\frac{1}{2}\right)\right)}}, \\ \mathrm{s}.\mathrm{t}.h\in \{\mathrm{0, 1}, \cdot \cdot \cdot , H-1\}, w\in \{\mathrm{0, 1}, \cdot \cdot \cdot , W-1\}\\ {\boldsymbol{f}}^{2d}=2\mathrm{D}\mathrm{D}\mathrm{C}\mathrm{T}\left({\boldsymbol{x}}^{2d}\right)\end{array} $ | (1) |
其中:
因此,二维离散余弦逆变换可定义为式(2)所示:
$ \begin{array}{l}{x}_{i, j}^{2d}=\sum\limits _{h=0}^{H-1}\sum\limits _{w=0}^{W-1}{f}_{h, w}^{2d}\underset{\mathrm{D}\mathrm{C}\mathrm{T}\mathrm{ }\mathrm{w}\mathrm{e}\mathrm{i}\mathrm{g}\mathrm{h}\mathrm{t}\mathrm{s}}{\underset{⏟}{\mathrm{c}\mathrm{o}\mathrm{s}\left(\frac{\mathrm{\pi }h}{H}\left(i+\frac{1}{2}\right)\right)\mathrm{c}\mathrm{o}\mathrm{s}\left(\frac{\mathrm{\pi }w}{W}\left(j+\frac{1}{2}\right)\right)}}, \\ \mathrm{s}.\mathrm{t}.i\in \{\mathrm{0, 1}, \cdot \cdot \cdot , W-1\}, j\in \{\mathrm{0, 1}, \cdot \cdot \cdot , W-1\}\end{array} $ | (2) |
为简单起见,使用B表示频率分量,即二维DCT的权重分量,B的元素
$ {B}_{h, w}^{i, j}=\mathrm{c}\mathrm{o}\mathrm{s}\left(\frac{\mathrm{\pi }h}{H}\left(i+\frac{1}{2}\right)\right)\mathrm{c}\mathrm{o}\mathrm{s}\left(\frac{\mathrm{\pi }w}{W}\left(j+\frac{1}{2}\right)\right) $ | (3) |
根据式(3),可以将二维DCT的逆变换重写为式(4):
$ \begin{array}{l}{x}_{i, j}^{2d}=\sum\limits _{h=0}^{H-1}\sum\limits _{w=0}^{W-1}{f}_{h, w}^{2d}\mathrm{c}\mathrm{o}\mathrm{s}\left(\frac{\mathrm{\pi }h}{H}\left(i+\frac{1}{2}\right)\right)\mathrm{c}\mathrm{o}\mathrm{s}\left(\frac{\mathrm{\pi }w}{W}\left(j+\frac{1}{2}\right)\right)=\\ {f}_{\mathrm{0, 0}}^{2d}{B}_{\mathrm{0, 0}}^{i, j}+{f}_{\mathrm{0, 1}}^{2d}{B}_{\mathrm{0, 1}}^{i, j}+\cdot \cdot \cdot +{f}_{H-1, W-1}^{2d}{B}_{H-1, W-1}^{i, j}\\ \mathrm{s}.\mathrm{t}.i\in \{\mathrm{0, 1}, \cdot \cdot \cdot , H-1\}, j\in \{\mathrm{0, 1}, \cdot \cdot \cdot , W-1\}\end{array} $ | (4) |
由式(4)可知,图像特征可表示为不同频率分量的组合。为了使用频谱表征所有特征信息,引入了MCA模块。
多光谱通道注意力模块的整体流程如图 3所示。
![]() |
Download:
|
图 3 多光谱通道注意力模块的整体流程 Fig. 3 Overall procedure of multi-spectral channel attention module |
从图 3可以看出,将输入X沿着通道维度划分为n部分,用
$ \begin{array}{l}\mathrm{F}\mathrm{r}\mathrm{e}\;{\boldsymbol{q}}^{i}=2\mathrm{D}\mathrm{D}\mathrm{C}{\mathrm{T}}^{u, v}\left({\boldsymbol{X}}^{i}\right)=\\ \sum\limits _{h=0}^{H-1}\sum\limits _{w=0}^{W-1}{\boldsymbol{X}}_{h, w}^{i}{B}_{h, w}^{u, v}, \mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{s}.\mathrm{t}.i\in \{\mathrm{0, 1}, \cdot \cdot \cdot , n-1\}\end{array} $ | (5) |
其中:
最后,将各部分的预处理向量合并起来:
$ \mathrm{F}\mathrm{r}\mathrm{e}\;\boldsymbol{q}=\mathrm{c}\mathrm{a}\mathrm{t}\left(\right[\mathrm{F}\mathrm{r}\mathrm{e}\;{\boldsymbol{q}}^{0}, \mathrm{F}\mathrm{r}\mathrm{e}\;{\boldsymbol{q}}^{0}, \cdot \cdot \cdot , \mathrm{F}\mathrm{r}\mathrm{e}\;{\boldsymbol{q}}^{n-1}\left]\right) $ | (6) |
其中:cat表示向量级联;
整个MCA模块可以定义为:
$ \mathrm{m}\mathrm{s}\_\mathrm{a}\mathrm{t}\mathrm{t}=\mathrm{s}\mathrm{i}\mathrm{g}\mathrm{m}\mathrm{o}\mathrm{i}\mathrm{d}\left(fc\right(\mathrm{F}\mathrm{r}\mathrm{e}\;\boldsymbol{q}\left)\right) $ | (7) |
对于尺寸为H×W的特征,利用2维DCT将其分解为H×W个频率分量,得到总的频率分量为C×H×W。由于测试所有组合的计算成本很高,因此通过2步准则来选择MCA模块中的频率分量。其主要思想是先逐个计算每个频率分量的结果,然后再根据所得结果筛选出Top-k个性能最佳的频率分量。
由于MCA模块可以将包含不同信息的频率分量合并到注意力处理中,从而提取出更多的特征信息,因此有效缓解了RetinaNet算法中存在的难以充分提取不同阶段特征的问题。
1.2 多尺度特征融合模块MFF模块是受路径聚合网络[12]和平衡特征金字塔[13]的启发而构建的,其包含1个具有自底向上路径的路径聚合模块和1个特征融合操作。
1.2.1 路径聚合模块图 4为多尺度特征融合模块的结构。如图 4路径聚合模块所示,在ResNet-FPN特征提取模块的后面连接具有自底向上路径的路径聚合模块。P3、P6、P7层特征图不经过任何操作,直接作为N3、N6、N7层特征图。以P4层的特征图为例,P4与经过2倍下采样的N3特征图根据元素相加,得到的特征图再经过3×3卷积后生成特征图N4,以此类推,生成特征图N5,最后生成5层通道数均为256的特征。N3、N4、N5、N6和N7则构成了具有自底向上路径的路径聚合模块。该模块通过扩充自底向上路径,在较低特征层上用精确的定位信号增强了整个特征金字塔的信息流。
![]() |
Download:
|
图 4 多尺度特征融合模块的结构 Fig. 4 Structure of multi-scale feature fusion module |
特征融合操作主要分为缩放整合、优化、加强特征这3个步骤,如图 4特征融合模块所示。具体操作如下:
步骤1 调整特征图尺寸并平均融合后的特征。现有
$ N=\frac{1}{L}\sum\limits _{l={l}_{\mathrm{m}\mathrm{i}\mathrm{n}}}^{{l}_{\mathrm{m}\mathrm{a}\mathrm{x}}}{N}_{l} $ | (8) |
其中:L表示特征层的层数;
步骤2 将平均后的特征图进一步优化,使特征图具有更强的辨别力,使用embedded Gaussian non-local模块[18]进行优化操作,该操作的定义如下:
$ \begin{array}{l}{M}_{i}=\frac{1}{C\left(N\right)}\sum\limits _{\forall j}f({N}_{i}, {N}_{j})g\left({N}_{j}\right)\\ C\left(N\right)=\sum\limits _{\forall j}f({N}_{i}, {N}_{j})\end{array} $ | (9) |
$ f({N}_{i}, {N}_{j})={\mathrm{e}}^{\theta \left({N}_{i}{)}^{T}\phi \right({N}_{j})} $ | (10) |
其中:M和N是尺寸相同的特征图;
步骤3 将优化后的特征分散成多层特征{M3,M4,M5,M6,M7},并与N3~N7特征相加融合,其中:M3特征是通过将优化后的特征进行上采样得到的;M4特征是直接输出得到的;M5、M6和M7特征是通过将优化后的特征进行下采样得到的。
上述过程是特征融合的3个步骤。通过添加路径聚合模块和特征融合操作,有效缓解了RetinaNet算法难以充分融合不同阶段特征的问题。
1.3 边界框回归和分类模块本文算法的边界框回归网络与分类网络使用的是RetinaNet算法的回归与分类网络。其中,边界框回归网络是附加在输出特征每一层的全卷积网络[19]。该网络使用4层通道数为256的3×3卷积,每层卷积接一个ReLU激活层,然后接1个通道数为36的3×3卷积层,最后的输出预测了锚框和目标框之间的相对偏移。
得到预测值和目标值后,便可以计算边界框回归损失,但RetinaNet算法的边界框回归损失函数存在2个问题:
1)如果目标框和预测框没有重叠,那么损失函数将不起作用;
2)如果两对预测框和目标框的大小均相同,而且这2对框的相交值也相同,那就不能确定这2对框是如何相交的。
针对上述问题,本文算法使用CIoU损失函数[14]替换了RetinaNet算法的边界框回归损失函数。CIoU损失函数根据边界框回归中的重叠面积、中心点距离和长宽比这3个因素,直接最小化预测框和目标框之间的归一化距离,以达到更快的收敛速度。同时,当预测框与目标框没有重叠,或者预测框与目标框有重叠甚至有包含关系时,该损失函数能使边界框回归更加准确。
交并比(Intersection over Union,IoU)的定义如式(11)所示:
$ {I}_{\mathrm{I}\mathrm{o}\mathrm{U}}=\frac{\left|B\bigcap {B}^{gt}\right|}{\left|B\bigcup {B}^{gt}\right|} $ | (11) |
其中:
![]() |
Download:
|
图 5 IoU的定义 Fig. 5 Definition of IOU |
因此,CIoU损失函数的定义如下:
$ {L}_{\mathrm{C}\mathrm{I}\mathrm{o}\mathrm{U}}=1-{I}_{\mathrm{I}\mathrm{o}\mathrm{U}}+\frac{{\rho }^{2}(b, {b}^{gt})}{{c}^{2}}+\alpha v $ | (12) |
其中:b和
$ \alpha =\frac{v}{(1-{I}_{\mathrm{I}\mathrm{o}\mathrm{U}})+v} $ | (13) |
$ v=\frac{4}{{\pi }^{2}}{\left(\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\frac{{w}^{gt}}{{h}^{gt}}-\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\frac{w}{h}\right)}^{2} $ | (14) |
参数c和d的示意图如图 6所示。
![]() |
Download:
|
图 6 参数c和d的示意图 Fig. 6 Schematic diagram of parameters c and d |
选用MS COCO[15]和PASCAL VOC[16]两大公共数据集。其中MS COCO数据集包含80个类别,其中用于训练的图片有118 287张,用于验证的图片有5 000张,用于测试的图片有20 000张。令本文算法在test-dev 2017数据集上进行实验,并与最新的目标检测算法相比较,然后使用val 2017数据集进行消融实验。实验结果使用平均精度(Average Precision,AP)指标进行表征,AP表示IoU从0.5开始,每隔0.05作为阈值,直到取到0.95得到的平均精度再进行平均的结果。例如
在COCO数据集中,先将输入图像的短边调整为800像素,然后使用随机梯度下降(Stochastic Gradient Descent,SGD)优化所有算法,权重衰减为1×10-4,batch size为4(2个GPU,每个GPU每训练一次选取2张图像)。学习率被初始化为0.002 5,共训练12个epoch,并分别在第8和第11个epoch时将学习率降低10倍。在VOC数据集中,将输入图像的短边调整为600像素,在第9个epoch时将学习率降低10倍,其他设置与COCO数据集相同。
本文实验在PyTorch 1.7深度学习框架[20]下进行,操作系统为Ubuntu 18.04,使用2个NVIDIA GeForce RTX GPU训练,显卡内存为11 GB。本文的基线算法Baseline即为RetinaNet算法,在超参数(如权重衰减、batch size、学习率、epoch等)设置均相同的情况下,对RetinaNet算法进行了重新实验,实验结果优于提出该算法的原始论文中的结果,本文的RetinaNet算法的实验结果与原始论文结果相比提高了超过1个百分点。
2.3 结果分析 2.3.1 对比实验与结果可视化本文在COCO test-dev 2017数据集和PASCAL VOC测试集上评估了本文所提改进型RetinaNet算法的性能。在COCO test-dev 2017数据集上,实验主要分为2个部分,将主干网络为ResNet-50和ResNet-101的改进型RetinaNet算法分别与其他主干网络为ResNet-50或ResNet-101的最新一阶段、两阶段目标检测算法进行比较,实验结果如表 2所示。由表 2可知,主干网络为ResNet-101的改进型RetinaNet算法的AP值为40.9%,与RetinaNet算法相比性能得到显著提高。在主干网络相同的条件下,改进型RetinaNet算法与表 2中的其他目标检测算法相比均达到了最佳结果。
![]() |
下载CSV 表 2 不同目标检测算法在COCO test-dev 2017数据集上的实验结果对比 Table 2 Comparison of experimental results of different object detection algorithms on COCO test-dev 2017 data set |
在PASCAL VOC测试集上,将改进型RetinaNet算法(主干网络为ResNet-50)的各个类别的精度与RetinaNet算法进行对比,结果如图 7所示。由图 7可知,RetinaNet算法的mPA为78.3%,改进型RetinaNet算法的mPA为79.4%,且改进型RetinaNet算法在大多数类别上的精度高于RetinaNet算法,只在少部分类别如bird、boat、bus、sofa上的类别精度较低于RetinaNet算法。其原因在于VOC训练集图片数量较少,随着网络层数的加深及参数量的增加,算法的训练效果稍低,且测试集中含有的小目标或重叠目标的图片不易被检测。
![]() |
Download:
|
图 7 不同算法在PASCAL VOC test 2007数据集上的结果对比 Fig. 7 Comparison of results of different algorithms on PASCAL VOC test 2007 data set |
从MS COCO数据集中随机选取一些图片进行可视化,本文选取2对具有代表性的检测结果进行对比,结果如图 8所示。图 8(a)为RetinaNet算法的可视化结果,图 8(b)为改进型RetinaNet算法(主干网络为ResNet-50)的可视化结果,由图 8可知,改进型RetinaNet算法的检测结果具有更高的准确率,检测的边框更加准确。
![]() |
Download:
|
图 8 改进前后的RetinaNet算法在COCO数据集上的可视化结果对比 Fig. 8 Comparison of visualization results of RetinaNet algorithm before and after improvement on the COCO data set |
本文所有消融实验均在COCO val 2017数据集上进行。实验结果均与基线算法Baseline进行对比,Baseline是主干网络为ResNet-50的RetinaNet算法。
1)MCA模块中频率分量数量的性能分析
分析不同数量的频率分量对RetinaNet算法的影响,也就是说在Baseline算法上加入具有不同频率分量的MCA模块。本文选择了性能最高的前k个频率分量,k分别为4、8、16、32。
由表 3可知,具有多光谱通道注意力的RetinaNet算法与基线算法相比,实验结果均存在明显差距,这验证了在通道注意力中使用多个频率分量的正确性。此外,由表 3还可以发现当频率分量的数量为8时,RetinaNet算法的AP值最大。
![]() |
下载CSV 表 3 不同数量的频率分量对RetinaNet算法的影响 Table 3 Influence of different number of frequency components on RetinaNet algorithm |
2)MFF模块中组成部分的性能分析
表 4是在RetinaNet算法上加入特征融合模块各个部分的对比结果,由表 4可知,路径聚合模块及特征融合操作分别验证了较低层特征的信息有用性、融合多层特征的有效性,将路径聚合模块与特征融合操作相结合可获得最佳性能。
![]() |
下载CSV 表 4 在RetinaNet算法上加入特征融合模块各个部分的对比结果 Table 4 The comparison results of each part of the feature fusion module added to the RetinaNet algorithm |
3)CIoU损失函数不同损失权重的性能分析
在Baseline上加入具有不同损失权重值的CIoU损失函数,分析不同的损失权重对RetinaNet算法的影响。损失权重值分别设置为1、2、3,实验结果如表 5所示。由表 5可知,CIoU损失函数有效改善了RetinaNet算法中存在的边界框回归问题。当CIoU的损失权重值设置为2时,网络可获得最佳性能。
![]() |
下载CSV 表 5 不同损失权重值对RetinaNet算法的影响 Table 5 Influence of different loss weight values on RetinaNet algorithm |
4)3个改进部分不同组合方式的比较
对MCA模块、MFF模块、CIoU损失函数3个改进部分以不同的方式进行组合,结果如表 6所示,其中“×”代表不添加,“√”表示添加。由表 6可知,在基线算法上单独加入1个模块,或者加入其中2个模块都不能达到最佳性能效果,因为每个模块的作用各不相同。对于目标检测算法整体而言,特征提取、特征融合和边界框回归都是很重要的部分,因此在改进目标检测算法时,不能只着眼于部分网络,而要分析整体网络所存在的问题,再针对这些问题进行解决和改进。因此,这3个改进部分的结合不仅改善了难以充分提取和融合多层特征的缺陷,而且缓解了边界框回归不准确问题,验证了该改进算法的有效性。如表 6所示,改进型RetinaNet算法在COCO val 2017数据集上的AP值比RetinaNet算法高出了2.4个百分点,性能得到显著提高。
![]() |
下载CSV 表 6 3个改进部分不同组合方式的对比实验结果 Table 6 Comparative experimental results of different combinations of three improved parts |
本文针对RetinaNet算法难以充分提取及融合不同阶段特征、边界框回归不准确等问题,提出一种改进型RetinaNet算法。在特征提取模块中引入多光谱通道注意力模块,将路径聚合模块与特征融合操作相结合以构成多尺度特征融合模块,并在边界框回归过程中引入CIoU损失函数。在MS COCO和PASCAL VOC两大公共数据集上的实验结果表明,与RetinaNet算法相比,改进型RetinaNet算法的检测性能得到了显著提高。但目前所提算法尚未应用到两阶段目标检测中,下一步将通过调整该算法的网络结构或具体参数,将本文算法应用到两阶段目标检测中的特征提取与融合部分、边界框回归部分,使两阶段目标检测算法在提高检测精度的同时保持检测速度,提高本文算法的适用性。
[1] |
LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 2999-3007.
|
[2] |
REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 6517-6525.
|
[3] |
ZHANG H K, CHANG H, MA B P, et al. Cascade RetinaNet: maintaining consistency for single-stage object detection[EB/OL]. [2021-06-10]. https://arxiv.org/abs/1907.06881.
|
[4] |
LI Y X, REN F B. Light-weight RetinaNet for object detection[EB/OL]. [2021-06-10]. https://arxiv.org/abs/1905.10011.
|
[5] |
SUN P Z, ZHANG R F, JIANG Y, et al. Sparse R-CNN: end-to-end object detection with learnable proposals[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2021: 14449-14458.
|
[6] |
吴华运, 任德均, 吕义钊, 等. 基于改进的RetinaNet医药空瓶表面气泡检测[J]. 四川大学学报(自然科学版), 2020, 57(6): 1090-1095. WU H Y, REN D J, LÜ Y Z, et al. Bubble detection on the surface of medical empty bottles based on improved RetinaNet[J]. Journal of Sichuan University (Natural Science Edition), 2020, 57(6): 1090-1095. (in Chinese) |
[7] |
闫建伟, 张乐伟, 赵源, 等. 改进RetinaNet的刺梨果实图像识别[J]. 中国农机化学报, 2021, 42(3): 78-83. YAN J W, ZHANG L W, ZHAO Y, et al. Image recognition of Rosa roxburghii fruit by improved RetinaNet[J]. Journal of Chinese Agricultural Mechanization, 2021, 42(3): 78-83. (in Chinese) |
[8] |
LIN T Y, DOLLÁR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 936-944.
|
[9] |
HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 770-778.
|
[10] |
QIN Z Q, ZHANG P Y, WU F, et al. FcaNet: frequency channel attention networks[EB/OL]. [2021-06-10]. https://arxiv.org/abs/2012.11879.
|
[11] |
RUSSAKOVSKY O, DENG J, SU H, et al. ImageNet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115(3): 211-252. |
[12] |
LIU S, QI L, QIN H F, et al. Path aggregation network for instance segmentation[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 8759-8768.
|
[13] |
PANG J M, CHEN K, SHI J P, et al. Libra R-CNN: towards balanced learning for object detection[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 821-830.
|
[14] |
ZHENG Z H, WANG P, LIU W, et al. Distance-IoU loss: faster and better learning for bounding box regression[EB/OL]. [2021-06-10]. https://arxiv.org/abs/1911.08287.
|
[15] |
LIN T Y, MAIRE M, BELONGIE S, et al. Microsoft COCO: common objects in context[C]//Proceedings of Conference on Computer Vision. Berlin, Germany: Springer, 2014: 740-755.
|
[16] |
EVERINGHAM M, GOOL L, WILLIAMS C K I, et al. The pascal visual object classes challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338. |
[17] |
AHMED N, NATARAJAN T, RAO K R. Discrete cosine transform[J]. IEEE Transactions on Computers, 1974, 23(1): 90-93. |
[18] |
WANG X L, GIRSHICK R, GUPTA A, et al. Non-local neural networks[EB/OL]. [2021-06-10]. https://arxiv.org/abs/1711.07971.
|
[19] |
LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2015: 3431-3440.
|
[20] |
PASZKE A, GROSS S, CHINTALA S, et al. Automatic differentiation in Pytorch[EB/OL]. [2021-06-10]. https://openreview.net/forum?id=BJJsrmfCZ.
|
[21] |
TIAN Z, SHEN C H, CHEN H, et al. FCOS: fully convolutional one-stage object detection[C]//Proceedings of IEEE/CVF International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2019: 9626-9635.
|
[22] |
GUO C X, FAN B, ZHANG Q, et al. AugFPN: improving multi-scale feature learning for object detection[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 12592-12601.
|
[23] |
CAO Y H, CHEN K, LOY C C, et al. Prime sample attention in object detection[C]//Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 11580-11588.
|
[24] |
REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. DOI:10.1109/TPAMI.2016.2577031 |
[25] |
HE K, GKIOXARI G, DOLLAR P, et al. Mask R-CNN[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 2980-2988.
|
[26] |
WANG T C, ANWER R M, CHOLAKKAL H, et al. Learning rich features at high-speed for single-shot object detection[C]//Proceedings of IEEE/CVF International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2019: 1971-1980.
|
[27] |
WANG S R, GONG Y C, XING J L, et al. RDSNet: a new deep architecture for reciprocal object detection and instance segmentation[EB/OL]. [2021-06-10]. https://arxiv.org/abs/1912.05070.
|
[28] |
WANG J Q, ZHANG W W, CAO Y H, et al. Side-aware boundary localization for more precise object detection[C]//Proceedings of Conference on Computer Vision. Berlin, Germany: Springer, 2020: 403-419.
|