«上一篇 下一篇»
  计算机工程  2021, Vol. 47 Issue (10): 290-297  DOI: 10.19678/j.issn.1000-3428.0059404
0

引用本文  

饶颖露, 邢金昊, 张恒, 等. 基于视觉的无人机板载自主实时精确着陆系统[J]. 计算机工程, 2021, 47(10), 290-297. DOI: 10.19678/j.issn.1000-3428.0059404.
RAO Yinlu, XING Jinhao, ZHANG Heng, et al. Vision-Based Autonomous Real-Time Precise Landing System for UAV-borne Processors[J]. Computer Engineering, 2021, 47(10), 290-297. DOI: 10.19678/j.issn.1000-3428.0059404.

基金项目

国家重点研发计划(2017YFB0404201)

通信作者

马思乐(通信作者), 教授、博士

作者简介

饶颖露(1996-), 女, 硕士研究生, 主研方向为图像处理、计算机视觉;
邢金昊, 硕士研究生;
张恒, 硕士研究生;
马晓静, 助理研究员、博士研究生

文章历史

收稿日期:2020-08-31
修回日期:2020-10-09
基于视觉的无人机板载自主实时精确着陆系统
饶颖露 , 邢金昊 , 张恒 , 马晓静 , 马思乐     
山东大学 海洋研究院, 山东 青岛 266237
摘要:传统视觉方案无法应对无人机降落过程中复杂的环境变化,难以实现在机载处理器上的实时图像处理。为此,提出一种适用于无人机板载端轻量高效的Onboard-YOLO算法,使用可分离卷积代替常规卷积核提升计算速度,通过注意力机制自动学习通道特征权重提高模型准确度。在运动模糊、遮挡、目标出视野、光照、尺度变化等5种干扰环境下进行降落测试,结果表明,Onboard-YOLO可以解决降落过程中的复杂环境问题,在板载端计算速度达到18.3 frame/s,相比于原始YOLO算法、Faster-RCNN算法分别提升了4.3倍、25.7倍,其算法平均准确度达到0.91,相比SSD-Mobilenet提高了8.9个百分点。经实际测试验证了该算法可实现无人机板载端的实时自主精准降落,达到95%以上的降落成功率。
关键词无人机    精准降落    深度学习    目标检测    注意力机制    
Vision-Based Autonomous Real-Time Precise Landing System for UAV-borne Processors
RAO Yinlu , XING Jinhao , ZHANG Heng , MA Xiaojing , MA Sile     
Institute of Marine Science and Technology, Shandong University, Qingdao, Shandong 266237, China
Abstract: Traditional vision-based landing schemes cannot cope with the complicated environmental changes during landing of Unmanned Aerial Vehicles(UAV), and thus fail to process images in real time using UAV-borne processors.To address the problem, a lightweight and efficient Onboard-YOLO algorithm is proposed for UAV-borne processors.The algorithm employs separable convolution instead of conventional convolution kernels to improve the calculation speed.Then the attention mechanism is used for the automatic learning of channel feature weights to improve the accuracy of the model.The landing algorithm is tested in various cases of interference, including motion blur, occlusion, target going beyond the visual field, illumination and scale changes.The test results show that compared with the advanced real-time detection algorithms, the proposed Onboard-YOLO algorithm can deal with the complicated environmental changes better during landing.Its calculation speed reaches 18.3 frames per second on the airborne processor, which is 4.3 times faster than that of the original YOLO algorithm, and 25.7 times faster than that of Faster-RCNN.Additionally, the accuracy of the algorithm reaches 0.91, which is 8.9 percentage points higher than that of Mobilenet-SSD.Onboard-YOLO enables autonomous real-time precise landing based on the airborne processor, bringing the success rate of landing to 95%.
Key words: Unmanned Aerial Vehicles(UAV)    precise landing    deep learning    target detection    attention mechanism    

开放科学(资源服务)标志码(OSID):

0 概述

随着无人机行业的发展,无人机应用产生了越来越多的新需求,例如快递自动定点投送物品、自动定点检查输电线路异常等。这些需求对无人机自动精准降落技术提出了新的挑战。无人机自动精准降落是飞行任务中最关键的阶段之一,实现无人机精确着陆对完成飞行任务、保障飞行安全具有重要意义。

无人机自主精确着陆主要有2种方法:视觉处理着陆和卫星导航着陆[1-3]。卫星导航着陆适合长时间飞行任务但其容易受环境影响,且精度较低,需要多种复杂传感器配合[4]。此外,卫星导航在GPS/GNSS拒绝区域系统下将无法工作,因此该应用一般情况下适合作为二次支撑。

无人机视觉引导降落只需要搭载摄像头这一单一传感器作业,易于与多种无人机系统集成,结合图像算法可以实现高精度实时降落。无人机视觉自主精准降落中常用的检测方法[5-7]有图像匹配法[8]、轮廓检测法[9]、滤波算法[10-11]等。李会敏等[12]采用双目视觉探测无人机特征点并进行特征立体匹配以计算无人机位置,该方法实时性好,但仅能在仿真环境下使用,实际使用时还需要考虑复杂环境下无人机降落的匹配效果。高嘉瑜等[13]采用AprilTag二维码引导无人机着陆搭建虚拟场景仿真,该方法参数误差低,但容易受到环境变化的影响。洪亮等[14]采用模糊预测同步视觉预测数据,提高卡尔曼滤波对无人机位姿估计的实时性,速度快但精度较低。以上传统的图像处理算法性能受成像环境的影响很大,很难正确提取所需目标,在面对光照变换、尺度变换、遮挡、复杂背景等环境变换问题时,算法性能会显著下降,难以满足无人机自主精准降落的实际需求。因此,考虑将适用性更好、泛化能力更强的深度学习方法引入到无人机视觉自主精准降落的过程中,进一步提高速度,解决环境干扰问题。

目标检测是计算机视觉的基本问题之一。当前主流的检测方法主要分为2种:一种是以Faster-RCNN[15-16]为代表的Two-stage方法,首先提取候选区域,然后对候选区域进行分类检测,这种方法精度较高但由于需要进行候选区域的提取检测,因而检测速度较慢;另一种是以YOLO[17-18]、SSD[19]为代表的One-stage方法,该类方法检测速度较高,但精度较低,通过采用卷积神经网络实现特征提取、目标分类与回归。

无人机的自主精准降落算法需要移植到无人机板载平台运行,但由于板载平台的计算能力和内存资源有限,当把图像算法模型应用于嵌入式平台时,目标检测速度会明显下降。此外,降落过程中容易受到风力等外界因素干扰,因此要求模型检测速度快,能够实时更新降落坐标。传统图像处理方法泛化能力差,难以应对降落过程中各种环境干扰。

针对上述问题,本文通过改进YOLOV3网络,引入可分离卷积和注意力机制,将深度学习引入无人机自主精准降落,设计一种针对无人机板载系统的轻量化深度学习目标检测模型Onboard-YOLO,并对其性能进行评估实验,以实现无人机板载端实时准确的自主精准降落,应对降落过程中的复杂环境变化问题。

1 Onboard-YOLO模型原理

YOLOV3网络结构由特征提取网络DarkNet53和多尺度分类回归网络组成,Onboard-YOLO是基于YOLOV3网络提出的适用于无人机板载处理器的轻量级高精度实时检测网络。YOLOV3采用的DarkNet53特征提取网络参数量较大,不适用于板载处理器,因此需要对特征提取网络进行改进。

简化特征提取网络可以有效地提高检测速度,但也会带来无法提取高层次语义特征的问题,使检测精度无法满足实际需求。因此,本文主要对特征提取网络和多尺度回归网络进行改进。

Tiny-YOLOV3[17]是YOLOV3的简化版本,其特征提取网络结构非常简单,只有2个尺度,7个卷积层和6个池化层,虽然有效提高了计算速度,但难以实现高精度的目标检测。但是,可以参考Tiny-YOLOV3的设计思路,将YOLOV3的3个尺度简化为2个尺度,一方面可以保证语义信息和分辨率信息的有效提取,另一方面也可以提高检测速度。

此外,采用MobileNets[20]代替YOLOV3的骨干网络,可提高骨干网络特征提取能力,采用可分离卷积可有效减少参数数量和计算复杂度。深度可分离卷积将传统卷积分成了深度卷积和点对点卷积,如图 1所示。

Download:
图 1 可分离卷积模型 Fig. 1 Separable convolution model

假设输入图片尺寸是$ {D}_{F}\mathrm{*}{D}_{F}\mathrm{*}M $,标准卷积尺寸是$ {D}_{K}\mathrm{*}{D}_{K}\mathrm{*}M\mathrm{*}N $M是通道数,N是卷积核数。当采用标准卷积核时,输出尺寸是$ {D}_{F}\mathrm{*}{D}_{F}\mathrm{*}N $。计算量是$ {D}_{K}\mathrm{*}{D}_{K}\mathrm{*}M\mathrm{*}N\mathrm{*}{D}_{F}\mathrm{*}{D}_{F} $。采用可分离卷积后为$ {D}_{K}\mathrm{*}{D}_{K}\mathrm{*}M\mathrm{*}{D}_{F}\mathrm{*}{D}_{F}+M\mathrm{*}N\mathrm{*}{D}_{F}\mathrm{*}{D}_{F} $,可分离卷积和传统卷积的计算量对比如式(1)所示:

$ \frac{{D}_{K}\mathrm{*}{D}_{K}\mathrm{*}M\mathrm{*}{D}_{F}\mathrm{*}{D}_{F}+M\mathrm{*}N\mathrm{*}{D}_{F}\mathrm{*}{D}_{F}}{{D}_{K}\mathrm{*}{D}_{K}\mathrm{*}M\mathrm{*}N\mathrm{*}{D}_{F}\mathrm{*}{D}_{F}}=\frac{1}{N}+\frac{1}{{D}_{K}^{2}} $ (1)

在执行深度卷积时,每个卷积内核仅关注单个通道信息,而在逐点卷积中,每个卷积内核可以组合来自多个通道的信息,使用深度可分离卷积代替传统卷积可以有效地减少计算量并优化模型大小。另一方面,它可以确保模型的深度增加并且减小复杂度,从而有效地平衡精度和操作速度。

通过SE-Block[21]引入注意力机制使其能自动学习每个通道特征的权重,该模块的核心思想是学习特征权重,增加有效特征权重,从而增强网络的特征提取能力,并在需要较少额外计算成本的情况下,显著改善网络结构的性能。注意力机制模型基本结构如图 2所示。

Download:
图 2 注意力机制模型 Fig. 2 Attention mechanism model

SE-Block首先通过标准卷积将$ X\in {\mathbb{R}}^{{}_{H\mathrm{\text{'}}\times W\mathrm{\text{'}}\times C\mathrm{\text{'}}}} $转为$ U\in {\mathbb{R}}^{{}_{H\times W\times C}} $。然后通过压缩、权重激活、权重分配得到学习后的网络。压缩操作Fsq压缩全局空间信息以获得单个通道描述符,使用全局平均池化生成每个通道的统计信息$ {Z}_{\mathit{c}} $。全局平均池化通过压缩空间特征图得以实现,计算公式如式(2)所示:

$ {Z}_{c}={F}_{\bf{s}\bf{q}}\left({U}_{c}\right)=\frac{1}{H\times W}\sum \limits_{\mathit{i}=1}^{\mathit{H}}\sum \limits_{\mathit{j}=1}^{\mathit{W}}{U}_{c}(i, j) $ (2)

其中:$ H\times W $描述输入特征的大小;$ {U}_{c}(i, j) $表示相应特征图中相应位置的特征值。激活操作主要通过2个全连接层完成。第1层实现特征图的压缩并减少计算量。将ReLU层添加到2个全连接层中,使通道之间的非线性关系得以学习。第2个全连接层将特征图恢复到原始通道数,并通过Sigmoid函数进行归一化以获得最终特征图重要性描述因子S。计算公式如式(3)所示:

$ S=\sigma \left({W}_{2}\delta \right({W}_{1}\left)Z\right) $ (3)

其中:$ \delta $表示激活函数ReLU,确保输出为正;W1W2是2个全连接层,权重分配是指通过乘法将S逐个权重进入特征通道,以完成原始特征的权重分配。计算公式如(4)所示:

$ \tilde{X}={F}_{\mathrm{s}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{e}}({U}_{c}, {S}_{c})={S}_{c}{U}_{c} $ (4)

其中:Uc代表信道的特性;Sc代表相应信道的权重值,两者相乘即可完成特征的权重分配。Onboard-YOLO的整体结构如图 3所示。输入图像的大小调整为672像素$ \times $672像素。SE块由以下5层组成:池化层,全连接层,ReLU层,全连接层和Sigmoid层,每次可分离卷积后进行SE块连接。X1X2是SE-MobileNets的2个输出尺度特征图。X1是大小为42$ \times $42的第11个深度可分离卷积的输出。X2是大小为21$ \times $21的第13个深度可分离卷积的输出。X1X2是多尺度网络的输入。输出预测Y1为21$ \times $21$ \times $27,同时,输出预测Y2为42$ \times $42$ \times $27,并且分别在Y1Y2比例尺的融合特征图上进行预测。

Download:
图 3 Onboard-YOLO结构 Fig. 3 Onboard-YOLO structure
2 系统设计和实验结果分析

无人机自主精准降落板载系统可以分为图像处理模块和控制模块。图像处理模块工作流程由图像获取和目标检测组成:通过摄像头连续获取分辨率为1 080像素$ \times $720像素的降落区域图片,图像通过预处理操作后输入检测单元。将检测到的坐标作为控制信息通过串口传输给控制模块,控制模块控制无人机降落到指定位置。

板载端硬件如图 4所示,由无人机、GPS、板载摄像头、板载处理器、远程遥控器等组成。无人机型号选择大疆经纬Matrice100,Matrice100拥有灵活可靠的特性,适合二次开发。搭载智能嵌入式平台NVIDIA Jetson TX2构成板载系统,采用256核NVIDIA Pascal架构和8 GB内存,计算速度快、推理能力强、性能强大、外形小巧、节能高效,适合机器人、无人机等智能终端设备。飞控部分控制器选择STM32F407,连接板载处理器和飞控部分。

Download:
图 4 板载端硬件组成 Fig. 4 Hardware composition of onboard end
2.1 实验数据集和模型训练

降落标志设计如图 5所示,本文设计了4种不同的降落标志,标志底轮廓为圆形,采用不同颜色组合进行区分,这样的颜色组合有利于区别标志与地面背景,避免网络误检,标志中心采用三重黑白正方形轮廓。标志结合了颜色特征和形状特征这2种主流的标志检测特征,便于网络的检测。

Download:
图 5 降落标志样图 Fig. 5 Sample drawing of landing sign

数据集由DJI经纬Matrice100无人机在不同时间段分别在操场、图书馆、教学楼、室内等7个不同场景下拍摄。在数据集采集过程中加入降落过程中的5种不同的环境变化:动态模糊,遮挡,目标出视野,光照变化及尺寸变换。最后对采集好的图片进行以下操作进行数据扩增:使用翻转矩阵分别将图片进行左右、上下翻转,对图片进行不同尺度的仿射变换,对图片进行高斯模糊以进一步提高网络泛化能力。数据集一共有23 550张图片,每类标志基本保持均匀分布。

由于板载端算力有限,模型训练在电脑端进行,模型测试在板载端进行。电脑端实验模型搭建基于keras开发框架,实验平台配置为Intel® CoreTM i9-9900K CPU @3.6 GHz,运行内存为16 GB,8 GB Titan XP GPU,系统为Ubuntu 16.04。训练参数设置如下:初始学习率为0.001,权重衰减系数为0.000 5,采用动量为0.9的动量梯度下降算法。由于数据集较大,为了保障最合适的内存利用率和训练效果,批尺寸参数(Batch Size)选择为32,学习率采用自适应调节策略,当验证集损失经过连续3个全数据集(Epoch)没有下降时,按10 %比例下调学习率,当验证集损失经过连续10个全数据集(Epoch)都没有下降时,采用早停法(Early-stoping)防止过拟合停止训练,最终训练至损失函数收敛为1以内。

2.2 性能评估

为了说明Onboard-YOLO的改进效果,首先对测试集进行4种标志的检测效果评估,评估标准采用PR曲线。PR曲线是以精准率(precision)和召回率(recall)这2个为变量做出的曲线。分类标记为是或否,可以得到4个值:把正例正确地分类为正例,表示为TP(True Positive),把正例错误地分类为负例,表示为FN(False Negative),把负例正确地分类为负例,表示为TN(True Negative),把负例错误地分类为正例,表示为FP(False Positive)。从这4个值可以得出精准率与召回率,如式(5)和式(6)所示:

$ {P}_{\mathrm{p}\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{i}\mathrm{s}\mathrm{i}\mathrm{o}\mathrm{n}}=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{T}_{\mathrm{F}\mathrm{P}}} $ (5)
$ {R}_{\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}}=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{T}_{\mathrm{F}\mathrm{N}}} $ (6)

一条PR曲线对应一个阈值,选择阈值为50%对样本进行划分,交并比大于50%被认为是正例,小于50%是负例,以此计算相应的精准率和召回率。这里IOU采用PASCAL VOC的阈值0.5。mAP的计算公式如下:

$ \mathrm{m}\mathrm{A}\mathrm{P}=\frac{1}{\left|{Q}_{R}\right|}\sum\limits _{q\in {Q}_{R}}\left({\int }_{0}^{1}{P}_{\mathrm{P}\mathrm{R}}\mathrm{d}r\right)\left(q\right) $ (7)

图 6是4种降落标志的PR曲线图,PR曲线覆盖的面积代表模型性能。红色曲线代表简化后的YOLO模型Tiny-YOLOV3性能,绿色曲线代表简化模型加上可分离卷积之后的性能,蓝色曲线代表简化模型加入注意力机制和可分离卷积之后的效果(彩色效果见《计算机工程》官网HTML版)。从图 6中可以看出,红色曲线的性能远远低于绿色和蓝色,这说明仅仅对YOLO进行模型简化来提升速度,模型的性能会显著下降。经过计算可以得到Tiny-YOLOV3模型的mAP值为0.690,在板载处理器TX2上处理速度为18.1 frame/s,模型大小为34.8 MB。

Download:
图 6 PR性能对比曲线 Fig. 6 PR-Performance comparison curve

绿色曲线为加入了MobileNets以后的模型效果,此时mAP值计算为0.865,可以看出将Tiny-YOLO的backbone替换为MobileNets,采用可分离卷积之后模型准确率显著上升25.4%,且参数量减少为18.3 MB,速度提升为18.6 frame/s。蓝色曲线为加入了注意力机制以后的Onboard-YOLO,蓝色曲线的面积大于绿色,说明Onboard-YOLO在4种标志上都能够达到比较好的检测准确度。Onboard-YOLO加入注意力机制后,准确度进一步提升了5.2%,此时mAP为0.910。由于加入了SE模块,模型运算时间增加,速度下降了1.6%,能够在TX2上达到18.3 frame/s的速度;模型大小增加了9.8%,为20.1 MB,能够满足无人自主精准降落的要求。

为了检测Onboard-YOLO的性能,本文进一步将其与行业领先的检测算法进行对比,在建立的无人机降落数据库上检测,性能指标采用平均准确率(mAP)、速度和模型尺寸3个指标。从表 1可知,和YOLOV3相比,Onboard-YOLO计算速度显著上升,尤其是在板载处理器上,帧率增加了4.3倍,但平均准确率非常接近,均能达到0.91以上的准确率。同时,比较了Onboard-YOLO和两阶段领域领先的检测算法Faster-RCNN,从表 1中可以看出Onboard-YOLO仅仅降低了2.7%的准确率,速度却增加了25.7倍,同时模型大小下降了96.2%。进一步将Onboard-YOLO与常用的轻量级检测模型MobileNets-SSD进行比较,发现Onboard-YOLO准确率提升了8.9%、速度提升了2.5倍。从以上数据分析可知道,Onboard-YOLO能够很好地平衡准确率和速度,非常适用于板载系统无人机自主精准降落研究。

下载CSV 表 1 检测模型性能对比 Table 1 Performance comparison of detection model

表 1中实时轻量级算法(帧率≥5 frame/s)Onboard-YOLO、Tiny-YOLO及MobileNets-SSD分别在以下5种环境中进行测试,图 7是测试结果,最左侧为实际测试图片,其余3列为局部图像放大效果。图 7(a)为无人机降落过程中受气流影响的标志运动模糊下的检测情况,图 7(b)为人为对标志进行遮挡时的检测情况,图 7(c)为无人机降落过程中标志超出无人机视野的检测情况,图 7(d)为标志在不同光照条件下的检测情况,图 7(e)为无人机降落过程中标志尺度变化的检测情况。蓝色为标定框,绿色为检测框,红色为误检(彩色效果见《计算机工程》官网HTML版),可以看出在复杂环境变化下Onboard-YOLO的检测框更加接近真实框大小,检测更为准确。

Download:
图 7 降落测试结果 Fig. 7 Landing test results

MobileNets-SSD在部分场景如遮挡和目标出视野时容易出现漏检情况,Tiny-YOLOV3的整体检测性能都难以满足实际需求。因此,Onboard-YOLO可以平衡好速度和精度,满足无人机自主精准降落需求。

2.3 实际降落测试

为了测试算法在实际环境中的性能效果,搭建室内外测试环境,进行实际测试实验。降落流程如图 8所示,实验采用DJI M100四旋翼无人机,无人机收到起飞指令后,首先由GPS进行粗定位飞行到达指定降落地点,从距离地面5 m的高度开启自主精准降落,进行缓慢的飞行移动,并搜寻视野中的降落标志。无人机云台将含有降落标志的图像传送给板载处理器,处理器通过Onboard-YOLO计算出无人机云台视野中心和降落标志中心相对位置,处理器将位置信息传送给飞控单元调整无人机位置。记录秒内无人机水平飞行的位置信息序列,当序列趋近于收敛并稳定在降落标志中心(位置差阈值设定为10 cm以内)时,降低飞行高度直到落地,关闭电机完成无人机自主精准降落。在相同的硬件环境下分别进行室内外自主降落实验,每种算法分别开展20次实验,并将降落评价指标选定为平均降落时间(Average Landing Time,ALT)、平均降落精度(Average Landing Precision,ALP)、降落成功率(Landing Rate,LR),其中ALP指云台视野中心与降落目标中心欧氏距离。从表 2可以看出,在室外实验时由于风速较大,Faster-RCNN、YOLOv3、MobileNets-SSD算法帧率过低,容易导致无人机定位频率不足,致使降落时间过长,甚至出现降落位置偏移,最终导致降落失败,LR较低。Tiny-YOLOv3虽然帧率较高,但检测准确度低,因此也容易出现降落失败的情况,LR较低。此外,由于模型检测准确性较低,ALP值也比较低。Onboard-YOLO帧率较高,识别准确率高,抗环境变化能力强,在降落时间、降落精度和降落成功率3个指标上都要优于其他4种算法,平均自主精准降落成功率可以达到95%以上,平均降落精度可以达到5.55 cm,但本文算法在室外风力大(大于10 m/s)的情况下同样会降落失败。

Download:
图 8 无人机降落流程 Fig. 8 Unmaud aerial vehicke landing process
下载CSV 表 2 实际飞行验证 Table 2 Actual flight verification
3 结束语

本文将深度学习引入无人机自主精准降落,通过加入可分离卷积和注意力机制,提出一种适用于无人机板载处理器的轻量级高精度检测模型Onboard-YOLO。实验结果表明,该模型在TX2上能够达到18.3 frame/s的实时处理速度和0.91的准确率。实验结果表明,该方法能够成功解决降落过程中出现的包括目标尺度变换、运动模糊、遮挡、目标出视野等复杂环境问题,超越目前行业领先标准,实现无人机在板载处理器上95%以上的实时精准自主降落。

参考文献
[1]
XU X M, HE C L, H D Q, et al. Autonomous positioning technology for micro-UAV based on multi-point constraints[J]. Electro-Optics and Control, 2019, 26(5): 53-58. (in Chinese)
徐喜梅, 何成龙, 黄大庆, 等. 基于多点约束的微小型无人机自主定位技术[J]. 电光与控制, 2019, 26(5): 53-58.
[2]
WANG F, LIU P, ZHAO S, et al. Development of an unmanned helicopter for vertical replenishment[J]. Unmanned Systems, 2015, 3(1): 63-87. DOI:10.1142/S2301385015500053
[3]
JIANG X D, YU J Y, ZHU L K. Research on integrated navigation technology based on position sensitive detectors[J]. Laser Technology, 2019, 43(3): 49-54. (in Chinese)
蒋晓东, 于纪言, 朱立坤. 基于位置敏感探测器的组合导航技术研究[J]. 激光技术, 2019, 43(3): 49-54.
[4]
WANG G L, WANG Q, LUO J W, et al. Positioning design of plant protection drone based on Beidou navigation[J]. Intelligent Computers and Applications, 2017, 7(5): 46-49. (in Chinese)
王高亮, 王强, 罗嘉伟, 等. 基于北斗导航的植保无人机定位设计[J]. 智能计算机与应用, 2017, 7(5): 46-49.
[5]
CHEN C. Design of integrated navigation information fusion scheme for UAV approach stage[J]. Electro-Optics and Control, 2020, 27(2): 79-84. (in Chinese)
陈超. UAV进近阶段组合导航信息融合方案设计[J]. 电光与控制, 2020, 27(2): 79-84.
[6]
GUI Y, GUO P Y, ZHANG H L, et al. Airborne vision-based navigation method for UAV accuracy landing using infrared lamps[J]. Journal of Intelligent & Robotic Systems, 2013, 72: 197-218.
[7]
KONG W, ZHANG D, WANG X, et al. Autonomous landing of an UAV with a ground-based actuated infrared stereo vision system[C]//Proceedings of International Conference on Intelligent Robots & Systems. Washington D.C., USA: IEEE Press, 2013: 234-245.
[8]
LEE H, JUNG S, SHIM D H. Vision-based UAV landing on the moving vehicle[C]//Proceedings of International Conference on Unmanned Aircraft Systems. Washington D.C., USA: IEEE Press, 2016: 201-212.
[9]
ZHANG Y L, WANG Y Z, HAN Z. UAV landing method based on FastSLAM algorithm[J]. ElectroOptics & Control, 2017(9): 83-87. (in Chinese)
张烨林, 王养柱, 韩震. 基于FastSLAM算法的无人机着陆方法[J]. 电光与控制, 2017(9): 83-87.
[10]
CHEN C, WANG X G, QIN W T, et al. Relative navigation method for UAV landing based on robust filtering[J]. Journal of Chinese Inertial Technology, 2017(3): 54-57. (in Chinese)
陈诚, 王小刚, 秦武韬, 等. 基于鲁棒滤波的无人机着陆相对导航方法[J]. 中国惯性技术学报, 2017(3): 54-57.
[11]
LI J, CONG L, JIANG H, et al. Image denoising algorithm in UAV line tracking system based on matrix restoration[EB/OL]. [2020-07-03]. http://cpfd.cnki.com.cn/Article/CPFDTOTAL-YDDX201910001047.htm. (in Chinese)
李佳, 丛犁, 姜华, 等. 基于矩阵恢复的无人机巡线系统中图像去噪算法[EB/OL]. [2020-07-03]. http://cpfd.cnki.com.cn/Article/CPFDTOTAL-YDDX201910001047.htm.
[12]
LI H M, YANG J, XIANG W H, et al. Design of semi-physical simulation system for automatic UAV landing[J]. Journal of System Simulation, 2014, 26(10): 2355-2359. (in Chinese)
李会敏, 杨军, 向文豪, 等. 无人机自动着舰半实物仿真系统设计[J]. 系统仿真学报, 2014, 26(10): 2355-2359.
[13]
GAO J Y, YUAN S Z, JING X, et al. UAV landing guidance method based on AprilTag QR code[J]. Modern Navigation, 2020, 11(1): 20-25. (in Chinese)
高嘉瑜, 袁苏哲, 景鑫, 等. 基于AprilTag二维码的无人机着陆引导方法[J]. 现代导航, 2020, 11(1): 20-25.
[14]
HONG L, ZHANG Z, LI Y G, et al. INS/Vision UAV autonomous landing navigation algorithm based on fuzzy prediction[J]. Journal of Sensor Technology, 2019, 32(12): 1849-1855. (in Chinese)
洪亮, 章政, 李亚贵, 等. 基于模糊预测的INS/视觉无人机自主着陆导航算法[J]. 传感技术学报, 2019, 32(12): 1849-1855.
[15]
GIRSHICK R. Fast R-CNN[EB/OL]. [2020-07-21]. https://ui.adsabs.harvard.edu/abs/2015arXiv150408083G.
[16]
REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.
[17]
REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. [2020-07-03]. https://www.researchgate.net/publication/324387691_YOLOv3_An_Incremental_Improvement.
[18]
BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. [2020-07-10]. https://www.researchgate.net/publication/340883401_YOLOv4_Optimal_Speed_and_Accuracy_of_Object_Detection.
[19]
LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 1121-1132.
[20]
HOWARD A G, ZHU M, CHEN B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications[EB/OL]. [2020-07-03]. https://arxiv.org/abs/1704.04861.
[21]
HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[EB/OL]. [2020-07-03]. https://arxiv.org/abs/1709.01507.