2. 成都华日通讯技术有限公司, 成都 610045
2. Chengdu Huari Communication Technology Co., Ltd., Chengdu 610045, China
随着信息化建设的不断深入, 我国无线电技术飞速发展, 无线电台和无线电站的数量急剧增长, 导致电磁环境日益复杂, 频谱资源逐渐匮乏。当不同的无线电信号频段划分相近时, 容易发生同频干扰, 影响通信性能。对于广播信号, 除其他无线电信号的干扰外, 许多非法电台也会占用广播频段来发射大功率无线电信号, 影响合法广播信号的接收。因此, 及时检测出信号中是否存在同频干扰具有重要意义。
无线电领域对于干扰信号的检测方法较多。较为传统的是基于信号统计与估计判决理论的方法。文献[1]分析信号在分数阶傅里叶变换域的峰值特征, 并采用序贯判决算法检测信号中是否含有干扰。文献[2]提出一种基于前向连接均值消除的盲频谱感知算法, 以检测电力线通信系统中的广播信号。文献[3]通过分析广播波段的光谱数据来检测异常信号, 此类方法对于检测人员的理论知识要求较高且算法较为复杂。
随着人工智能技术的不断发展, 机器学习在无线电信号检测领域的优势也逐渐凸显。文献[4]利用一种压缩采样和K-means技术相结合的方法来检测异常信号。文献[5-7]通过构建信号特征集合, 利用支持向量机(Support Vector Machine, SVM)对干扰信号进行检测和分类。文献[8]利用基于启发式采样搜索的半监督SVM来识别电子对抗环境中的雷达信号。虽然该方法无需构建数学模型, 但其需要人工统计和提取信号的参数特征, 耗费人力的同时也存在一定误差。
近年来, 深度学习在图像识别、语音识别和自然语言处理等领域展现出巨大优势, 尤其是在图像识别领域, 出现很多经典的网络模型, 如AlexNet[9]、VGGNet[10]、GoogLeNet[11]、ResNet[12]等。在2017年ImageNet大规模视觉识别挑战赛(ILSVRC)上, 图像分类识别错分率已降至2.25%左右[13], 远低于人眼识别的错分率5.1%。文献[14]采集不同调制信号的星座图数据, 应用AlexNet模型分类调制信号。文献[15]利用信号的循环谱特性, 通过深度自编码网络识别调制信号。相对于SVM等传统机器学习算法, 深度学习算法能自动提取数据特征, 并且具有更强大的特征表达能力和迁移能力。
本文将无线电同频干扰检测与深度学习相结合, 把传统的人工提取信号统计特征和经验判断, 转化为利用深度学习中的卷积神经网络(Convolutional Neural Network, CNN)进行图像识别。将采集到的调频广播数据转换为能体现其特性的时频图, 作为CNN的训练数据。根据模型学习到的信号时频图特征对干扰信号进行检测, 从而在调频广播信号中检测出同频干扰。
1 无线电广播同频干扰检测算法 1.1 信号时频图对信号进行傅里叶变换是信号分析处理领域最常用的手段之一, 但对于时变非平稳信号而言, 单纯的傅里叶变换并不能体现其频率变化和时间之间的关系。由于本文所用的广播信号是典型的非平稳信号, 因此需要对信号进行时频分析, 得出其时频特性图, 再进行下一步实验。
为得到时变非平稳信号的时频图, 可对信号进行短时傅里叶变换或小波变换。短时傅里叶变换利用加窗的思想, 将信号分割成等长的小信号, 每个小信号近似看成平稳信号, 再对其进行傅里叶变换, 得出其频率和时间的关系。短时傅里叶变换的定义式如下:
| $ STFT(t, f) = \int_{ - \infty }^\infty x (\tau )\omega (t - \tau ){{\rm{e}}^{ - {\rm{i}}2{\rm{ \mathsf{ π} }}ft}}{\rm{d}}\tau $ | (1) |
其中, x(t)为需转换的信号, ω(t)为窗函数。
然而, 短时傅里叶变换存在一个问题:当窗函数确定时, 其加窗的大小随之固定, 而对于时变非平稳信号来讲, 高频部分和低频部分却适合用不同大小的窗口。因此, 短时傅里叶变换并不能满足非平稳信号的需求。
对信号进行小波变换是得到信号时频图的另一种方法, 该方法继承了短时傅里叶变换局部化的思想, 同时改善了其窗口固定无法兼容频率和时间分辨率的问题。小波变换定义式如下:
| $ WT(\alpha , \tau ) = \frac{1}{{\sqrt \alpha }}\int_{ - \infty }^\infty f (t)\psi \left( {\frac{{t - \tau }}{\alpha }} \right){\rm{d}}t $ | (2) |
其中, F(t)为需转换的时频信号,
小波变换中基函数的种类有很多, 如Haar小波、Meyer小波、Morlet小波、复Morlet小波等。其中, 复Morlet小波是一种单频复正弦调制高斯波, 其在时域和频域均具有良好的分辨率, 是最常用的复值小波之一, 本文也选用该小波来进行小波变换。Matlab中复Morlet小波的定义式如下:
| $ {cmor}(x) = {({\rm{ \mathsf{ π} }} \times Fb)^{ - 0.5}}{{\rm{e}}^{2{\rm{ \mathsf{ π} i}}xFc}}{{\rm{e}}^{ - \frac{{{x^2}}}{{Fb}}}} $ | (3) |
其中, Fb和Fc分别为复Morlet小波的带宽和中心频率。由式(3)可知, 不同的中心频率和带宽会得到不同的复Morlet小波, 适用于不同的信号分析。根据本文信号的特点, 本文使用中心频率为9 Hz、带宽为15 Hz的复Morlet小波作为基函数。
1.2 卷积神经网络设计CNN最主要的部分为卷积层和池化层。卷积层一般由多个不同的卷积核构成, 不同的卷积核与上一层的输出特征图做卷积运算即可提取新的特征图。第l层卷积层的计算公式如下:
| $ y_j^{(l)} = f\left( {\sum\limits_{i \in {M_j}} {x_i^{(l - 1)}} \otimes {K_{ij}} + b_j^{(l)}} \right) $ | (4) |
其中, xj(l-1)为前一层输出特征图, Kij为卷积核, Mj为卷积核的感受野, bj为所加偏置值, f(·)为激活函数。本文使用修正线性单元ReLU作为激活函数。池化层一般位于2个卷积层之间, 常用的池化方式有最大池化和均值池化, 主要用于降低特征图维度, 减少模型参数。卷积层和池化层的具体计算过程如图 1所示。
|
Download:
|
| 图 1 卷积池化计算过程 | |
由图 1可知, 用卷积核K与输入图像做卷积运算之后加上偏置bx即可得到特征图Cx。然后进行池化操作, Wx+1为加权权重, 再加上偏置bx+1, 通过激活函数得到该层特征图。
本文卷积神经网络结构如图 2所示, 其中C代表卷积层, P代表最大层。
|
Download:
|
| 图 2 本文卷积神经网络结构 | |
本文CNN共含7个卷积层和4个最大池化层, 具体参数如表 1所示。随着网络的不断加深, 卷积层的通道数由最开始的32通道逐渐加深为256通道, 以便提取更高维度的特征, 同时使用Dropout减轻过拟合现象。CNN卷积核的尺寸为3×3, 用多个3×3小尺寸的卷积核来代替大尺寸卷积核。2个3×3卷积层串联之后的感受野与一个5×5卷积层相同, 如图 3所示, 但前者的参数量相比后者可减少28%。同时, 相对于一个大尺寸的卷积层, 多个3×3的卷积层可以经历更多的非线性变换, 提高模型对特征的学习能力。
|
下载CSV 表 1 卷积神经网络参数设计 |
|
Download:
|
| 图 3 2个3×3卷积层与1个5×5卷积层的比较 | |
本文CNN末端用全局均值池化层[16]和Softmax层来构建分类器结构, 将前一层输出的特征图进行全局均值池化后直接送入Softmax层进行分类。相比CNN中常用的含大量参数的全连接层, 该设计方式可大幅减少计算量, 同时, 在均值池化之后, 每张特征图对应一个输出特征, 在进行分类时可加强特征图和输出类别的一致性, 提高CNN的性能。
为进一步提升网络性能, 本文在CNN中加入批归一化(Batch Normalization, BN)层[17]。BN层是为了解决内部相关变量变化问题而提出的, 可以有效减小参数初始化对于网络的影响, 提高网络的训练速度。加入BN层后的具体结构如图 4所示。
|
Download:
|
| 图 4 加入BN层后CNN的结构 | |
本文算法的具体流程如图 5所示。首先, 利用信号源和信号接收机采集实验所需信号的IQ数据。然后, 利用Matlab将信号频率统一搬移到零频, 使信号时频图特征更为集中, 方便后续检测。在Matlab中利用小波变换生成本文实验所需的数据集, 按时频图特征分为纯净广播信号、有干扰广播信号和干扰信号3类, 并将其作为CNN的输入数据。最后, 不断优化和训练网络学习信号时频图特征, 以得到最终的干扰检测模型。
|
Download:
|
| 图 5 同频干扰信号的检测流程 | |
本文所用广播信号为空中无线电广播信号, 并选取较为常用的广播频点, 由EMSD信号接收机接收。干扰信号由信号源人为发射在与广播信号相同的频点处, 其调制方式和广播信号一样, 均为频率调制。因此, 当接收机接收频点确定时, 能够得到发射在该频点上的同频干扰信号。关闭发射干扰信号的信号源, 就能采集到纯净的广播信号。干扰信号和广播信号的具体参数如表 2所示。
|
下载CSV 表 2 信号参数 |
本文数据集分为纯净广播信号、有干扰广播信号和干扰信号3类, 每类10 000张时频图像, 其中训练数据集占85%, 验证数据集占15%, 图像大小固定为299像素×299像素。除此之外, 每类图像另生成500张时频图作为测试数据集来评估模型的干扰检测效果。
将接收机采集到的信号进行频谱搬移之后, 在Matlab中读取IQ文件, 然后根据IQ数据将其转化成对应的时域信号, 再利用Matlab中的小波工具箱绘制出时频图, 最终得到的信号时频图像如图 6所示。
|
Download:
|
| 图 6 小波变换时频图 | |
由图 6可以看出, 纯净的广播信号为一条波动的曲线, 而含干扰的广播信号中除了波动信号还存在一条干扰信号, 3类信号的频率随着时间的推移具有不同的变化趋势。
2.2 模型性能及结果分析本文实验采用Ubuntu 16.04系统, 在TensorFlow框架上用Python语言搭建CNN模型, 并利用计算统一设备架构(Compute Unified Device Architecture, CUDA)进行加速计算。
2.2.1 卷积层结构为达到最佳检测效果, 本文训练了不同深度的CNN, 结构设定如表 3所示。在表 3中, C代表卷积层, P代表池化层, 具体参数设置如表 4所示。
|
下载CSV 表 3 CNN结构设定 |
|
下载CSV 表 4 参数设置 |
CNN的训练结果如图 7、图 8所示。其中, 训练损失为CNN在训练过程中实际输出与期望输出之间的交叉熵, 而训练精度则为CNN对于验证数据集的识别精度。由图 7可以看出, 卷积层数为7时, CNN的训练损失最终收敛值小于卷积层数为5和6时的值。由图 8可以看出, 卷积层数为7时的训练精度较高。同时, 卷积层数为7和8时, CNN的训练损失与训练精度近似相等, 本文选用参数量更少的7层网络结构。
|
Download:
|
| 图 7 不同深度CNN的训练损失对比 | |
|
Download:
|
| 图 8 不同深度CNNDE训练精度对比 | |
为验证BN层是否能提升本文CNN的性能, 本文对含BN层和不含BN层的网络进行比较, 结果如图 9、图 10所示。
|
Download:
|
| 图 9 加入BN层前后的训练损失对比 | |
|
Download:
|
| 图 10 加入BN层前后的训练精度对比 | |
在图 9中, 含BN层的CNN的训练损失在1 000步左右便达到了收敛状态, 而不含BN层的CNN在2 000步时才近乎收敛。由图 10可以看出, 含BN层的CNN, 其训练精度比不含BN层的CNN更快达到0.9以上。因此, 可以证明加入BN层可加快训练速度。
2.2.3 残差结构残差结构也被称为shortcut或skip connections, 可在网络不断加深的情况下, 有效解决梯度下降算法存在的优化困难、训练误差增大的问题。本文加入残差结构后的网络结构如图 11所示, 将前一层的输出用一个分支全等映射到后一层, 学习目标由原来优化完整的期望输出H(x)简化为优化输入和输出的差别F(x)=H(x)-x。加入残差结构的网络训练结果如图 12、图 13所示。
|
Download:
|
| 图 11 残差结构 | |
|
Download:
|
| 图 12 加入残差结构前后的训练损失对比 | |
|
Download:
|
| 图 13 加入残差结构前后的训练精度对比 | |
由图 12和图 13可以看出, 相较于BN层, 残差结构对于CNN的优化效果不明显。这是由于本文CNN的网络层数并不深, 因此残差结构简化训练目标的优势不大。
2.2.4 与其他CNN模型的对比CNN发展至今已有许多常用的网络模型, 本文选用Inception-ResNet-V2模型[18]、ResNeXt模型[19]、VGGNet模型与本文模型进行对比, 分析不同模型对广播信号同频干扰的识别效果。其中, Inception-ResNet-V2及ResNeXt模型分别是GoogLeNet和ResNet的改进版本。训练结果如图 14和图 15所示。
|
Download:
|
| 图 14 4种模型的训练损失对比 | |
|
Download:
|
| 图 15 4种模型的训练精度对比 | |
由图 14可以看出, Inception-ResNet-V2模型和ResNeXt模型的训练损失在0.6左右就已达到收敛状态, VGGNet模型在0.2左右达到收敛, 而本文CNN模型能收敛到0.1左右。在图 15中, 本文CNN模型与其他3种模型的训练精度基本相同。此外, 由于本文数据集与ImageNet数据集相比图片类别较少且特征较为简单, 因此使用Inception-ResNet-V2和ResNeXt这些庞大而复杂的网络模型会造成资源及时间的浪费。表 5给出批大小为32时, 4种模型每秒训练的batch数。由表 5可以看出, 本文CNN每秒所训练的batch数远多于其余3种模型, 其训练速度较快, 训练时间大幅缩短。
|
下载CSV 表 5 4种模型每秒训练的batch数对比 |
另外, 机器学习中的SVM也越来越多地应用于无线电领域。为分析深度学习算法的优越性, 本文在Matlab中提取数据集的HOG特征, 训练SVM并对数据集进行分类, 核函数为线性核函数。表 6给出本文神经网络算法和SVM算法在测试数据集上的结果对比。由表 6可知, 本文算法对于含干扰广播信号的识别精度达95.0%, 总体精度为97.7%, 而SVM对含干扰广播信号的识别率只有86.0%, 总体精度为91.4%。由此可知, 与SVM相比, 本文算法能更准确地检测出干扰信号。
|
下载CSV 表 6 2种算法的干扰检测精度对比 |
本文提出一种基于卷积神经网络的无线电广播同频干扰检测算法, 将无线电同频干扰检测与深度学习相结合, 利用非平稳信号的时频图差异检测调频广播中是否含有同频干扰。实验结果表明, 本文算法能准确地检测出广播信号中的同频干扰, 与传统的SVM算法相比, 本文算法对于含干扰广播信号的识别精度提高9.0%, 达到95.0%。由于本文仅针对无线电中的广播信号进行同频干扰检测, 因此下一步将对其他无线电信号的干扰进行识别并对其检测算法进行改进。
| [1] |
王国宏, 白杰, 张翔宇, 等. 基于FRFT域特征差异的压制干扰检测与分类算法[J]. 北京航空航天大学学报, 2018, 44(6): 1124-1132. ( 0)
|
| [2] |
VUOHTONIEMI R, MÄKELÄ J, VARTIAINEN J, et al.Detection of broadcast signals in cognitive radio based PLC using the FCME algorithm[C]//Proceedings of the 18th IEEE International Symposium on Power Line Communications and Its Applications.Washington D.C., USA: IEEE Press, 2014: 70-74.
( 0)
|
| [3] |
YAN Haohui, ZHOU Bin, LIU Jing, et al.Radio signal recognition based on constructing typical spectrum[C]//Proceedings of the 2nd IEEE International Conference on Computer and Communications.Washington D.C., USA: IEEE Press, 2016: 1889-1894.
( 0)
|
| [4] |
MOUMENA A.Abnormal behavior detection of jamming signal in the spectrum using a combination of compressive sampling and intelligent bivariate K-means clustering technique in wideband cognitive radio systems[C]//Proceedings of the 4th International Conference on Electrical Engineering.Washington D.C., USA: IEEE Press, 2015: 1-4.
( 0)
|
| [5] |
黄莹, 郝新红, 孔志杰, 等. 基于熵特征的调频引信目标与干扰信号识别[J]. 兵工学报, 2017, 38(2): 254-260. DOI:10.3969/j.issn.1000-1093.2017.02.007 ( 0)
|
| [6] |
KONG Mingming, LIU Jing, ZHANG Zihao, et al.Radio ground-to-air interference signals recognition based on support vector machine[C]//Proceedings of IEEE International Conference on Digital Signal Processing.Washington D.C., USA: IEEE Press, 2015: 987-990.
( 0)
|
| [7] |
王桂胜, 任清华, 姜志刚, 等. 基于信号特征空间的TDCS干扰分类识别[J]. 系统工程与电子技术, 2017, 39(9): 1950-1958. ( 0)
|
| [8] |
FU Ying, WANG Xing.Radar signal recognition based on modified semi-supervised SVM algorithm[C]//Proceedings of the 2nd IEEE Conference on Advanced Information Technology, Electronic and Automation Control.Washington D.C., USA: IEEE Press, 2017: 2336-2340.
( 0)
|
| [9] |
KRIZHEVSKY A, SUTSKEVER I, HINTON G E.ImageNet classification with deep convolutional neural networks[C]//Proceedings of the 25th International Conference on Neural Information Processing Systems.New York: ACM Press, 2012: 1097-1105.
( 0)
|
| [10] |
SIMONYAN K, ZISSERMAN A.Very deep convolutional networks for large-scale image recognition[EB/OL].[2018-10-01].https://arxiv.org/pdf/1409.1556.pdf.
( 0)
|
| [11] |
SZEGEDY C, LIU Wei, JIA Yangqing, et al.Going deeper with convolutions[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Computer Society, 2015: 1-9.
( 0)
|
| [12] |
HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al.Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2016: 770-778.
( 0)
|
| [13] |
HU Jie, SHEN Li, SUN Gang.Squeeze-and-excitation networks[EB/OL].[2018-10-01].https://arxiv.org/pdf/1709.01507.pdf.
( 0)
|
| [14] |
PENG Shengliang, JIANG Hanyu, WANG Huaxia, et al.Modulation classification using convolutional neural network based deep learning model[C]//Proceedings of 2017 Wireless and Optical Communication Conference.Washington D.C., USA: IEEE Press, 2017: 1-5.
( 0)
|
| [15] |
YA Tu, LIN Yun, WANG Hui.Modulation recognition of digital signal based on deep auto-ancoder network[C]//Proceedings of IEEE International Conference on Software Quality, Reliability and Security Companion.Washington D.C., USA: IEEE Press, 2017: 256-260.
( 0)
|
| [16] |
LIN Min, CHEN Qiang, YAN Suicheng.Network in network[EB/OL].[2018-10-01].https://arxiv.org/pdf/1312.4400.pdf.
( 0)
|
| [17] |
IOFFE S, SZEGEDY C.Batch normalization: accelerating deep network training by reducing internal covariate shift[C]//Proceedings of the 32nd International Conference on Machine Learning.New York, USA: ICML Press, 2015: 448-456.
( 0)
|
| [18] |
SZEGEDY C, IOFFE S, VANHOUCKE V, et al.Inception-v4, inception-resnet and the impact of residual connections on learning[EB/OL].[2018-10-01].https://arxiv.org/pdf/1602.07261.pdf.
( 0)
|
| [19] |
XIE Saining, GIRSHICK R, DOLLÁR P, et al.Aggregated residual transformations for deep neural networks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2017: 5987-5995.
( 0)
|
2019, Vol. 45

,
0)