Processing math: 57%

一种噪声环境下的雷达目标高分辨率距离像鲁棒识别方法

李玮杰 杨威 黎湘 刘永祥

李玮杰, 杨威, 黎湘, 等. 一种噪声环境下的雷达目标高分辨率距离像鲁棒识别方法[J]. 雷达学报, 2020, 9(4): 622–631. doi: 10.12000/JR19093
引用本文: 李玮杰, 杨威, 黎湘, 等. 一种噪声环境下的雷达目标高分辨率距离像鲁棒识别方法[J]. 雷达学报, 2020, 9(4): 622–631. doi: 10.12000/JR19093
LI Weijie, YANG Wei, LI Xiang, et al. Robust high resolution range profile recognition method for radar targets in noisy environments[J]. Journal of Radars, 2020, 9(4): 622–631. doi: 10.12000/JR19093
Citation: LI Weijie, YANG Wei, LI Xiang, et al. Robust high resolution range profile recognition method for radar targets in noisy environments [J]. Journal of Radars, 2020, 9(4): 622–631. doi: 10.12000/JR19093

一种噪声环境下的雷达目标高分辨率距离像鲁棒识别方法

DOI: 10.12000/JR19093
基金项目: 国家自然科学基金(61871384, 61401486),湖南省自然科学基金(2017JJ3367),上海航天科技创新基金(SAST2017-048)
详细信息
    作者简介:

    李玮杰(1998–),男,湖南株洲人,国防科技大学电子科学学院在读博士生,研究方向为雷达目标识别,机器学习,深度学习。E-mail: lwj2150508321@sina.cn

    杨 威(1985–),男,江西丰城人,博士,国防科技大学电子科学学院讲师,研究方向包括信息融合、多目标跟踪、融合目标识别。E-mail: yw850716@sina.com

    黎 湘(1967–),男,湖南浏阳人,教授,长江学者特聘教授,研究方向为目标探测识别与雷达成像等

    刘永祥(1976–),男,河北唐山人,博士,国防科技大学电子科学学院教授,博士生导师,研究方向为目标微动特性分析与识别。E-mail: lyx_bible@sina.com

    通讯作者:

    杨威 yw850716@sina.com

  • 责任主编:陈渤 Corresponding Editor: CHEN Bo
  • 中图分类号: TN957.51

Robust High Resolution Range Profile Recognition Method for Radar Targets in Noisy Environments

Funds: The National Natural Science Foundation of China (61871384, 61401486), The Natural Science Foundation of Hunan Province (2017JJ3367), The Innovation Foundation of Aerospace Science and Technology of Shanghai (SAST2017-048)
More Information
  • 摘要: 随着深度学习技术被应用于雷达目标识别领域,其自动提取目标特征的特性大大提高了识别的准确率和鲁棒性,但噪声环境下的鲁棒性有待进一步研究。该文提出了一种在噪声环境下基于卷积神经网络(CNN)的雷达高分辨率距离像(HRRP)数据识别方法,通过增强训练集和使用残差块、inception结构和降噪自编码层增强网络结构,实现了在较宽信噪比范围下的较高识别率,其中在信噪比为0 dB的瑞利噪声条件下,识别率达到96.14%,并分析了网络结构和噪声类型对结果的影响。

     

  • 传统雷达目标识别技术依赖于人工设计的特征,而这些特征的完整性和有效性往往缺乏有力保证,并且复杂电磁环境会干扰识别结果,导致传统雷达目标识别技术的精确性和鲁棒性面临极大挑战。而深度学习技术可以自动提取目标本质特征,这种端到端的学习方式大大提升目标识别的精确性和鲁棒性。

    有学者通过不同的深度学习方法对高分辨率距离像(High Resolution Range Profile, HRRP)进行目标识别,主流算法包括卷积神经网络(Convolutional Neural Networks, CNN)、栈式自编码器(Stacked AutoEncoder, SAE)、深度置信网络(Deep Belief Networks, DBN)以及循环神经网络(Recurrent Neural Network, RNN)等[1]。其中,文献[2]将CNN应用于HRRP识别,在–20~40 dB的高斯白噪声环境情况下扩展训练集样本,对3类目标进行识别,平均识别率达到91.4%。文献[3]使用直接基于极化距离矩阵、Pauli分解和Freeman分解3种方式提取极化距离矩阵中的信息,并将提取得到的目标特征向量送入CNN进行训练,最终识别率达到100%。文献[4]提出利用RNN中的长短时记忆循环神经网络(Long-Short Term Memory recurrent neural network, LSTM)对HRRP进行识别,使用175个数据进行训练,测试100个样本,全部识别成功。文献[5]提出一种基于RNN的注意模型,使得模型自适应衡量每一个数据段在识别中起到的作用,训练样本个数为 7375,测试数据的样本个数为16655,测试样本识别率达到88.3%。文献[6]将双向LSTM的模型应用于HRRP数据识别,训练样本个数为 7800,测试数据的样本个数为5124,识别率达到了90.1%。文献[7]提出了一种基于双向GRU的注意力机制模型,训练样本个数为 7800,测试数据的样本个数为5124,识别率达到了90.7%。文献[8]中将栈式降噪稀疏自编码器(stacked Denoising Sparse AutoEncoder, sDSAE)用于雷达目标识别,由于深度的增加,该方案的识别效果比K近邻分类方法和栈式自编码器好。文献[9]使用支持向量机、深度神经网络、SAE对Su27, J6, M2K 3种仿真战斗机的HRRP数据进行识别,识别率分别为74.26%, 79.63%和85.00%。

    对基于深度学习的雷达目标HRRP识别模型,研究尚在起步阶段,上述研究将深度学习应用于雷达目标识别领域取得了较好的成果,但较少考虑到低信噪比情况下如何提高模型的抗噪声性能。本文提出了一种噪声环境下的雷达目标HRRP鲁棒识别方法,在训练集中插入不同信噪比值的噪声,并使用结合残差块、inception结构和降噪自编码层的卷积神经网络进行识别,在高斯白噪声和瑞利噪声的条件下可以实现在较宽范围信噪比条件下的较高识别率。

    卷积神经网络是深度学习的代表算法之一,大量应用于计算机视觉、自然语言处理等领域,使用了稀疏交互(sparse interactions)、参数共享(parameter sharing)、等变表示(equivariant representations)来降低网络复杂度,使得存储需求降低、运算效率提高、具有对平移等变性质[10]。CNN具有分层学习特征的能力,可以训练CNN自动地从HRRP数据集中学习有用特征并分类。

    CNN结构分为输入层、隐藏层、输出层,如图1所示。

    图  1  卷积神经网络结构
    Figure  1.  The structure of CNN

    输入层接收多维数据,一维CNN的输入层接收一维或二维数组,其中一维数组通常为时间或频谱采样,二维数组可能包含多个通道;二维CNN的输入层接收二维或三维数组。

    隐藏层通常是由一连串的卷积层、池化层和全连接层组成的。卷积层模仿人眼对环境的识别,参数比全连接层相比大大减少,其功能是对输入数据进行特征提取,通常会有多个卷积核对输入进行处理。经过卷积层后的输出会被传递至池化层进行特征选择和信息过滤,在池化层进行下采样,对特征进行降维,并且使得网络对数据平移保持近似不变。经过多层卷积层和池化层,在全连接层把学习得到的特征聚合起来。

    输出层在分类问题中,通常使用softmax层来输出分类标签。

    为了防止过拟合,Hinton等人[11]提出Dropout机制,如图2所示,在每次训练时,让神经元依概率(如50%)随机失活,阻止某些特征的协同作用来缓解过拟合,也可以将Dropout作为一种多模型效果平均的方式,每次训练时,模型的结构都会因为Dropout随机性发生变化,多次训练后相当于多个不同模型结合起来得到最终模型,能很好地缓解过拟合。

    图  2  Dropout示意图
    Figure  2.  The schematic diagram of Dropout

    网络在训练阶段,文献[12]证明了交叉熵代价函数要优于平方差代价函数,因此本文采用交叉熵函数损失函数,假如给定一个带标签的数据集 {x(i)}mbi=1 ,对应的标签数据集为{y(i)}mbi=1,其中第i个训练数据x(i)经过网络后得到输出层标签向量o(i),则交叉熵损失函数表达式为。

    J1=1mbmbi=1Dj=1(y(i)jlgo(i)j+(1y(i)j)lg(1o(i)j)) (1)

    其中,D为样本维数,mb为批训练样本个数,y(i)j为第i个训练数据x(i)对应的标签数据集的第j维对应值,o(i)j为第i个输入数据x(i)对应的输出层标签向量的第j维对应值。

    本文受文献[13]启发,为了进一步提高网络深度,降低噪声影响,提高网络性能,使用了图3所示的残差块,其中数据流向有两条,一条经过卷积层,另一条不经过卷积层。残差块包含的卷积层个数和卷积层的核参数都是可以调节的。残差块可以有效提高网络深度,而网络深度的提高可以提取更深层次的特征,这种特征具备更好的鲁棒性。

    图  3  残差块结构图
    Figure  3.  The structure of residual block

    在使用残差块来提高网络深度的同时,借鉴inception结构[14]来增加网络宽度来更好学习特征,提升网络性能。利用稀疏网络结构产生稠密的数据,这样将稀疏矩阵聚类为较为密集的子矩阵来提高计算性能,在提高神经网络性能的同时,又能保证计算资源的使用效率。GoogLeNet团队提出了inception网络结构,通过这种结构来搭建一个稀疏性、高计算性能的网络结构。卷积核的核尺寸影响感受野的大小,因此选择不同的核尺寸会影响学习结果,该结构使用了不同核尺寸模块,由网络自行选择参数,从而将选择不同核尺寸的权重这一步骤交由模型自行学习,这样就通过稀疏的卷积连接产生了不同感受野范围下的稠密数据。如图4所示,inception结构使用了多个子模块,将核尺寸1, 3和5的卷积层和池化层并联在一块,并在在核尺寸为3, 5的卷积层前面和池化层后面分别加上了核尺寸为1的卷积核,来降低数据维度,增加了网络对尺度的适应性和网络宽度来更好地学习特征。

    图  4  Inception结构图
    Figure  4.  The structure of inception

    降噪自编码器通过对输入数据加噪,使得模型学习如何去除噪声,还原本来的数据,从而提高模型鲁棒性[15]。增加了如图5所示降噪自编码器层来进一步降低噪声影响,在训练时通过随机丢弃输入来实现对输入的损失,近似模拟噪声对数据影响,而输出通过训练来还原为原始输入。其中隐含层的数量和节点数可以调节,对网络的损失函数重新定义,加入了对降噪自编码器层输入和输出之间的均方误差函数,进行整体网络的训练。降噪自编码器层的均方误差对于降噪自编码器层之后的层没有影响,但会影响之前层的训练。

    图  5  降噪自编码器层结构图
    Figure  5.  The structure of residual DAE
    J2=J1+αmbi=1 (2)

    其中,{\mathcal{J}_2}为新的损失函数,{\mathcal{J}_1}为网络交叉熵损失函数,x_{\rm{d}}^{\left( i \right)}为降噪自编码器层输入,y_{\rm{d}}^{\left( i \right)}为降噪自编码器层输出,{{{m}}_{\rm{b}}}为批训练样本个数,\alpha 为超参数控制降噪自编码器层损失函数占总体的权重,本文取1。

    将以上模块结合起来,本文所设计的网络结构如图6所示。

    图  6  网络结构
    Figure  6.  The structure of network

    网络使用了两个残差块,之后链接了一个inception结构以更好学习通过残差块得到的特征,最后一个卷积层是为了降低数据维数,并且在最后一个卷积层后链接一层降噪自编码器降低噪声影响。其中残差块和inception结构的数量和位置可以调节,而降噪自编码器层使用的是全连接层,放在网络的较高隐藏层,通常是最后全连接层部分。网络各部分功能框图如图7所示。

    图  7  网络功能框图
    Figure  7.  The block diagram of network function

    实验平台为64位Window10系统,CPU2.8 GHz,内存8 GB,采用Tensorflow框架CPU版本实现。采用3类实测飞机目标雷达HRRP实测数据,其中雷达的中心频率为5520 MHz,信号带宽为400 MHz,飞机的参数如表1所示,其时域特征示意图如图8所示。其中“安26”为中型螺旋桨飞机,“奖状”为小型喷气式飞机,“雅克42”为中型喷气式飞机。

    表  1  飞机参数(m)
    Table  1.  Parameters of planes (m)
    机型机长机高机宽
    安2623.809.8329.20
    奖状14.404.5715.90
    雅克4236.389.8334.88
    下载: 导出CSV 
    | 显示表格
    图  8  HRRP数据示意图
    Figure  8.  Schematic diagram of HRRP

    每类有26000个样本,随机抽取不放回得到训练集每类23000个样本,测试集每类3000个样本,每一个样本为256维,学习率为0.001,优化算法使用Adam算法,批训练大小mb为100。值得指出的是训练集样本的增多会提高识别率,当每类7000个时,在高斯白噪声条件下,图6图9所示模型在0 dB下相差较大,约15%左右,但增加训练集数量后,差距会减小。这说明当拥有足够数据时,模型的复杂度对于结果的影响会降低。

    图  9  卷积神经网络结构图
    Figure  9.  The structure of CNN

    文献[16]指出信号的正交分量和同向分量中噪声类型可以假设为高斯白噪声。文献[17]指出复信号的噪声幅度服从瑞利分布,因此本文在瑞利噪声的环境下进行实验,根据信噪比对样本添加瑞利噪声,训练集的每类样本中的4000个样本加入SNR=0 dB的瑞利噪声,每类样本中的2000个样本加入SNR=15 dB的瑞利噪声,其余训练样本不进行加噪处理,再进行归一化处理。需要指出的是,加入不同信噪比的样本的数量对结果会有一定影响,加入某信噪比下的样本越多,会提高该信噪比样本的识别率,同时降低其他信噪比样本识别率,使用不同比例的样本,会导致识别率发生变化,因此如果加入过多低信噪比样本会导致对于高信噪比样本识别率下降。测试集样本加入不同信噪比的瑞利噪声,使用训练集样本的归一化参数进行归一化处理。为了对照观察网络深度和宽度对结果影响,参考文献[2]和文献[3]使用了如图9所示的卷积神经网络,含有2个卷积层和2个池化层。识别结果如表2所示。

    表  2  训练集加入瑞利噪声结果
    Table  2.  Recognition results based on Rayleigh noise training set
    信噪比(dB)–5–3035101520测试集未加入噪声
    图6改进CNN平均识别率91.1493.9896.1497.3797.7198.5899.2499.5399.81
    安26识别率88.8392.9796.4797.8098.5098.9399.1399.4099.90
    奖状识别率92.1395.4397.9399.2099.5399.6399.7799.9099.97
    雅克42识别率92.4793.5394.0395.1095.1097.1798.8399.3099.57
    图6改进CNN
    (训练集中未加噪声)
    平均识别率51.5157.8963.4165.1465.7266.4066.5866.6899.81
    安26识别率00000000.0399.47
    奖状识别率99.8099.8399.7799.87100.00100.00100.00100.0099.97
    雅克42识别率54.7773.8390.4795.5797.1799.2099.73100.00100.00
    图9的CNN平均识别率85.3090.4394.9096.6697.3098.1998.3698.4499.63
    安26识别率72.1379.2786.5390.5792.1094.7395.2095.4799.97
    奖状识别率83.9092.1798.2399.5099.8399.9099.9399.9399.67
    雅克42识别率99.8799.8799.9399.9099.9799.9399.9399.9399.27
    图9的CNN
    (训练集中未加噪声)
    平均识别率33.8634.5038.1251.8261.3266.6266.7068.2099.97
    安26识别率0000000.104.6099.90
    奖状识别率1.573.5014.3755.4783.9799.87100.00100.00100.00
    雅克42识别率100.00100.00100.00100.00100.00100.00100.00100.00100.00
    下载: 导出CSV 
    | 显示表格

    其中信噪比公式为

    {\rm{SNR}} = 10{\rm{lg}}\frac{{{{{P}}_{\rm s}}}}{{{n_0}}} = 10{\rm{lg}}\frac{{\displaystyle\sum\limits_{d = 1}^{{D}} {P_d}}}{{{{D}} \times {n_0}}} (3)

    其中,{{{P}}_{\rm{s}}}为信号的平均功率,{{D}}为样本维数,即距离单元个数,为256, {P_d}为第d个距离单元上信号功率,{n_0}为噪声功率。

    考虑到不同噪声类型对结果的影响,本文还在高斯白噪声下进行了实验,训练集的每类样本中的4000个样本加入SNR=0 dB的高斯白噪声,每类样本中的2000个样本加入SNR=15 dB的高斯白噪声,其余训练样本不进行加噪处理,再进行归一化处理。测试集样本则加入不同信噪比下的高斯白噪声来测试模型性能,使用训练集样本的归一化参数进行归一化处理。结果如表3所示。

    表  3  训练集加入高斯白噪声结果
    Table  3.  Recognition results based on White Gaussian noise training set
    信噪比(dB)–5–3035101520测试集未加入噪声
    图6改进CNN平均识别率85.9991.6196.0498.0799.0099.6899.8899.9499.94
    安26识别率86.6390.2094.0096.3098.0799.3099.7099.8399.87
    奖状识别率83.2792.7797.0099.2399.6099.90100.00100.00100.00
    雅克42识别率88.0791.8797.1398.6799.3399.8399.93100.0099.97
    图6改进CNN
    (训练集中未加噪声)
    平均识别率55.9358.8963.9169.1070.9475.4982.7393.0199.90
    安26识别率12.0013.4715.1720.3721.3329.6349.4379.4099.83
    奖状识别率82.2084.5790.5795.5797.6399.6399.97100.00100.00
    雅克42识别率73.6078.6386.0091.3793.8797.2098.8099.6399.87
    图9的CNN平均识别率80.6187.2393.7496.5997.5998.8799.0899.2199.19
    安26识别率71.3778.5086.7791.7393.9096.8797.6397.8097.73
    奖状识别率80.6789.5397.0799.2099.4399.8799.7799.9399.93
    雅克42识别率89.8093.6797.4098.8399.4399.8799.8399.9099.90
    图9的CNN
    (训练集中未加噪声)
    平均识别率39.9242.7447.0953.9059.9073.0986.6997.4799.98
    安26识别率0.570.831.773.375.3022.2060.2792.4799.97
    奖状识别率21.7328.9040.3358.8374.6397.1099.8399.97100.0
    雅克42识别率97.4798.5099.1799.5099.7799.9799.9799.9799.97
    下载: 导出CSV 
    | 显示表格

    通过对比结果可以发现,随着网络深度和宽度的增加,提取得到的特征受噪声影响会越来越小。模型在低信噪比情况下的识别能力进一步得到提高,各个信噪比之间的识别率差别进一步缩小。这是由于随着网络复杂度的提升,提高了对于样本的学习能力,增强了网络性能,因此对于包含了噪声样本和正常样本的训练集,改进后的网络可以更好地学习两者特性,只需通过几个点的信噪比就可推广到较宽信噪比范围下的样本分类。但要想得到更好结果,可能需要对样本和模型两个方面进行调整。调整样本信噪比分布,增加网络深度和宽度,在多处隐藏层中插入自编码器,可以进一步提高识别率,缩小各个信噪比之间的识别率差距,达到在各种信噪比情况下识别率的一个平衡。

    同时可以发现,如果在训练集中未加入噪声,所得到的模型其实对于低信噪比的测试样本是没有识别能力的,因此出现了过拟合现象,训练集丧失了泛化能力,识别率急剧下降甚至到0。但加入0 dB和15 dB的噪声后,模型具备了在较宽范围下的识别能力。说明模型需要一定的先验信息进行学习并泛化到其他条件下的识别。并且模型在两种噪声类型下的表现均不错,这是由于深度学习模型是由数据驱动的,对于数据噪声类型没有过多要求,因此在实际应用中模型训练时加入低信噪比样本可以提高模型的抗噪性能。

    为了进一步探究训练集和测试集中噪声类型对结果的影响,本文在训练集和测试集中使用了不同类型的噪声进行实验,得到的结果如表4所示,方案1为训练集使用瑞利噪声测试集使用高斯噪声,方案2为训练集使用高斯噪声测试集使用瑞利噪声。通过结果可以发现识别率有所降低,但对比训练集未加噪来说仍有较高的识别率,说明模型在这两种类型的噪声之间具有泛化性,这可能是因为这两种噪声类型的差异不大,识别率不会下降过多,但模型是否可以泛化到更多的情况下还需要进一步研究。

    表  4  不同噪声类型识别结果
    Table  4.  Recognition results based on different noise types
    信噪比(dB)–5–3035101520测试集未加入噪声
    方案1平均识别率76.7382.2188.3192.1293.4196.2397.9799.0699.79
    安26识别率76.4780.5383.9085.9086.3090.9094.5397.4099.57
    奖状识别率73.3778.4387.1092.6795.3798.2399.4799.8099.80
    雅克42识别率80.3787.6793.9397.8098.5799.5799.9099.97100.00
    方案2平均识别率81.6887.1892.5394.9395.5296.7096.9497.0897.18
    安26识别率63.6372.9782.2087.2388.5091.0391.5791.8792.13
    奖状识别率81.6088.7795.5097.7798.3099.2799.5099.6099.63
    雅克42识别率99.8099.8099.9099.8099.7799.8099.7799.7799.77
    下载: 导出CSV 
    | 显示表格

    为了更好地理解各个结构对识别率的影响,本文删除了网络中部分结构来观察对结果的影响。在高斯白噪声环境下,并且降低训练集样本数到每类6000个,训练集的每类样本中的1000个样本加入SNR=0 dB的高斯白噪声,每类样本中的500个样本加入SNR=15 dB的高斯白噪声,其余训练样本不进行加噪处理。通过表5可以发现,改变网络的宽度和深度都能影响网络的性能。降噪自编码器层在某种程度上消除噪声,也是提高网络性能的一种方案。

    表  5  删除结构加入噪声结果
    Table  5.  Recognition results based on deleted structure
    信噪比(dB)–5–3035101520测试集未加入噪声
    图6改进CNN平均识别率79.9886.8393.1196.1897.1198.5998.7298.9999.03
    安26识别率73.5082.0389.6094.3394.9797.1097.3097.7097.80
    奖状识别率81.9089.5096.6398.7799.5099.7799.9099.9099.87
    雅克42识别率84.5388.9793.1095.4396.8798.9098.9799.3799.43
    删除第1个残差块平均识别率79.5984.8290.7693.6694.3695.6895.8896.0996.04
    安26识别率68.9774.7080.6784.6785.9788.2388.6389.0089.07
    奖状识别率82.5088.4396.8098.8399.5099.7399.8399.8399.83
    雅克42识别率87.3091.3394.8097.4797.6099.0799.1799.4399.23
    删除第2个残差块平均识别率79.0685.5391.5194.4495.4196.7896.8897.1197.12
    安26识别率65.9373.7792.8088.0389.6392.3092.6392.9093.07
    奖状识别率94.6091.0096.2798.4799.2099.5099.5099.6399.57
    雅克42识别率86.6391.2795.5796.9397.4098.5398.5098.8098.73
    删除第1, 2个残差块平均识别率74.5182.3889.6792.3193.2193.9394.2894.5494.44
    安26识别率58.3369.1778.0081.8783.1384.6085.5786.2785.93
    奖状识别率68.5080.4092.9796.6097.9398.3398.5398.5798.57
    雅克42识别率96.7097.5798.0398.4798.5798.8798.7398.8098.83
    删除inception模块平均识别率78.0884.4290.1092.8193.7195.1495.2695.4895.58
    安26识别率73.7379.1385.1788.3789.1390.9791.0391.3091.30
    奖状识别率82.6788.9795.5397.5398.4399.2099.2399.2799.27
    雅克42识别率80.8385.1789.6092.5393.5795.2795.5095.8796.17
    删除降噪自编码器层平均识别率78.5983.6090.0093.6294.8396.3296.9997.4097.33
    安26识别率71.9776.9083.6388.8090.3792.3093.3393.7393.53
    奖状识别率77.7383.0791.2094.6796.3397.7098.6399.0799.17
    雅克42识别率86.0790.8395.1797.4097.8098.9799.0099.4099.30
    下载: 导出CSV 
    | 显示表格

    本文提出一种噪声环境下的雷达目标HRRP鲁棒识别方法,通过增强训练集和使用结合残差块、inception结构和降噪自编码层的卷积神经网络。实验结果表明,本方法能保证较宽信噪比范围内的识别性能。同时本文在对训练集中加入噪声时,无需像文献[2]中加入从–20到40 dB的噪声样本,而是插入几个点的噪声即可,模型可以根据所加入的几个信噪比学习到其他信噪比下的样本识别能力。此外,对于模型深度和宽度提高对于噪声环境下识别性能提升的机理有待进一步研究。

  • 图  1  卷积神经网络结构

    Figure  1.  The structure of CNN

    图  2  Dropout示意图

    Figure  2.  The schematic diagram of Dropout

    图  3  残差块结构图

    Figure  3.  The structure of residual block

    图  4  Inception结构图

    Figure  4.  The structure of inception

    图  5  降噪自编码器层结构图

    Figure  5.  The structure of residual DAE

    图  6  网络结构

    Figure  6.  The structure of network

    图  7  网络功能框图

    Figure  7.  The block diagram of network function

    图  8  HRRP数据示意图

    Figure  8.  Schematic diagram of HRRP

    图  9  卷积神经网络结构图

    Figure  9.  The structure of CNN

    表  1  飞机参数(m)

    Table  1.   Parameters of planes (m)

    机型机长机高机宽
    安2623.809.8329.20
    奖状14.404.5715.90
    雅克4236.389.8334.88
    下载: 导出CSV

    表  2  训练集加入瑞利噪声结果

    Table  2.   Recognition results based on Rayleigh noise training set

    信噪比(dB)–5–3035101520测试集未加入噪声
    图6改进CNN平均识别率91.1493.9896.1497.3797.7198.5899.2499.5399.81
    安26识别率88.8392.9796.4797.8098.5098.9399.1399.4099.90
    奖状识别率92.1395.4397.9399.2099.5399.6399.7799.9099.97
    雅克42识别率92.4793.5394.0395.1095.1097.1798.8399.3099.57
    图6改进CNN
    (训练集中未加噪声)
    平均识别率51.5157.8963.4165.1465.7266.4066.5866.6899.81
    安26识别率00000000.0399.47
    奖状识别率99.8099.8399.7799.87100.00100.00100.00100.0099.97
    雅克42识别率54.7773.8390.4795.5797.1799.2099.73100.00100.00
    图9的CNN平均识别率85.3090.4394.9096.6697.3098.1998.3698.4499.63
    安26识别率72.1379.2786.5390.5792.1094.7395.2095.4799.97
    奖状识别率83.9092.1798.2399.5099.8399.9099.9399.9399.67
    雅克42识别率99.8799.8799.9399.9099.9799.9399.9399.9399.27
    图9的CNN
    (训练集中未加噪声)
    平均识别率33.8634.5038.1251.8261.3266.6266.7068.2099.97
    安26识别率0000000.104.6099.90
    奖状识别率1.573.5014.3755.4783.9799.87100.00100.00100.00
    雅克42识别率100.00100.00100.00100.00100.00100.00100.00100.00100.00
    下载: 导出CSV

    表  3  训练集加入高斯白噪声结果

    Table  3.   Recognition results based on White Gaussian noise training set

    信噪比(dB)–5–3035101520测试集未加入噪声
    图6改进CNN平均识别率85.9991.6196.0498.0799.0099.6899.8899.9499.94
    安26识别率86.6390.2094.0096.3098.0799.3099.7099.8399.87
    奖状识别率83.2792.7797.0099.2399.6099.90100.00100.00100.00
    雅克42识别率88.0791.8797.1398.6799.3399.8399.93100.0099.97
    图6改进CNN
    (训练集中未加噪声)
    平均识别率55.9358.8963.9169.1070.9475.4982.7393.0199.90
    安26识别率12.0013.4715.1720.3721.3329.6349.4379.4099.83
    奖状识别率82.2084.5790.5795.5797.6399.6399.97100.00100.00
    雅克42识别率73.6078.6386.0091.3793.8797.2098.8099.6399.87
    图9的CNN平均识别率80.6187.2393.7496.5997.5998.8799.0899.2199.19
    安26识别率71.3778.5086.7791.7393.9096.8797.6397.8097.73
    奖状识别率80.6789.5397.0799.2099.4399.8799.7799.9399.93
    雅克42识别率89.8093.6797.4098.8399.4399.8799.8399.9099.90
    图9的CNN
    (训练集中未加噪声)
    平均识别率39.9242.7447.0953.9059.9073.0986.6997.4799.98
    安26识别率0.570.831.773.375.3022.2060.2792.4799.97
    奖状识别率21.7328.9040.3358.8374.6397.1099.8399.97100.0
    雅克42识别率97.4798.5099.1799.5099.7799.9799.9799.9799.97
    下载: 导出CSV

    表  4  不同噪声类型识别结果

    Table  4.   Recognition results based on different noise types

    信噪比(dB)–5–3035101520测试集未加入噪声
    方案1平均识别率76.7382.2188.3192.1293.4196.2397.9799.0699.79
    安26识别率76.4780.5383.9085.9086.3090.9094.5397.4099.57
    奖状识别率73.3778.4387.1092.6795.3798.2399.4799.8099.80
    雅克42识别率80.3787.6793.9397.8098.5799.5799.9099.97100.00
    方案2平均识别率81.6887.1892.5394.9395.5296.7096.9497.0897.18
    安26识别率63.6372.9782.2087.2388.5091.0391.5791.8792.13
    奖状识别率81.6088.7795.5097.7798.3099.2799.5099.6099.63
    雅克42识别率99.8099.8099.9099.8099.7799.8099.7799.7799.77
    下载: 导出CSV

    表  5  删除结构加入噪声结果

    Table  5.   Recognition results based on deleted structure

    信噪比(dB)–5–3035101520测试集未加入噪声
    图6改进CNN平均识别率79.9886.8393.1196.1897.1198.5998.7298.9999.03
    安26识别率73.5082.0389.6094.3394.9797.1097.3097.7097.80
    奖状识别率81.9089.5096.6398.7799.5099.7799.9099.9099.87
    雅克42识别率84.5388.9793.1095.4396.8798.9098.9799.3799.43
    删除第1个残差块平均识别率79.5984.8290.7693.6694.3695.6895.8896.0996.04
    安26识别率68.9774.7080.6784.6785.9788.2388.6389.0089.07
    奖状识别率82.5088.4396.8098.8399.5099.7399.8399.8399.83
    雅克42识别率87.3091.3394.8097.4797.6099.0799.1799.4399.23
    删除第2个残差块平均识别率79.0685.5391.5194.4495.4196.7896.8897.1197.12
    安26识别率65.9373.7792.8088.0389.6392.3092.6392.9093.07
    奖状识别率94.6091.0096.2798.4799.2099.5099.5099.6399.57
    雅克42识别率86.6391.2795.5796.9397.4098.5398.5098.8098.73
    删除第1, 2个残差块平均识别率74.5182.3889.6792.3193.2193.9394.2894.5494.44
    安26识别率58.3369.1778.0081.8783.1384.6085.5786.2785.93
    奖状识别率68.5080.4092.9796.6097.9398.3398.5398.5798.57
    雅克42识别率96.7097.5798.0398.4798.5798.8798.7398.8098.83
    删除inception模块平均识别率78.0884.4290.1092.8193.7195.1495.2695.4895.58
    安26识别率73.7379.1385.1788.3789.1390.9791.0391.3091.30
    奖状识别率82.6788.9795.5397.5398.4399.2099.2399.2799.27
    雅克42识别率80.8385.1789.6092.5393.5795.2795.5095.8796.17
    删除降噪自编码器层平均识别率78.5983.6090.0093.6294.8396.3296.9997.4097.33
    安26识别率71.9776.9083.6388.8090.3792.3093.3393.7393.53
    奖状识别率77.7383.0791.2094.6796.3397.7098.6399.0799.17
    雅克42识别率86.0790.8395.1797.4097.8098.9799.0099.4099.30
    下载: 导出CSV
  • [1] 王俊, 郑彤, 雷鹏, 等. 深度学习在雷达中的研究综述[J]. 雷达学报, 2018, 7(4): 395–411. doi: 10.12000/JR18040

    WANG Jun, ZHENG Tong, LEI Peng, et al. Study on deep learning in radar[J]. Journal of Radars, 2018, 7(4): 395–411. doi: 10.12000/JR18040
    [2] LUNDÉN J and KOIVUNEN V. Deep learning for HRRP-based target recognition in multistatic radar systems[C]. 2016 IEEE Radar Conference (RadarConf), Philadelphia, USA, 2016: 1–6. doi: 10.1109/radar.2016.7485271.
    [3] 盖晴晴, 韩玉兵, 南华, 等. 基于深度卷积神经网络的极化雷达目标识别[J]. 电波科学学报, 2018, 33(5): 575–582. doi: 10.13443/j.cjors.2017112101

    GAI Qingqing, HAN Yubing, NAN Hua, et al. Polarimetric radar target recognition based on depth convolution neural network[J]. Chinese Journal of Radio Science, 2018, 33(5): 575–582. doi: 10.13443/j.cjors.2017112101
    [4] JITHESH V, SAGAYARAJ M J, and SRINIVASA K G. LSTM recurrent neural networks for high resolution range profile based radar target classification[C]. The 3rd International Conference on Computational Intelligence & Communication Technology, Ghaziabad, India, 2017: 1–6. doi: 10.1109/ciact.2017.7977298.
    [5] 徐彬, 陈渤, 刘宏伟, 等. 基于注意循环神经网络模型的雷达高分辨率距离像目标识别[J]. 电子与信息学报, 2016, 38(12): 2988–2995. doi: 10.11999/JEIT161034

    XU Bin, CHEN Bo, LIU Hongwei, et al. Attention-based recurrent neural network model for radar high-resolution range profile target recognition[J]. Journal of Electronics &Information Technology, 2016, 38(12): 2988–2995. doi: 10.11999/JEIT161034
    [6] 徐彬, 陈渤, 刘家麒, 等. 采用双向LSTM模型的雷达HRRP目标识别[J]. 西安电子科技大学学报, 2019, 46(2): 29–34.

    XU Bin, CHEN Bo, LIU Jiaqi, et al. Radar HRRP target recognition by the bidirectional LSTM model[J]. Journal of Xidian University, 2019, 46(2): 29–34.
    [7] 刘家麒, 陈渤, 介茜. 基于注意力机制和双向GRU模型的雷达HRRP目标识别[J]. 雷达学报, 2019, 8(5): 589–597. doi: 10.12000/JR19014

    LIU Jiaqi, CHEN Bo, and JIE Xi. Radar high-resolution range profile target recognition based on attention mechanism and bidirectional gated recurrent[J]. Journal of Radars, 2019, 8(5): 589–597. doi: 10.12000/JR19014
    [8] 赵飞翔, 刘永祥, 霍凯. 基于栈式降噪稀疏自动编码器的雷达目标识别方法[J]. 雷达学报, 2017, 6(2): 149–156. doi: 10.12000/JR16151

    ZHAO Feixiang, LIU Yongxiang, and HUO Kai. Radar target recognition based on stacked denoising sparse autoencoder[J]. Journal of Radars, 2017, 6(2): 149–156. doi: 10.12000/JR16151
    [9] 张欢. 基于射频隐身的机载雷达系统软件实现及HRRP目标识别研究[D]. [硕士论文], 南京航空航天大学, 2016.

    ZHANG Huan. RF stealth based airborne radar system simulation and HRRP target recognition research[D]. [Master dissertation], Nanjing University of Aeronautics and Astronautics, 2016.
    [10] GOODFELLOW I, BENGIO Y, and COURVILLE A, 赵申剑, 黎彧君, 符天凡, 等译. 深度学习[M]. 北京: 人民邮电出版社, 2017: 199–226.

    GOODFELLOW I, BENGIO Y, and COURVILLE A, ZHAO Shenjian, LI Yujun, FU Tianfan, et al. translation. Deep Learning[M]. Beijing: Posts and Telecommunications Press.
    [11] HINTON G E, SRIVASTAVA N, KRIZHEVSKY A, et al. Improving neural networks by preventing co-adaptation of feature detectors[J]. arXiv:1207.0580, 2012.
    [12] NIELSEN M A. Neural Networks and Deep Learning[M]. San Francisco, USA: Determination Press, 2015.
    [13] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
    [14] SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1–9.
    [15] XING Chen, MA Li, and YANG Xiaoquan. Stacked denoise autoencoder based feature extraction and classification for hyperspectral images[J]. Journal of Sensors, 2016, 2016: 3632943.
    [16] DU Lan, LIU Hongwei, WANG Penghui, et al. Noise robust radar HRRP target recognition based on multitask factor analysis with small training data size[J]. IEEE Transactions on Signal Processing, 2012, 60(7): 3546–3559. doi: 10.1109/tsp.2012.2191965
    [17] RICHARDS M A, 邢孟道, 王彤, 李真芳, 等译. 雷达信号处理基础[M]. 2版. 北京: 电子工业出版社, 2017: 64–67.

    RICHARDS M A, XING Mengdao, WANG Tong, LI Zhenfang, et al. translation. Fundamentals of Radar Signal Processing[M]. 2nd ed. Beijing: Publishing House of Electronics Industry, 2017: 64–67.
  • 期刊类型引用(4)

    1. 杨威,李玮杰,刘永祥,黎湘. 基于测地线流式核的雷达目标高分辨距离像鲁棒识别方法. 电子学报. 2023(03): 527-536 . 百度学术
    2. 赵春雷,姚嘉嵘,李京效,戚张行,魏汇赞. 地基雷达空中目标识别方法研究综述. 空天预警研究学报. 2023(05): 313-320+334 . 百度学术
    3. 郭鹏程,王晶晶,杨龙顺. 雷达地面目标识别技术现状与展望. 航空兵器. 2022(02): 1-12 . 百度学术
    4. 孟亦然,穆仕博. 飞机外形变化对雷达目标识别算法的影响. 电子测试. 2022(19): 69-71 . 百度学术

    其他类型引用(4)

  • 加载中
图(9) / 表(5)
计量
  • 文章访问数: 3494
  • HTML全文浏览量: 1302
  • PDF下载量: 407
  • 被引次数: 8
出版历程
  • 收稿日期:  2019-10-23
  • 修回日期:  2019-12-07
  • 网络出版日期:  2020-08-28

目录

/

返回文章
返回