HRRP Unsupervised Target Feature Extraction Method Based on Multiple Contrastive Loss in Radar Sensor Networks
-
摘要: 基于雷达传感器网络的目标识别系统在自动目标识别领域得到了广泛的研究,该系统从多个角度对目标进行观测从而可获得稳健的目标识别能力,这也带来了多雷达传感器回波数据间相关信息和差异信息的利用问题。其次,现有研究大都需要大规模标记数据来获得目标的先验知识,考虑到大量未标注数据未被有效使用,该文研究了一种基于多重对比损失(MCL)的雷达传感器网络HRRP无监督目标特征提取方法。该方法通过联合实例级损失、Fisher损失和语义一致损失这三重损失约束,用以寻求多雷达传感器回波间具有一致性和判别性的特征向量并用于后续的识别任务。具体而言,将原始回波数据分别映射到对比损失空间和语义标签空间:在对比损失空间中,利用对比损失对样本的相似性和聚集性进行约束,使不同传感器获取的同一目标不同回波间的相对距离和绝对距离被减小,而不同目标回波样本间的距离被拉大;在语义损失空间中,通过提取到的判别特征对语义标签进行约束,实现语义信息和判别特征一致的目标。在实测民用飞机数据集上进行的实验表明,与最先进的无监督和有监督目标识别算法相比,MCL的识别准确率分别提升了0.4%和1.4%,并且MCL能有效提升多雷达传感器协同时的目标识别性能。Abstract: In recent years, target recognition systems based on radar sensor networks have been widely studied in the field of automatic target recognition. These systems observe the target from multiple angles to achieve robust recognition, which also brings the problem of using the correlation and difference information of multiradar sensor echo data. Furthermore, most existing studies used large-scale labeled data to obtain prior knowledge of the target. Considering that a large amount of unlabeled data is not effectively used in target recognition tasks, this paper proposes an HRRP unsupervised target feature extraction method based on Multiple Contrastive Loss (MCL) in radar sensor networks. The proposed method combines instance level loss, Fisher loss, and semantic consistency loss constraints to identify consistent and discriminative feature vectors among the echoes of multiple radar sensors and then use them in subsequent target recognition tasks. Specifically, the original echo data are mapped to the contrast loss space and the semantic label space. In the contrast loss space, the contrastive loss is used to constrain the similarity and aggregation of samples so that the relative and absolute distances between different echoes of the same target obtained by different sensors are reduced while the relative and absolute distances between different target echoes are increased. In the semantic loss space, the extracted discriminant features are used to constrain the semantic labels so that the semantic information and discriminant features are consistent. Experiments on an actual civil aircraft dataset revealed that the target recognition accuracy of the MCL-based method is improved by 0.4% and 1.4%, respectively, compared with the most advanced unsupervised algorithm CC and supervised target recognition algorithm PNN. Further, MCL can effectively improve the target recognition performance of radar sensors when applied in conjunction with the sensors.
-
1. 引言
雷达高分辨一维距离像(High-Resolution Range Profile, HRRP)是由宽带雷达获取的目标散射点子回波在雷达射线方向上投影的矢量和,它反映了目标散射中心沿雷达视线的分布,包含了目标丰富的几何结构、尺寸信息[1]。此外,HRRP相较于二维合成孔径雷达图像更易于获取和储存[2,3]。因此,基于HRRP的目标识别在雷达自动目标识别领域受到了广泛的关注[4−6]。
在先前的研究中,基于HRRP的雷达目标识别技术主要将单个雷达作为数据采集源[7,8],通过浅层或深层的参数化统计建模来估计数据概率分布或挖掘数据隐藏特征,然后直接基于概率密度函数进行统计识别或将特征输入分类器进行识别[9,10]。
一些研究表明由多个雷达传感器组成的雷达传感器网络(Radar Sensor Network, RSN)可以通过广泛分离的天线捕获目标雷达截面积(Radar Cross Section, RCS)的空间分集特性[11,12],利用目标RCS的散射变化显著提高识别精度。Mao等人[13]首次对RSN中的HRRPs进行调查并建立了基于最小电阻平均距离准则的序列识别决策规则,但结果往往受到特征提取和模板匹配技术的影响。Lundén等人[14]提出了一种用于RSN中HRRP目标识别的深度学习方法,该方法利用空间分集增益对不同雷达上局部分类器的输出概率进行平均,显著提高了分类精度,但当不同雷达传感器获取的信息差异较大时,识别性能较差。章鹏飞等人[15]提出了一种基于多雷达微动特征融合的无人机识别方法,通过特征拼接将两部雷达提取的时频特征进行融合。实验表明,该方法的分类精度明显优于单一雷达传感器。郭帅等人[16]提出了一种基于角度引导的Transformer融合网络,该网络以Transformer作为特征提取主体结构,并在此基础上设计了多站特征融合学习,角度引导模块、前级特征交互模块以及深层注意力特征融合模块,实现了对各站特征的多阶段层次化融合。
以上研究结果表明,与传统单雷达相比,RSN可以从多个不同视角观测目标,利用目标的空间散射特性实现多雷达协同目标识别。然而,目前的RSN目标识别方法还存在一些问题和挑战。首先,现有文献对不同雷达传感器获取的回波数据之间的相关信息和差异信息的挖掘研究不够深入,往往忽略了不同传感器提取到的目标特征间的一致性。其次,现有方法的融合策略较为简单,多采用数据拼接、特征拼接、加权决策等方法,难以实现多源信息的充分利用[16]。最后,现有研究大都需要大规模标记样本来获得目标的先验知识。然而在复杂开放环境下,尤其当目标是未知、集群的情况下,目标具有高机动性且随时间动态变化,雷达传感器网络接收到的回波数量众多且难以区分,人工标注成本大大提高,因此大量数据未被有效标注。对于人工标注数据的严重依赖阻碍了HRRP领域中监督学习模型的发展[17]。
为了克服上述问题,受自监督领域中的对比学习[18]启发,本文提出了一种基于多重对比损失的雷达传感器网络HRRP目标识别方法。具体而言,首先利用编码器作为特征提取网络从多传感器HRRP中获取目标的特征信息,该网络在传感器间权值共享。其次,在编码器上分别叠加两个简单的神经网络投影头,将特征分别映射到对比损失空间和语义损失空间。在对比损失空间中,引入实例级损失和Fisher损失来增强网络对判别特征的挖掘,也就是说,不同传感器获取的同一目标不同回波间的相对距离和绝对距离被减小,而不同目标回波样本间的距离被拉大。在语义损失空间中,通过判别特征对语义标签进行约束,实现语义信息和判别特征一致的目标。在这样一个无需标签信息的三重对比损失框架下,不同传感器回波中的一致性特征和判别性特征被充分挖掘。最后,利用提取到的特征完成下游的目标识别任务。本文的主要贡献可以概括为以下3点:
(1) 提出了一种基于雷达传感器网络的目标特征提取方法,据我们所知,MCL是首次在无监督的条件下进行多视角HRRP识别的工作。
(2) 将对比学习中的实例级损失引入所提RSN特征提取框架,并重新定义了正负样本对的含义。
(3) 提出了Fisher损失和语义一致损失并与实例级损失一起构成了三重对比损失框架,在实测数据集和仿真数据集上的实验证明了该算法的优越性。
2. RSN协同目标识别系统
本节将详细介绍MCL系统的处理流程。系统总体框图如图1所示。不同的雷达传感器接收到来自不同方向的目标HRRP信号。首先对回波数据进行预处理,通过归一化、重心对齐以降低HRRP幅度敏感性和平移敏感性的影响。其次,利用权值共享的编码器网络f(⋅)提取各雷达传感器的时序特征。在对比学习框架下,由于没有标签信息,不同类别的目标间没有“类”的概念,只有“正负样本对”的概念,正负样本对的示意图如图2所示。给定雷达传感器1获取的某一目标HRRP样本z11,该样本被视为锚点,则雷达传感器2获取的该目标的不同角度的样本z21与锚点组成了正样本对,而雷达传感器1和雷达传感器2获取的其他样本与锚点组成了负样本对。为了充分挖掘不同传感器同一目标回波间的一致信息和判别信息,需要考虑以下3个方面:一是正样本对间的相似性要最大化,负样本对间的相似性要最小化;二是正样本对要在对比损失空间中聚集,负样本对要在对比损失空间中散开;三是投影到对比损失空间中的判别特征和语义标签空间中的标签特征具有一致性,也就是说样本对的相似程度、聚集程度要在两个空间中要保持一致。针对以上问题分别提出了实例级损失、Fisher损失以及语义一致损失,并将这三重损失集中到一个总的损失函数框架下,通过对网络迭代优化,最终得到利于后续识别任务的具有一致性和判别性的多雷达传感器回波特征。具体实现方法如下。
2.1 回波模型与数据预处理
当宽带雷达的径向距离分辨率远小于目标尺寸时,可以将目标建模为一组独立的散射中心[19],HRRP是来自目标上每个散射中心的回波矢量的总和。考虑雷达带宽为B,则雷达距离分辨率为Δr=c/c2B(2B),沿着雷达视线,目标可以被划分为许多宽度为Δr的距离单元,在频率fi下,第i个单元的回波可以表示为
yi=K∑k=1akexp(j4πficrk)+ωi (1) 其中,ak是第k个散射体的振幅,rk是雷达到第k个散射体的距离,K是散射体的数量,ωi是测量噪声,c是光速。
HRRP可以通过对不同频率的散射电场进行傅里叶逆变换得到:
xn=1NN∑i=1yiexp(j2πniN),n=1,2,⋯,N (2) 其中,N是频率的数目。由于实际应用中,将HRRP的幅度矢量应用于雷达目标识别。对复HRRP数据取模,得到实HRRP数据:
x=[|x1|,|x2|,⋯,|xN|]T (3) 在使用HRRP进行雷达目标识别时,需要考虑平移敏感性、幅度敏感性和方位敏感性等问题[20]。HRRP的幅值受雷达发射功率、目标距离、雷达天线增益、雷达接收机增益、雷达系统损耗等因素的影响,不同雷达接收到的不同目标的HRRP回波幅值差异较大,称为幅度敏感性。采用模2范数归一化的方法处理HRRP数据,克服了数据幅值尺度不一致的问题:
xnor=x√N∑n=1x2i (4) 由于HRRP样本只是由距离窗口提取的接收雷达回波的一部分,目标信号包含在距离窗口中,因此目标信号在HRRP样本中的位置可能随着测量而变化,这就是平移敏感性。本文采用重心对齐方法来减轻平移敏感性的影响。HRRP的重心可由式(5)求得
G=N∑n=1n⋅xnN∑n=1xn (5) 对xnor进行循环移位操作,使其重心位于距离窗的中心位置即可得到重心对齐后的HRRP样本xali。
在雷达视距内,随着目标朝向的变化,目标散射中心的相对位置发生变化,有的散射体甚至会穿过不同的距离单元,导致目标回波波形的变化,这被称为方位敏感性[21]。在本文中,考虑每个雷达传感器对一定方位角内的目标进行观测,各角域中目标姿态变化较小,且MCL的主干网络能提取到HRRP的角度不变特征,一定程度上降低了方位敏感性的影响。
2.2 主干网络
编码器f(⋅)用于从预处理后的HRRP样本中提取特定于雷达传感器的特征表示。框架允许依据数据的不同特点对编码器的具体网络架构(CNN, RNN, LSTM)进行调整,通过编码器来获得特征向量ym:
ym=f(xm) (6) 其中,ym∈RN×Df, xm∈RN×D表示第m个雷达传感器预处理后的回波数据,N为样本数,D和Df分别表示编码前后的特征维度。
判别特征投影头gdis(⋅)将特征向量映射到执行对比损失的潜在空间。该投影头由两个线性层加一个激活函数来表示,第1层和第2层的隐藏层节点数可根据实际数据调整,最终得到判别特征向量zm:
zm=gdis(ym)=W(2)disσ(W(1)disym) (7) 其中,σ是矫正线性单元(Rectified Linear Unit, ReLU),W(i)是第i层网络迭代的权重,根据文献[22]的研究结果,线性投影后的特征向量形成了更多有助于下游任务的信息,分类准确率相比投影前提升超过8%。因此将对比损失定义在zm上比定义在ym上更有利。
语义损失投影头glab(⋅)将特征向量映射到语义标签空间。该投影头从特征向量中获取端到端的聚类分配,语义标签由聚类分配中最大元素对应的集群标识。该投影头同样由两个线性层加一个激活函数来表示,但第2层的隐藏层节点数设置为目标类别数C,并添加一层softmax,最终得到语义标签qm:
qm=glab(ym)=softmax(W(2)labσ(W(1)labym)) (8) 其中,qm表示第m个雷达回波中,每个样本属于C类目标的概率。因此将所有样本的特征向量ym映射到语义标签空间可看作寻找特征向量的伪标签。
2.3 对损失空间中的损失函数
对比损失空间中包含实例级损失函数和Fisher损失函数。实例级损失函数是指通过要求特征对单个实例样本具有区别性来学习一个良好的特征表示,以捕获实例之间的明显相似性,而不是类。
按照“实例判别”的思路[18],将不同雷达收到的同一目标的不同视角的回波视为正对,不同雷达或同一雷达获取的不同样本视为负对。假设有M个雷达传感器对N个目标样本进行观测,经过预处理和主干网络特征提取后得到MN个判别特征向量{zmi},m∈[1,2,⋯,M],i∈[1,2,⋯,N]。给定某一雷达传感器观测的某一样本的特征向量z1i,则{z2i,z3i,⋯,zMi},i∈[1,2,⋯,N] 被视为该样本的(M−1)个正样本对,其余M(N−1)个样本则为负样本对。实例级对比损失LI通过最大化正样本对之间的相似性和最小化负样本对之间的相似性来学习HRRP的特征表示。在实例级对比损失中,成对相似性是通过余弦距离sim(p,q)来测量的,表示如下:
sim(p,q)=pTq‖ (9) 则 {{\boldsymbol{z}}}_i^m 和 {{\boldsymbol{z}}}_i^n 这一正样本对的对比损失 L_i^{\left( {mn} \right)} 计算如下:
L_i^{\left( {mn} \right)} = - \log \frac{{\exp \left( {{\text{sim}}\left( {{{\boldsymbol{z}}}_i^m,{{\boldsymbol{z}}}_i^n} \right)/{\tau }} \right)}}{{\displaystyle\sum\limits_{j = 1}^N {\left\{ {{1_{\left[ {j \ne i} \right]}}\left[ \begin{gathered} \exp \left( {{\text{sim}}\left( {{\boldsymbol{z}}_i^m,{\boldsymbol{z}}_j^m} \right)} \right) + \\ \exp \left( {{\text{sim}}\left( {{\boldsymbol{z}}_i^m,{\boldsymbol{z}}_j^n} \right)} \right)/{\tau } \\ \end{gathered} \right]} \right\}} }} (10) 其中, {1_{\left[ {j \ne i} \right]}} \in \left[ {0,1} \right] 是指示函数,当j \ne i时其值为1,{\tau }表示温度参数。实例级损失函数{L_{\mathrm{I}}}是通过求和所有正样本对的对比损失得到的:
{L_{\mathrm{I}}} = \frac{1}{{2N}}\sum\limits_{m = 1}^M {\sum\limits_{\mathop {n = 1}\limits_{(n \ne m)} }^M {\sum\limits_{i = 1}^N {L_i^{\left( {mn} \right)}} } } (11) 为了进一步提升正样本对在特征空间中的聚集性,提出了Fisher损失{L_{\mathrm{R}}}:
{L_{\mathrm{R}}} = \frac{{{{\boldsymbol{S}}}_{\mathrm{W}}^y}}{{{{\boldsymbol{S}}}_{\mathrm{B}}^y}} (12) 将M个雷达传感器观测同一目标的M个样本看成一类。{{\boldsymbol{S}}}_{\mathrm{W}}^y表示所有样本的类内散射,{{\boldsymbol{S}}}_{\mathrm{B}}^y表示所有样本的类间散射,类内散射{{\boldsymbol{S}}}_{\mathrm{W}}^y计算如下:
{{\boldsymbol{S}}}_{\mathrm{W}}^y = \frac{1}{{MN}}\sum\limits_{m = 1}^M {\sum\limits_{i = 1}^N {\left( {{{\left( {{\boldsymbol{z}}_i^m - {{{\boldsymbol{\mu}} }_i}} \right)}^{\mathrm{T}}}\left( {{\boldsymbol{z}}_i^m - {{{\boldsymbol{\mu}} }_i}} \right)} \right)} } (13) 其中, {{{\boldsymbol{\mu}} }_i} = {1}/{M}\displaystyle\sum\nolimits_{m = 1}^M {{\boldsymbol{z}}_i^m} 表示由不同雷达传感器观测的同一目标样本的均值。类间散射{{\boldsymbol{S}}}_{\mathrm{B}}^y计算如下:
{{\boldsymbol{S}}}_{\rm{B}}^y = \sum\limits_{i = 1}^N {{{({{{\boldsymbol{\mu}} }_{i}} - {{\boldsymbol{\mu}} })}^{\mathrm{T}}}({{{\boldsymbol{\mu}} }_{i}} - {{\boldsymbol{\mu}} })} (14) 其中,{{\boldsymbol{\mu}} = } {1}/{N}\displaystyle\sum\nolimits_{i = 1}^N {{{{\boldsymbol{\mu}} }_{i}}} 表示一个小批量内所有雷达传感器观测的所有目标样本的均值。
类内散射矩阵{{\boldsymbol{S}}}_{\mathrm{W}}^y强制性地拉近了正样本对间的绝对距离,增强了其在特征空间中的聚集性,确保了不同雷达传感器观测到同一目标样本的判别特征的一致性。而类间散射矩阵{{\boldsymbol{S}}}_{\mathrm{B}}^y最大化了不同正样本对间的绝对距离,确保了不同样本在特征空间中的可分性。最后,结合实例级损失和Fisher损失,我们确定了对比损失空间中的损失函数:
{L_{\mathrm{C}}} = {\lambda _1}\times {L_{\mathrm{I}}} + {\lambda _2} \times {L_{\mathrm{R}}} (15) 其中,{\lambda _1}和{\lambda _2}为平衡参数。
2.4 语义损失空间中的损失函数
经过语义损失投影头{{{\boldsymbol{g}}}_{{\text{lab}}}}\left( \cdot \right)得到的语义标签向量{{{\boldsymbol{q}}}^m}代表了目标样本的伪标签。由于判别特征{{{\boldsymbol{z}}}^m}已经经过对比损失约束,因此在对比损失空间中正样本对互相靠近且聚集,负样本对互相远离而分散。我们期望正负样本对在语义空间中的相似程度、聚集程度能和在对比损失空间中的保持一致,这样就能利用特征的判别性去修正伪标签,实现“去伪存真”。为了实现该一致性约束我们提出了语义一致损失{L_{\mathrm{S}}},利用正负样本对特征的相似性对语义的相似性进行约束。
相似性仍然用余弦距离来度量,对于M个雷达传感器观测到的N个样本,不同样本间判别特征向量的相似性Z_{ij}^m表示如下:
Z_{ij}^m{\text{ = sim}}\left( {{{\boldsymbol{z}}}_i^m,{{\boldsymbol{z}}}_j^m} \right) = \frac{{{{\left( {{{\boldsymbol{z}}}_i^m} \right)}^{\mathrm{T}}}{{\boldsymbol{z}}}_j^m}}{{\left\| {{{\boldsymbol{z}}}_i^m} \right\|\left\| {{{\boldsymbol{z}}}_j^m} \right\|}} (16) 其中,i \in \left[ {1,N} \right],\;j \in \left[ {1,N} \right],不同样本间语义特征向量的相似性 Q_{ij}^m 表示如下:
Q_{ij}^m{\text{ = sim}}\left( {{{\boldsymbol{q}}}_i^m,{{\boldsymbol{q}}}_j^m} \right) = \frac{{{{\left( {{{\boldsymbol{q}}}_i^m} \right)}^{\mathrm{T}}}{{\boldsymbol{q}}}_j^m}}{{\left\| {{{\boldsymbol{q}}}_i^m} \right\|\left\| {{{\boldsymbol{q}}}_j^m} \right\|}} (17) 则语义损失定义如下:
{L_{\mathrm{S}}} = \frac{1}{{2M}}\sum\limits_{m = 1}^M {\sum\limits_{i = 1}^N {\sum\limits_{j = 1}^N {\left\| {Z_{ij}^m - Q_{ij}^m} \right\|_2^2} } } (18) 最终,基于式(11)、式(12)和式(18),MCL系统的总体损失函数定义如下:
L = {\lambda _1} \times {L_{\mathrm{I}}} + {\lambda _2} \times {L_{\mathrm{R}}} + {\lambda _3}{L_{\mathrm{S}}} (19) 其中,{\lambda _3}为平衡参数。
2.5 MCL总体优化过程
算法1总结了MCL系统的整个优化过程。具体来说,我们采用Adam算法来训练模型,该模型由一个权值共享的序列特征编码器、一个判别特征投影头和一个语义损失投影头组成。通过式(6)、式(7)、式(8)获取多雷达数据的判别特征向量和语义标签向量,再通过式(11)、式(12)、式(18)计算网络的多重对比损失函数,最后反馈迭代网络权重,输出HRRP样本的特征表示{{\boldsymbol{y}}}_i^m用于下游的识别任务。
1 MCL算法1. MCL algorithm输入:雷达传感网络观测数据{{\boldsymbol{x}}}_i^m,目标类别数C,温度参数
{\tau },平衡参数\lambda 。输出:各观测样本的特征表示{{\boldsymbol{y}}}_i^m。 1:通过式(4)、式(5)对HRRP数据进行预处理。 2:通过式(6)、式(7)、式(8)计算雷达传感器网络观测数据的特
征表示、判别特征向量和语义标签向量。3:根据式(11)、式(12)、式(18)分别计算实例级损失、Fisher损
失和语义损失。4:利用Adam算法优化网络权重f和W。 5:根据式(6)计算各观测样本的特征表示{{\boldsymbol{y}}}_i^m。 3. 实验及结果分析
3.1 数据描述和实验设置
在本节中,在实测民用飞机HRRP数据集开展实验。该数据由自主研发的宽带雷达系统采集,雷达带宽为200 MHz,采集的4种民用飞机型号分别为空客A319, A320, A321和波音B738,各类目标的物理参数如表1所示。它们的飞行路线大致相同,依据目标方位角的变化将数据划分为3段,分别将每段数据作为各雷达传感器的观测数据,数据集的详细描述如表2所示。图3显示了从不同雷达传感器观测到的民用飞机的HRRP样本,不同颜色的曲线代表不同角度观测的数据。可以看出,同一目标在不同雷达传感器上观测到的HRRP存在明显差异,因此如果能充分挖掘RSN回波中与目标判别特征有关的一致信息和互补信息,则会使协同探测取得更好的识别结果。
表 1 目标物理参数Table 1. Parameters of targets飞机型号 机长(m) 翼展(m) 机高(m) A321 44.51 34.10 11.76 A320 37.57 34.10 11.76 A319 33.84 34.10 11.76 B738 39.50 35.79 12.50 表 2 实测HRRP数据集详细描述Table 2. Description of the HRRP datasets数据集参数 数值 带宽 200 MHz 目标类型 民用飞机 目标类型数目 4 每部雷达训练样本数 4800 每部雷达测试样本数 2400 样本维度 600 观测角 雷达1 0°~15° 雷达2 45°~60° 雷达3 80°~95° 实验中,MCL训练时无需监督信息,为了验证MCL的特征提取能力,我们遵循广泛使用的线性评估协议[22],即冻结训练好的主干特征提取网络,在冻结的主干网络上用小部分带标签的数据训练线性分类器。对每类目标按照6:3:1的比例将数据集划分训练集、测试集和微调集。在微调集中,用于微调的数据比例称为微调率并表示为{\text{Pe}} = {{{N_{{\text{re}}}}} \mathord{\left/ {\vphantom {{{N_{{\text{re}}}}} N}} \right. } N}, {N_{{\text{re}}}}为用于微调的带标签数据的样本数,N为数据集的样本总数。
实验用到的计算机配置:CPU (i7-11700F),GPU (NVIDIA 3060Ti),计算机内存为16 GB。实验在MATLAB R2023b和Pytorch框架上进行。训练轮次设置为50,训练批量大小为256,初始学习率设置为0.01,优化器采用Adam,判别特征投影头 {{\boldsymbol{W}}}_{{\text{dis}}}^{(1)} 和 {{\boldsymbol{W}}}_{{\text{dis}}}^{(2)} 的隐藏层节点数分别为100和64,语义损失投影头 {{\boldsymbol{W}}}_{{\text{lab}}}^{(1)} 和 {{\boldsymbol{W}}}_{{\text{lab}}}^{(2)} 的隐藏层节点数分别为100和4。
3.2 实验结果及分析
3.2.1 参数敏感性评估
在对所提出的MCL进行性能分析之前,首先需要确定算法中的超参数,包括损失函数中的3个平衡参数{\lambda _1}, {\lambda _2}和{\lambda _3},以及温度参数{\tau }。平衡参数会影响各部分损失函数在整个目标函数中所占的比例。温度参数决定了实例级损失函数对困难负样本(与正样本偏离较大的样本)的关注程度[23],温度参数较小时,模型会更加关注困难负样本,随着温度参数的增大,这种“注意力”会逐渐减弱。对于平衡参数,我们把实验分成3组,首先我们探究{\lambda _1}和{\lambda _2}对识别结果的影响,设置{\lambda _1}和{\lambda _2}分别为\{ 0.01, 0.02, \cdots, 0.10\} 和\{ 0.01,0.02, \cdots, 0.10\} ,实验结果如图4(a)所示,随着{\lambda _1}的增加,识别率逐渐升高,而{\lambda _2}对识别率的影响并不是很明显。因此接下来我们固定{\lambda _1} = 0.10,设置{\lambda _2}和{\lambda _3}分别为\{ 0.01,0.02, \cdots, 0.10\} 和\{ 0.01,0.02, \cdots, 0.10\} ,实验结果如图4(b)所示,可以看出随着{\lambda _3}的减少,识别率逐渐升高,而当{\lambda _3}不变时,{\lambda _2} = 0.05,识别率达到最高。最后,我们固定{\lambda _2} = 0.05,设置{\lambda _1}和{\lambda _3}分别为\{ 0.01,0.02, \cdots, 0.10\} 和\{ 0.01,0.02, \cdots, 0.10\} ,实验结果如图4(c)所示,可以看出随着{\lambda _3}的减少,{\lambda _1}增加,识别率逐渐升高。最终我们选取{\lambda _1} = 0.10, {\lambda _2} = 0.05和{\lambda _3} = 0.01来进行下面的实验。
对于温度参数,我们设置{\tau}在\{ {10^{ - 1}},{10^0}, \cdots, {10^5}\} 之间变化,实验结果如图5所示。可以看出,随着{\tau }的增大,识别率先上升后下降,在{\tau } = 1000时达到最大识别率。该值下的温度系数使模型不会过分关注困难负样本,也不会使负样本在对比损失空间中的表示过于均匀,因此我们选取{\tau } = 1000来进行下面的实验。
3.2.2 整体性能评估
由于所提MCL是一个开放的框架,允许依据数据的不同特点对编码器的具体网络架构进行修改,针对本文所研究的雷达传感器网络HRRP目标识别问题,本文选择ResNet作为主干网络来进行性能评估实验。其中,ResNet网络由两个残差块构成,卷积核大小为1 \times 5,通道数为64,步长为1。为了进一步评估MCL的优越性能,本文选取了多种方法进行识别性能对比,包括无监督方法:基线(随机初始化主干网络权重,只训练后面的分类头)、MoCo[24], SwAV[25], SimCLR[22], CC[26] 4种经典的对比学习方法、所提方法的性能上界(在标签信息已知的情况下利用三重对比损失进行特征提取)以及监督学习方法:基线(将不同雷达的数据拼接后用交叉熵损失函数训练网络)、AMM[27], TACNN[28], PNN[29] 3种用于HRRP目标识别的监督学习方法。其中,所有方法的训练样本数量、批训练大小、初始学习率和训练轮次都与本文保持一致,MoCo中队列数为2000,动量值为0.9,SwAV中聚类分配由K-means获得,CC中聚类头的隐藏层节点数为100和64。由于监督学习方法需要用到全部带标签的训练数据,因此没有{\text{Pe}}这项指标。表3为所提MCL与其他方法在实测HRRP数据集上的识别结果对比。
表 3 各种HRRP识别方法在实测HRRP数据集上的识别率Table 3. Recognition rates of various HRRP recognition methods on measured HRRP data sets方法 策略 \mathrm{Pe} 参数量(M) 0.01 0.05 0.1 无监督对比学习方法 基线 冻结网络只训练分类头 0.591 0.676 0.729 0.065 MoCo[24] 字典查询与动量更新 0.926 0.934 0.949 0.298 SwAV[25] 原型聚类预测 0.947 0.951 0.963 0.301 SimCLR[22] 实例级损失 0.967 0.979 0.984 0.298 CC[26] 实例级和标签损失 0.969 0.980 0.985 0.314 MCL(ours) 三重对比损失 0.977 0.986 0.989 0.308 MCL(label) 带标签约束的对比损失 0.985 0.992 0.993 0.308 HRRP监督学习方法 基线 交叉熵损失 0.927 0.226 AMM[27] 网络嵌套和动态调整 0.969 0.051 TACNN[28] 局部特征注意 0.956 0.998 PNN[29] 并行神经网络 0.975 1.712 首先,对比学习类方法的识别准确率均超过了基线方法,说明即使训练时没有标签信息,通过对个体样本施加损失约束,网络依然可以提取到有助于目标识别的有效特征表示。在该类方法中,所提MCL获得了最优的识别性能。与经典的SimCLR相比,识别准确率在{\text{Pe}} = 0.01, 0.05和0.10的条件下分别提升了1.0%, 0.7%和0.5%。这是因为SimCLR只考虑了正负样本对间的相对距离,也就是说,正样本对之间的距离只需要比负样本对之间的距离更近,那么损失约束就有效。而MCL通过添加Fisher损失,强制性地让正样本对间的绝对距离缩小,也就是正样本对在特征空间中更加聚集,因此识别率获得了提升。与最先进的CC相比,识别准确率在{\text{Pe}} = 0.01, 0.05和0.10的条件下分别提升了0.8%, 0.6%和0.4%。这是因为CC采用了实例级和标签双重损失,标签损失是发生在聚类空间的,聚类的结果会极大程度上影响网络的特征提取能力。而所提MCL的语义标签损失虽然也发生聚类空间,但MCL并不依赖于聚类结果,而是依据对比损失空间提取到的判别特征对语义标签进行修正,在判别特征的约束下,语义标签的聚类结果更加可靠,因此识别率获得了提升。我们还给出了所提MCL的性能上界,在监督信息已知的情况下,正负样本对的定义不再以“样本”为单位,而是以“类型”为单位,即将不同雷达收到的同类目标的多个回波信号都视为正样本对,将不同类目标的回波视为负样本对。实验结果表明监督条件下MCL的识别准确率优于所有的对比学习方法和监督学习方法。一方面是因为监督信息为主干网络提供了更多的正样本对,加强了网络对正样本信息的获取,加深了网络的判别能力;另一方面则是无监督情况下,负样本对中存在同类目标的不同样本,而监督信息帮我们剔除掉了这部分的样本,因此负样本对间的相似性大大降低。
与用于HRRP目标识别的监督学习方法相比,所提MCL的识别性能在所有微调率情况下都优于4种监督学习方法,相较最先进PNN,识别准确率在{\text{Pe}} = 0.01, 0.05和0.10的条件下分别提升了0.2%, 1.1%和1.4%。所提方法优于监督方法的原因是在多视角HRRP识别任务下,三重对比损失框架通过正负样本对的定义,使不同雷达的接收回波趋于相似,因此经过网络提取到的判别特征具有一致性,而标签映射框架对单部雷达下不同类型目标提取到的特征具有很强的判别性,但当把不同雷达对同一目标提取到的特征集成在一起时,特征间的一致性较差就会产生部分性能损失。因此,我们认为所提对比学习框架更适合于雷达传感器网络联合特征提取。值得注意的是,即使在{\text{Pe}} = 0.01的条件下,也就是用极少一部分带标签的数据微调网络,无监督对比学习方法的识别准确率仍然与HRRP监督方法相当,这将大大降低我们对数据集的要求,也就是说用于训练的样本若足够的充分,网络的特征提取能力和识别准确率还能进一步提升。
表3还给出各个方法的参数量的对比。本文所提出的MCL的参数量与其他最先进的对比学习类算法相当,但远低于TACNN和PNN这两个监督学习算法,且识别性能上有着明显提升,进一步表明了MCL的优越性。
图6为所提MCL在实测数据集下的混淆矩阵,{\text{Pe}} = 0.10,从图中可以看出,MCL对A320的识别性能最好,识别率达到了100%。对A321的识别性能最差,识别率为97.5%。进一步观察类间误判情况,误判主要集中在B738和A321这两个目标上,分析其原因,从物理层面看是由目标的自身特征相近造成的,B738和A321的机身长度较为接近;从特征层面看是由于这两个目标在特征空间中存在交叠。
3.2.3 特征子空间性能评估
为了进一步验证MCL的特征提取能力,我们使用t-SNE对HRRP数据集进行二维特征可视化分析,结果如图7所示,图中不同的颜色代表不同类型的目标。图7(a)为原始数据的二维特征分布,可以看出原始数据特征分布广泛,每类目标的特征分布呈发散状,且不同目标间会有部分数据的特征相互重叠,这符合数据的实际情况。图7(b)是经过MCL处理后的特征分布。可以看出数据在特征空间上有了很好的聚合性,特征分布不再是向外发散而是聚成4簇(目标数量为4),且不同目标间有了明显的边界。这是因为MCL的三重对比损失强制性拉近了正样本对间的相对和绝对距离,推远了负样本对间的距离,使正样本对在特征空间中更加聚集。从特征分布图上也可以看出,在图7(b)的下方,B738(蓝色)和A321(橙色)这两个目标存在部分特征交叠的情况,因此误判主要集中在这两个目标上,符合混淆矩阵的识别情况。
3.2.4 消融实验评估
为了评估MCL中实例级损失、Fisher损失和语义损失3部分对识别性能的贡献,我们将冻结网络只训练分类头作为基线方法,并逐步将各个损失模块添加到基线方法中进行消融比较实验。消融实验结果如表4所示。基线方法在{\text{Pe}} = 0.01, 0.05和0.10的条件下的识别准确率分别为59.1%, 67.6%和72.9%。在基线方法中仅加入实例级损失模块后,识别准确率分别提高37.6%, 30.3%和25.5%;仅加入Fisher损失模块时,识别准确率分别提高了34.6%, 26.8%和22.8%;仅加入语义损失模块时,识别准确率分别提高了6.6%, 13.3%和13.0%。语义损失模块提升较少是因为语义损失本身并不具备特征提取能力,语义损失的作用是使正负样本对在语义空间中的相似程度、聚集程度和在对比损失空间中的保持一致,这样就能利用特征的判别性去修正伪标签。而将三重损失模块全部加入后,识别准确率达到了最高的97.7%, 98.6%和98.9%,表明3个模块可以协同工作互相增强,获得最大的识别性能提升。
表 4 消融实验结果Table 4. Results of ablation experiment实例级损失 Fisher
损失语义
损失{\text{Pe}} 0.01 0.05 0.10 – – – 0.591 0.676 0.729 √ – – 0.967 0.979 0.984 – √ – 0.937 0.944 0.957 √ 0.657 0.809 0.859 √ √ 0.968 0.982 0.986 √ √ 0.943 0.953 0.961 √ √ 0.962 0.976 0.984 √ √ √ 0.977 0.986 0.989 3.2.5 雷达数量与观测角度评估
由于所提方法面向对象是雷达传感器网络,接下来我们探究雷达传感器数量对识别性能的影响。在此实验设置下,假定最多有5个雷达传感器,我们首先将实测数据集依据方位角划分成5段数据,每段数据作为各雷达传感器的观测数据,每段数据的方位角变化范围为{20^ \circ }。当待评估雷达数量为n时,遍历所有可能的雷达组合,分别运行C_5^n次识别实验,取C_5^n次识别结果的平均值作为准确率。实验结果如表5所示。从表5中可以看出随着雷达数量的增加,识别准确率稳步上升,这表明MCL提取到的特征间的一致性较好,可以充分利用回波数据间的相关信息和互补信息。在实际应用中,用于观测的雷达传感器数量没有必要过多增加,多雷达协同观测带来识别性能的提升也会加重雷达资源的消耗。在雷达资源有限的情况下,可以在雷达数量和识别准确率中平衡取舍。
表 5 雷达传感器数量对识别率的影响Table 5. The influence of the number of radar sensors on the recognition rate雷达数量 Pe 0.01 0.05 0.10 2 0.753 0.772 0.785 3 0.955 0.966 0.972 4 0.985 0.986 0.988 5 0.990 0.993 0.995 3.2.6 仿真数据性能评估
为了更加真实地模拟同一时间不同雷达在不同视角下的观测数据,我们利用后向散射模拟软件构建了雷达传感器网络HRRP仿真数据集。目标型号包括7种军用飞机:B-52, B-1B, Tornado, Mig-21, An-26, Ah-64和F-15。每部雷达带宽均为400 MHz,雷达观测角分别为0°, 60°和120°,每部雷达接收每类型目标的回波包含600个HRRP样本,为了使仿真数据更贴合实际并增加样本数,在每个信号中随机加入信噪比为0~20 dB的高斯白噪声并对数据扩充5倍。最终,每个类别的样本数量扩充到
3000 个。图8为{\text{Pe}} = 0.10条件下的混淆矩阵,可以看出在不同的HRRP数据集上MCL仍然能取得较高的识别准确率。4. 结语
针对雷达传感器网络中目标识别问题,本文提出了一种基于多重对比损失的目标特征提取方法。首先对各雷达传感器接收回波进行预处理以消除HRRP敏感性;然后通过ResNet网络提取目标特征并叠加两个简单的神经网络投影头,将特征分别映射到对比损失空间和语义损失空间:在对比损失空间中,引入实例级损失和Fisher损失来增强网络对判别特征的挖掘;在语义损失空间中,通过判别特征对语义标签进行约束,实现语义信息和判别特征一致的目标。最终通过三重对比损失迭代网络权重得到最优目标特征向量从而完成下游识别任务。在实测民用飞机数据集和仿真军用飞机数据集上进行的各种评估结果证明了MCL的优越性。与无监督算法中最先进的CC和有监督算法中最先进的PNN相比,MCL的识别准确率在{\text{Pe}} = 0.10条件下分别提升了0.4%和1.4%。在未来,我们将考虑RSN目标识别中更加复杂的情况,如强干扰、强杂波和隐身目标。并且我们将考虑监督信息和对比框架结合的RSN特征提取方法。
-
1 MCL算法
1. MCL algorithm
输入:雷达传感网络观测数据{{\boldsymbol{x}}}_i^m,目标类别数C,温度参数
{\tau },平衡参数\lambda 。输出:各观测样本的特征表示{{\boldsymbol{y}}}_i^m。 1:通过式(4)、式(5)对HRRP数据进行预处理。 2:通过式(6)、式(7)、式(8)计算雷达传感器网络观测数据的特
征表示、判别特征向量和语义标签向量。3:根据式(11)、式(12)、式(18)分别计算实例级损失、Fisher损
失和语义损失。4:利用Adam算法优化网络权重f和W。 5:根据式(6)计算各观测样本的特征表示{{\boldsymbol{y}}}_i^m。 表 1 目标物理参数
Table 1. Parameters of targets
飞机型号 机长(m) 翼展(m) 机高(m) A321 44.51 34.10 11.76 A320 37.57 34.10 11.76 A319 33.84 34.10 11.76 B738 39.50 35.79 12.50 表 2 实测HRRP数据集详细描述
Table 2. Description of the HRRP datasets
数据集参数 数值 带宽 200 MHz 目标类型 民用飞机 目标类型数目 4 每部雷达训练样本数 4800 每部雷达测试样本数 2400 样本维度 600 观测角 雷达1 0°~15° 雷达2 45°~60° 雷达3 80°~95° 表 3 各种HRRP识别方法在实测HRRP数据集上的识别率
Table 3. Recognition rates of various HRRP recognition methods on measured HRRP data sets
方法 策略 \mathrm{Pe} 参数量(M) 0.01 0.05 0.1 无监督对比学习方法 基线 冻结网络只训练分类头 0.591 0.676 0.729 0.065 MoCo[24] 字典查询与动量更新 0.926 0.934 0.949 0.298 SwAV[25] 原型聚类预测 0.947 0.951 0.963 0.301 SimCLR[22] 实例级损失 0.967 0.979 0.984 0.298 CC[26] 实例级和标签损失 0.969 0.980 0.985 0.314 MCL(ours) 三重对比损失 0.977 0.986 0.989 0.308 MCL(label) 带标签约束的对比损失 0.985 0.992 0.993 0.308 HRRP监督学习方法 基线 交叉熵损失 0.927 0.226 AMM[27] 网络嵌套和动态调整 0.969 0.051 TACNN[28] 局部特征注意 0.956 0.998 PNN[29] 并行神经网络 0.975 1.712 表 4 消融实验结果
Table 4. Results of ablation experiment
实例级损失 Fisher
损失语义
损失{\text{Pe}} 0.01 0.05 0.10 – – – 0.591 0.676 0.729 √ – – 0.967 0.979 0.984 – √ – 0.937 0.944 0.957 √ 0.657 0.809 0.859 √ √ 0.968 0.982 0.986 √ √ 0.943 0.953 0.961 √ √ 0.962 0.976 0.984 √ √ √ 0.977 0.986 0.989 表 5 雷达传感器数量对识别率的影响
Table 5. The influence of the number of radar sensors on the recognition rate
雷达数量 Pe 0.01 0.05 0.10 2 0.753 0.772 0.785 3 0.955 0.966 0.972 4 0.985 0.986 0.988 5 0.990 0.993 0.995 -
[1] 陈健, 杜兰, 廖磊瑶. 基于参数化统计模型的雷达HRRP目标识别方法综述[J]. 雷达学报, 2022, 11(6): 1020–1047. doi: 10.12000/JR22127.CHEN Jian, DU Lan, and LIAO Leiyao. Survey of radar HRRP target recognition based on parametric statistical model[J]. Journal of Radars, 2022, 11(6): 1020–1047. doi: 10.12000/JR22127. [2] DONG Ganggang and LIU Hongwei. A hierarchical receptive network oriented to target recognition in SAR images[J]. Pattern Recognition, 2022, 126: 108558. doi: 10.1016/j.patcog.2022.108558. [3] ZHANG Yukun, GUO Xiansheng, LEUNG H, et al. Cross-task and cross-domain SAR target recognition: A meta-transfer learning approach[J]. Pattern Recognition, 2023, 138: 109402. doi: 10.1016/j.patcog.2023.109402. [4] CHEN Bo, LIU Hongwei, CHAI Jing, et al. Large margin feature weighting method via linear programming[J]. IEEE Transactions on Knowledge and Data Engineering, 2009, 21(10): 1475–1488. doi: 10.1109/TKDE.2008.238. [5] MOLCHANOV P, EGIAZARIAN K, ASTOLA J, et al. Classification of aircraft using micro-Doppler bicoherence-based features[J]. IEEE Transactions on Aerospace and Electronic Systems, 2014, 50(2): 1455–1467. doi: 10.1109/TAES.2014.120266. [6] LI Xiaoxiong, ZHANG Shuning, ZHU Yuying, et al. Supervised contrastive learning for vehicle classification based on the IR-UWB radar[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5117312. doi: 10.1109/TGRS.2022.3203468. [7] CHEN Jian, DU Lan, HE Hua, et al. Convolutional factor analysis model with application to radar automatic target recognition[J]. Pattern Recognition, 2019, 87: 140–156. doi: 10.1016/j.patcog.2018.10.014. [8] FENG Bo, CHEN Bo, and LIU Hongwei. Radar HRRP target recognition with deep networks[J]. Pattern Recognition, 2017, 61: 379–393. doi: 10.1016/j.patcog.2016.08.012. [9] DU Lan, LIU Hongwei, WANG Penghui, et al. Noise robust radar HRRP target recognition based on multitask factor analysis with small training data size[J]. IEEE Transactions on Signal Processing, 2012, 60(7): 3546–3559. doi: 10.1109/TSP.2012.2191965. [10] XU Bin, CHEN Bo, WAN Jinwei, et al. Target-aware recurrent attentional network for radar HRRP target recognition[J]. Signal Processing, 2019, 155: 268–280. doi: 10.1016/j.sigpro.2018.09.041. [11] SHI Lei, WANG Penghui, LIU Hongwei, et al. Radar HRRP statistical recognition with local factor analysis by automatic Bayesian Ying-Yang harmony learning[J]. IEEE Transactions on Signal Processing, 2011, 59(2): 610–617. doi: 10.1109/TSP.2010.2088391. [12] LIAO Leiyao, DU Lan, and CHEN Jian. Class factorized complex variational auto-encoder for HRR radar target recognition[J]. Signal Processing, 2021, 182: 107932. doi: 10.1016/j.sigpro.2020.107932. [13] MAO Chengchen and LIANG Jing. HRRP recognition in radar sensor network[J]. Ad Hoc Networks, 2017, 58: 171–178. doi: 10.1016/j.adhoc.2016.09.001. [14] LUNDÉN J and KOIVUNEN V. Deep learning for HRRP-based target recognition in multistatic radar systems[C]. 2016 IEEE Radar Conference, Philadelphia, USA, 2016: 1–6. doi: 10.1109/RADAR.2016.7485271. [15] 章鹏飞, 李刚, 霍超颖, 等. 基于双雷达微动特征融合的无人机分类识别[J]. 雷达学报, 2018, 7(5): 557–564. doi: 10.12000/JR18061.ZHANG Pengfei, LI Gang, HUO Chaoying, et al. Classification of drones based on micro-Doppler radar signatures using dual radar sensors[J]. Journal of Radars, 2018, 7(5): 557–564. doi: 10.12000/JR18061. [16] 郭帅, 陈婷, 王鹏辉, 等. 基于角度引导Transformer融合网络的多站协同目标识别方法[J]. 雷达学报, 2023, 12(3): 516–528. doi: 10.12000/JR23014.GUO Shuai, CHEN Ting, WANG Penghui, et al. Multistation cooperative radar target recognition based on an angle-guided transformer fusion network[J]. Journal of Radars, 2023, 12(3): 516–528. doi: 10.12000/JR23014. [17] 吕小玲, 仇晓兰, 俞文明, 等. 基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析[J]. 雷达学报, 2022, 11(1): 168–182. doi: 10.12000/JR21179.LYU Xiaoling, QIU Xiaolan, YU Wenming, et al. Simulation-assisted SAR target classification based on unsupervised domain adaptation and model interpretability analysis[J]. Journal of Radars, 2022, 11(1): 168–182. doi: 10.12000/JR21179. [18] WU Zhirong, XIONG Yuanjun, YU S X, et al. Unsupervised feature learning via non-parametric instance discrimination[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 3733–3742. doi: 10.1109/CVPR.2018.00393. [19] ÖZDEMIR C. Inverse Synthetic Aperture Radar Imaging with MATLAB Algorithms[M]. 2nd ed. Hoboken: John Wiley & Sons, 2021: 167–170. [20] DU Lan, WANG Penghui, LIU Hongwei, et al. Bayesian spatiotemporal multitask learning for radar HRRP target recognition[J]. IEEE Transactions on Signal Processing, 2011, 59(7): 3182–3196. doi: 10.1109/TSP.2011.2141664. [21] LIAO Kuo, SI Jinxiu, ZHU Fangqi, et al. Radar HRRP target recognition based on concatenated deep neural networks[J]. IEEE Access, 2018, 6: 29211–29218. doi: 10.1109/ACCESS.2018.2842687. [22] CHEN Ting, KORNBLITH S, NOROUZI M, et al. A simple framework for contrastive learning of visual representations[C]. The 37th International Conference on Machine Learning, Virtual Event, 2020: 149. [23] WANG Feng and LIU Huaping. Understanding the behaviour of contrastive loss[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nashville, USA, 2021: 2495–2504. doi: 10.1109/CVPR46437.2021.00252. [24] HE Kaiming, FAN Haoqi, WU Yuxin, et al. Momentum contrast for unsupervised visual representation learning[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 9729–9738. doi: 10.1109/CVPR42600.2020.00975. [25] CARON M, MISRA I, MAIRAL J, et al. Unsupervised learning of visual features by contrasting cluster assignments[C]. The 34th International Conference on Neural Information Processing Systems, Vancouver, Canada, 2020: 831. [26] LI Yunfan, HU Peng, LIU Zitao, et al. Contrastive clustering[C]. The 35th AAAI Conference on Artificial Intelligence, Virtual Event, 2021: 8547–8555. doi: 10.1609/aaai.v35i10.17037. [27] PAN Mian, LIU Ailin, YU Yanzhen, et al. Radar HRRP target recognition model based on a stacked CNN–Bi-RNN with attention mechanism[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5100814. doi: 10.1109/TGRS.2021.3055061. [28] CHEN Jian, DU Lan, GUO Guanbo, et al. Target-attentional CNN for radar automatic target recognition with HRRP[J]. Signal Processing, 2022, 196: 108497. doi: 10.1016/j.sigpro.2022.108497. [29] WU Lingang, HU Shengliang, XU Jianghu, et al. Ship HRRP target recognition against decoy jamming based on CNN-BiLSTM-SE model[J]. IET Radar, Sonar & Navigation, 2024, 18(2): 361–378. doi: 10.1049/rsn2.12507. -