Loading [MathJax]/extensions/TeX/boldsymbol.js

基于多重对比损失的雷达传感器网络HRRP无监督目标特征提取方法

万昊 梁菁

范磊, 杨琪, 王宏强, 等. 基于太赫兹ViSAR的无源干扰物成像[J]. 雷达学报(中英文), 待出版. doi: 10.12000/JR24174
引用本文: 万昊, 梁菁. 基于多重对比损失的雷达传感器网络HRRP无监督目标特征提取方法[J]. 雷达学报(中英文), 待出版. doi: 10.12000/JR24200
FAN Lei, YANG Qi, WANG Hongqiang, et al. Terahertz-ViSAR-based imaging of passive jamming objects[J]. Journal of Radars, in press. doi: 10.12000/JR24174
Citation: WAN Hao and LIANG Jing. HRRP unsupervised target feature extraction method based on multiple contrastive loss in radar sensor networks[J]. Journal of Radars, in press. doi: 10.12000/JR24200

基于多重对比损失的雷达传感器网络HRRP无监督目标特征提取方法

DOI: 10.12000/JR24200
基金项目: 国家自然科学基金(62471118),111计划(B17008)
详细信息
    作者简介:

    万 昊,博士生,主要研究方向包括雷达目标识别、特征提取

    梁 菁,教授,博士生导师,主要研究方向包括雷达传感器网络、分布式协同信号处理、模糊逻辑与机器学习等

    通讯作者:

    梁菁 liangjing@uestc.edu.cn

  • 责任主编:杜兰 Corresponding Editor: DU Lan
  • 中图分类号: TN958

HRRP Unsupervised Target Feature Extraction Method Based on Multiple Contrastive Loss in Radar Sensor Networks

Funds: The National Natural Science Foundation of China (62471118), and the 111 Project (B17008)
More Information
  • 摘要: 基于雷达传感器网络的目标识别系统在自动目标识别领域得到了广泛的研究,该系统从多个角度对目标进行观测从而可获得稳健的目标识别能力,这也带来了多雷达传感器回波数据间相关信息和差异信息的利用问题。其次,现有研究大都需要大规模标记数据来获得目标的先验知识,考虑到大量未标注数据未被有效使用,该文研究了一种基于多重对比损失(MCL)的雷达传感器网络HRRP无监督目标特征提取方法。该方法通过联合实例级损失、Fisher损失和语义一致损失这三重损失约束,用以寻求多雷达传感器回波间具有一致性和判别性的特征向量并用于后续的识别任务。具体而言,将原始回波数据分别映射到对比损失空间和语义标签空间:在对比损失空间中,利用对比损失对样本的相似性和聚集性进行约束,使不同传感器获取的同一目标不同回波间的相对距离和绝对距离被减小,而不同目标回波样本间的距离被拉大;在语义损失空间中,通过提取到的判别特征对语义标签进行约束,实现语义信息和判别特征一致的目标。在实测民用飞机数据集上进行的实验表明,与最先进的无监督和有监督目标识别算法相比,MCL的识别准确率分别提升了0.4%和1.4%,并且MCL能有效提升多雷达传感器协同时的目标识别性能。

     

  • 合成孔径雷达(Synthetic Aperture Radar, SAR)作为雷达探测领域的重要技术手段,因其具备全天时、全天候的观测能力,广泛应用于地形测绘、资源勘查和环境监测等多个领域[1]。随着雷达成像技术及成像系统的快速发展,SAR图像实现了从低分辨率到高分辨率乃至超高分辨率的飞跃,这进一步提升了雷达对场景的态势感知能力[24]。与此同时,由于电磁安全保护和隐蔽性等因素,用于干扰雷达成像的干扰物也在不断更新换代。这些干扰物可能导致目标成像结果受到“污染”,进而恶化后续的雷达目标检测与识别[57]。因此,在面向高分辨且具有紧急应用需求的雷达成像领域,研究这些干扰物的成像显得尤为重要。

    目前,干扰物主要分为两类。一类是有源干扰物,其通过主动发射或转发干扰信号来破坏、压制或欺骗敌方的电子系统[8]。这种方式的优势在于能够主动出击,直接造成强有力干扰,但也有可能暴露自身位置,同时设备造价相对较高。另一类是无源干扰物,其通过反射、散射和吸收敌方发射的电磁波来降低效能,因而更加隐蔽,不容易暴露自身情况[9]。本文聚焦于对后者的成像。典型无源干扰物包括箔条、地海面中的角反阵、地面目标中伪装网以及微动角反等。其中箔条干扰可以显著降低低分辨的末制导雷达反舰导弹命中率[10];角反射器由于特殊几何结构,雷达的照射下可以产生强电磁散射信号,通过组合使用可形成与真实目标相似的假目标,即形成对末端制导雷达的冲淡式干扰[11];伪装网通常可具备特定的光学或电磁隐蔽特性,可以减少雷达散射强度,从而降低目标被探测到的概率[12];微动角反,包括振动、旋转、摇摆等,满足一定条件后可形成压制性干扰成像,从而形成对感兴趣区域/目标的“鬼影”、条带、栅栏等假目标[13]。目前,对这些无源干扰物的成像的方法采用提高雷达分辨率、多普勒滤波和多极化技术[14]。然而,由于微波频段下的波长的限制,雷达成像为达到期望分辨率所需驻留时间较长,因此较难成像,进而难以直接鉴别这些无源干扰物。此外,获得图像也仅为单张图像,缺乏时间维分辨能力,多普勒特性感知较差,使得对运动状态下无源干扰物检测和成像变得更加困难。

    太赫兹频段是指频率在0.1~10.0 THz的电磁波,对应的波长为3 mm~30 μm。相比于微波雷达,(1)太赫兹雷达由于高载频更容易形成宽带雷达,距离维高分辨成像能直接通过雷达硬件系统提高;(2)太赫兹雷达实现相同方位分辨率所需的合成孔径可以更短,从而具备更多雷达成像的条件[1517];(3)由于波长短,太赫兹雷达的多普勒特性更加敏感。因而,太赫兹雷达具备高“时空频”分辨能力,推动太赫兹视频SAR (Video SAR, ViSAR)出现[1820]。另外,太赫兹ViSAR雷达系统能兼具小型化与轻量化硬件系统的天然优势,使其在“察打一体”小型无人机群中具有重要潜力。

    ViSAR的概念最早于2003年提出[21]。加拿大国防研究与发展中心(Defence Research and Development Canada,DRDC)在2010年首次公开基于X频段宽带试验机载雷达系统与典型实验结果[22]。随后,美国桑迪亚国家重点实验室(Sandia National Laboratories, SNL)验证了Ku频段机载ViSAR雷达在高帧率成像和阴影检测等方面的技术可行性,并取得了引领性的实验成果,引发国内外的广泛关注和研究热潮;在2014年和2019年,德国弗劳恩霍夫高频物理与雷达技术研究所(Fraunhofer Institute for High Frequency Physics and Radar Techniques, FHR)公布了基于Ka频段MIRANDA-35的条带成像结果和W频段MIRANDA-94聚束成像结果[23,24]。然而,这些系统本质上成像帧率与分辨率仍然受限于波长。与此同时,太赫兹ViSAR系统的研制也在如火如荼的发展中。早在2012年,美国国防高级研究计划局(Defense Advanced Research Projects Agency, DARPA)就发布了ViSAR计划。于2018年,雷神公司在IEEE雷达年会上展示太赫兹频段外场成像结果[25]。试验证明了太赫兹雷达进行外场实验的技术可行性。国内方面,国防科技大学、电子科技大学、西安电子科技大学、哈尔滨工程大学、中国工程物理研究院、航天科工二院23所与中国电子科技集团公司14所等机构也在积极开展ViSAR雷达研制、成像技术、成像应用等方面的研究。尽管如此,受到诸如肖特基二极管、倍频后功率较小等问题约束[26],目前太赫兹频段下公里级外场实验验证还是相对较少,尤其是对这些无源干扰物的研究仍处于通过电磁仿真或简单暗室缩比模型验证阶段。太赫兹频段下,对无源干扰物的目标特性和成像研究仍处于待探索阶段。

    鉴于此,本文开展了基于太赫兹ViSAR对无源干扰物的机载成像实验与算法验证。首先,简要地给出太赫兹ViSAR的孔径划分和相关分辨率分析。然后,给出了对无源干扰物的成像的整体处理流程。对于诸如角反阵和伪装网的静止无源干扰物,分析了它们运动补偿前后的成像结果,并利用它们在太赫兹频段下的目标特性差异进行抗干扰;对于运动无源干扰物,以旋转角反为例,分析了其压制性成像特性,并利用静止场景在相邻子孔径中的相似性进行动目标检测,随后提取和解缠感兴趣信号相位,最终完成非参数化补偿。实验结果验证了太赫兹ViSAR具备对无源干扰物高分辨成像与抗干扰能力。本文的主要贡献如下:

    (1) 建立了基于太赫兹ViSAR的无源干扰物成像框架,尤其是探索了基于非参补偿的旋转角反的检测与重聚焦方法。

    (2) 开展了太赫兹频段下关于无源干扰物的公里级外场机载实验验证,有效地验证太赫兹ViSAR对角反阵、伪装网和旋转角反等无源干扰物的成像能力。

    本节首先对太赫兹ViSAR信号模型、孔径划分依据及成像分辨率进行分析。随后,将无源干扰物分为静止与运动两类。对于诸如角反阵和伪装网的静止无源干扰物,给出在太赫兹频段的成像过程;对于运动无源干扰物,以旋转角反为例,给出了一种适用于ViSAR的检测与成像方法。

    根据雷达的波束指向,ViSAR两类典型工作模式分为聚束与条带模式。两者模式互相补充,具有相似之处,本文聚焦于后者。图1展示了典型的条带太赫兹ViSAR成像场景示意图,其中,红色实线(X轴)表示飞机飞行理想路线。v为飞机飞行速度,H为理论飞行高度,β为雷达关于静止点目标P(Xη,Yη,Zη)的下视角。雷达按照正侧视照射。假设成像区域高度不存在变化,天线相位中心(Antenna Phase Center, APC)沿着理论路径匀速运动,即意味着运动补偿已完成。当慢时间为η时,理论APC位置为[X(η),Y(η),Z(η)]=[vη,0,0]在忽略二阶以上的高阶项后,雷达APC位置A到点目标P的瞬时距离可表示为[27]

    图  1  条带ViSAR成像场景示意图
    Figure  1.  Diagram of stripmap ViSAR imaging
    Rt(η)=(X(η)Xn)2+(Y(η)Yn)2+(Z(η)Zn)2=|AP|RB+(X(η)Xη)22RB (1)

    其中,Yn=RBsinβ, Zn=RBcosβ, RB=Y2n+Z2n表示理论飞行路线到场景的最近距离。雷达发射信号为线性调频信号。为降低数据采样压力,太赫兹雷达通常按照去斜方式接收回波。在完成残余视频相位校正后,来自点目标P的回波可表示为

    S(fτ,η)=Arect(fτB)wa(ηηc)exp(j4π(fc+fτ)RΔc) (2)

    其中,τ为快时间,fτfc分别表示距离频率与载频,A为信号幅度,B为带宽,rect()wa()分别为矩形和方位窗函数,c为光速,RΔ(η)=Rt(η)Rr其中Rr为提前确定的参考距离。需要说明的是,这里的相位项表示忽略了线性偏移量,这是因为太赫兹ViSAR中每帧的合成孔径较小,其对最终成像性能基本不影响,详细分析请见文献[28]。

    在完成回波数据获取与预处理后,ViSAR成像需要进行孔径划分。孔径划分策略需要综合考虑成像帧率、成像分辨率以及处理时间等因素[29]。需要说明的是,太赫兹ViSAR中孔径划分与微波频段的方式存在不同。图2对比了两种不同的孔径划分方式,即数据滑窗或不滑窗模式。对于前者,为提高成像帧率,该模式将完整的孔径划分为多个子孔径,并且执行数据滑窗。需要强调的是,此时子孔径长度需要满足至少一个完整的子孔径。这里“完整的子孔径”指的是雷达方位波束宽度与雷达作用距离的乘积。只有当合成孔径满足此条件,条带SAR的方位分辨率才为雷达方位天线长度的一半。这本质上是因为微波ViSAR受限于方位分辨率而采用的孔径划分方式[30]。尽管如此,这种模式实现高分辨成像是以高延迟成像为代价的,对面向低延迟成像应用需求存在局限性。

    图  2  两种孔径划分方式示意图
    Figure  2.  Diagram of two ways of aperture division

    对于后者,数据不滑窗模式即为本文太赫兹ViSAR的孔径划分模式。与前者不同之处在于,其不再需要一个完整的子孔径,原始回波数据可以在获取后即刻处理。前提条件在于确定合适的合成孔径长度去达到给定方位分辨率的需求。具体系统的数值分析与解释将在3.1节进行。需要补充说明的是,标准的SAR成像模式,属于该模式,其利用完整孔径去生成一幅SAR图像,可看作ViSAR成像的一种极端情况,即帧率达到最小情况。这里“完整孔径”指的是雷达随飞机飞行形成的总合成孔径长度。此时,方位分辨率ρx可通过多普勒带宽Ba和飞行速度v确定,即

    ρx=vBaλRt2vTs (3)

    其中,λ为波长,Ts为合成孔径时间,方位带宽Ba可表示为

    Ba=2vsin(θs+θa/2)λ2vsin(θsθa/2)λ=4vcosθssin(θa/2)λ2vcosθsλθa (4)

    其中,θsθa分别为斜视角和合成孔径角。不难发现,在给定分辨率与合成孔径时间后,波长应该尽可能小。因此,所提方法的孔径划分是依据于太赫兹频段的短波长。随后,ViSAR的成像帧率可确定为

    Frame rate = 11α2vλRtρx (5)

    其中,α为数据重复率。通常而言,如果α等于0,将其定义为真帧。反之,定义为伪帧。在0.2 m的方位分辨率约束下,假设雷达作用距离为3.2 km,飞行速度为60 m/s,不难计算得到只要载频大于200 GHz,即可实现真帧情况下的5 Hz帧率。当数据重复率达到80%时,此时成像帧率已经超过25 Hz,达到视频播放标准。与此同时,ViSAR中的距离分辨率定义与SAR中保持一致,仍然只与雷达带宽有关,即

    ρr=c2B (6)

    图3展示了所提方法的整体处理框架,主要包括两个部分:静止和运动无源干扰物成像。诸如角反阵和伪装网的静止无源干扰物由于本身不会产生额外运动,通过分析运动补偿前后的成像结果来探索它们在太赫兹频段的目标特性。对于运动无源干扰物,以旋转角反为例,考虑到静止场景在相邻成像结果中具有冗余性,在完成图像和幅度校准后,即可通过非相干相减完成动目标检测。随后,从散焦目标图像中提取感兴趣信号并完成相位解缠,最终实现旋转角反的重聚焦。

    图  3  整体处理框架
    Figure  3.  Overall processing framework
    2.2.1   静止无源干扰物的成像

    对于静止无源干扰物的成像,以点目标P的成像为例。首先,为了使得成像距离与目标实际所处距离匹配上,需要将用于去斜的常数相位(固定参考距离引入的相位)补偿。之后,沿快时间进行傅里叶逆变换,将式(2)转换为距离压缩域的数据。

    src(τ,η)=RC(S(fτ,η))=IFTτ(S(fτ,η))=Asinc(B(τ2Rt(η)c))wa(ηηc)exp(j2πv2λRBη2)exp(j4πfcRBc) (7)

    其中,RC()表示距离压缩操作符号。IFTτ表示沿快时间维的傅里叶逆变换。为了能统一地消除不同方位位置的距离单元徙动(Range Cell Migration, RCM),式(7)被变换到距离-多普勒域,即

    srd(τ,fη)=Asinc(B(τ2Rrd(fη)c))Wa(fηfηc)exp(jπf2ηKa)exp(j4πfccRB) (8)

    其中,fηfηc分别为方位频率和多普勒中心,Wa()为方位频谱,Ka=2v2/2v2λRBλRB为多普勒调频率。静止目标的RCM可表示为

    Rrd(fη)RB=RB[1D(fη,v)D(fη,v)] (9)

    其中,D(fη,v)=1f2ηλ2/4v2表示斜视角的余弦值。假设距离单元徙动校正的插值是足够正确的,距离徙动校正后的信号可表示为

    srcmc(τ,fη)=Asinc(B(τ2RBc))Wa(fηfηc)exp(jπf2ηKa)exp(j4πfccRB) (10)

    可以发现,这里的方位信号可近似为线性调频信号。随后,方位匹配滤波器被定义为

    Haz(fη)=exp(jπf2ηKa) (11)

    结合式(10)和式(11),最终聚焦的图像可表示为

    sfinal(τ,η)=IFTη(srcmc(τ,fη)Haz(fη))==Asinc(B(τ2RBc))sinc(Ba(ηx0v))exp(j4πfccRB)exp(j2πfηcx0v) (12)

    其中,x0表示P的方位位置。对于角反阵而言,如果角反之间的间隔大于等于成像分辨率,使其不处于同一个距离或方位成像网格中,那么它的成像结果应为一系列点目标的组合;同理,对于伪装网,由于上下起伏的网格远大于太赫兹波长,其散射的非相干分量更为丰富,最终成像结果应为一块面目标区域。

    2.2.2   运动无源干扰物的成像

    由于旋转与振动等微动的数学模型与原理是相似的[13],运动无源干扰物仅以旋转角反为例。相比于静止点目标的距离历程,旋转目标的距离历程在合成孔径时间内不再仅表现为二阶形式,而是多增加了正弦调制。以单分量的旋转为例,此时距离历程可表示为

    Rm(η)=|APm(η)|Rt(η)+Amsinβsin(2πfmη+φm) (13)

    其中,Pm(η)表示旋转目标的瞬时位置。Am, fmφm分别表示旋转半径、转动频率和初相。令rm(η)=Amsinβsin(2πfmη+φm), m=1,2。不失一般性地,m数目为2的原因在于选择的目标是一组旋转角反,其与后续实验保持一致。此外,旋转参数满足两个先验,即f1=f2|φ2φ1|=π,其可以辅助验证解缠相位的准确性。与式(7)类似,旋转角反的距离压缩域信号可表示为

    saz1(τ,η)Asinc(B(τ2RB+2rmc))exp(j4πfcRBc)exp(j2πv2λRBη2)exp(j4πfccrm(η)) (14)

    其中,第1个相位项为常数相位项,而第2个相位项为二阶相位误差项。此外,最后一个相位项满足

    exp(j4πfccrm(η))={q=Jq(zm)exp(jq(2πfmη+Δm)),fmTs1exp(j4πfcc(β0+β1η+β2η2+)),fmTs<1 (15)

    其中,zm=4πfcAm/c, Δm=φm+π, Jq(zm)为第m阶贝塞尔函数,βi,i=0,1,2,为泰勒展开系数。从式(15)可得,如果旋转目标的距离历程在合成孔径时间内包含一个及其以上的完整正弦时,其可以用雅克比-安吉尔本体公式展开;反之,它将用高阶泰勒展开。该公式可作为后续旋转角反成像结果分析的数学基础。进一步地,观测式(14),两个点需要注意:(1)幅度项引入了额外的RCM。由于其特殊的RCM形式,其较难直接补偿。当旋转半径较小时,工程上可将其忽略;(2)相位项出现了额外的相位调制,其可能会导致方位偏移、“线段”散焦(低频)以及“鬼影点”或“栅栏”(高频)。

    接下来,对动目标信号进行提取。首先,需要对动目标进行检测,主要分为3个步骤。第1步,基于静止点目标成像算法得到对于场景的序列成像结果,以相邻两帧成像结果为例,假设其为I1,I2;第2步,对序列图像进行图像校准;第3步,对校准后的图像进行非相干相减,如式(16)所示

    ΔI=argmax(I1Reg(I2)) (16)

    其中,Reg()表示对图像序列的校准,包括位置与幅度两方面。位置校准可通过相关法实现,这里不做赘述。在完成位置校准后,图4给出了幅度校准的代表性示例。图4(a)展示了旋转角反在相邻两帧的成像结果不同,但是静止场景的成像结果较接近。因此,利用这种图像差异即可进行动目标检测。需要说明的是,这种检测成立的前提在于它们成像孔径较为接近,以至于静止场景的散射特性不会发生大幅度的变化,即各向异性不明显。随后,图4(b)展示了幅度校正前后的平均幅度剖面。不难发现,经过校准后,静止目标的散射强度基本一致。最后,对幅度校准后的图像利用非相干相减即可得到的动目标检测结果,如图4(c)所示。此时,可以发现静止的飞机已经被较好地消除,更多地保留旋转角反帧间差异的成像结果,进而估计其所处的距离单元,并可提取出感兴趣信号。需要说明的是,非相干相减后的图像仍存在部分横条纹,这是由于相邻帧间图像的横条纹出现位置存在一定程度的水平偏移(与波束指向区域有关)。然而,幸运的是,通过时序的信息可以消除其对旋转角反距离单元估计的影响。随后,以处于距离单元RB为例,考虑到来自特显点的信号在信噪比较高时能较大程度代表目标运动特征,将其作为感兴趣信号,其在距离-方位时域可表示为

    图  4  基于相邻帧间图像的旋转角反检测
    Figure  4.  Detection of rotating reflectors based on adjacent frames
    SoIm(η)=exp(j4πfcc(RB+rm(η))),m=1,2 (17)

    与此同时,感兴趣信号的理论相位分布应为

    ΦSoIt,m(η)=4πfcc(RB+rm(η))β1sin(β2η+β3)+β4 (18)

    其中,βi,i=1,2,3,4是拟合系数。可以发现,理论相位分布将展现出正弦分布。事实上,提取到的感兴趣信号相位是缠绕的,需要进行相位解缠。解缠算子unwarp()通过以第1个方位采样点相位为基准,按照如下规则得到解缠相位

    unwrap:φ(k)={φ(k),|φ(k)φ(k1)|<πφ(k)2π,φ(k)φ(k1)>πφ(k)+2π,φ(k1)φ(k)>π (19)

    其中,k为不小于2的整数,φ(k)为第k个采样时刻相位。需要说明的是,为了尽可能地避免相位跳变大于2π,需要先对其进行多普勒模糊数求解。紧接着,感兴趣信号的相位可以以这种非参数化方式进行解缠

    ΦSoIun,m(η)=unwarp(ΦSoIp,m(η)) (20)

    其中,ΦSoIp,m(η)为实际的感兴趣信号相位。需要说明的是,这种方式需要感兴趣信号处于相对较高的信杂比才能保证解缠准确性。幸运的是,实际场景中高价值/高威胁的旋转目标/部件大部分是金属的,因为其要保证较强的散射强度才能形成压制性成像干扰,进而保证了这个前提条件。然后,相位误差的补偿函数可构建为

    H1,m(η)=exp(jΦSoIun,m(η)), m=1,2 (21)

    进而将其代入式(14),可得到一个旋转角反重聚焦成像结果。另一个旋转角反的处理步骤与上述步骤保持一致。重复进行上述步骤即可得到另一个旋转角反的成像结果。

    为了验证所提方法的有效性,国防科技大学与航天科工二院23所在陕西蒲城开展了基于太赫兹雷达的机载外场实验。值得一提的是,太赫兹ViSAR的研究正在如火如荼地开展,但目前普遍缺乏外场实验验证。本次实验推动了太赫兹雷达从暗室测量走向实际机载外场挂飞,有力地验证了太赫兹雷达在ViSAR的有效性。表1给出了具体的太赫兹ViSAR系统参数。为实现无滑窗情况下5 Hz帧率且综合考虑方位分辨率需求,将合成孔径时间确定为0.2 s。根据实验参数,可推断出理论地距分辨率为0.18 m,方位分辨率优于0.2 m。对于方位分辨率而言,条带模式下理论方位分辨率为天线长度的一半(可由方位波束宽度和波长推断),即5 cm,其远小于距离分辨率。选取子孔径可以降低方位分辨率,同时减少每帧所需的驻留时间(从0.68 s到0.20 s),有助于实现太赫兹ViSAR低延迟成像。这里的0.68 s指的是用完整的子孔径对应载机飞行时间。这里即可解释太赫兹ViSAR中每一帧需求子孔径长度不用完整子孔径。

    表  1  太赫兹ViSAR系统参数
    Table  1.  Terahertz ViSAR system parameters
    系统指标 数值
    飞机型号 Cessna 208B
    雷达载频 216 GHz
    信号带宽 900 MHz
    地距/方位分辨率 0.18 m/0.17 m
    工作模式 条带模式
    飞行速度 219.6 km/h
    飞行高度 1.34 km
    地面海拔 0.34 km
    下视角 71.8°
    脉冲重复频率 16 kHz
    合成孔径时间 0.2 s
    方位波束宽度 0.745°
    成像帧率 5 Hz
    极化方式 VV极化
    下载: 导出CSV 
    | 显示表格

    图5展示了设计的条带ViSAR飞行路径与波束覆盖区域。在机场中,我们提前部署3个代表性无源干扰物目标,分别为形如“THz”的角反阵,伪装网、两个四面的旋转角反。这些目标布设的基本参数如下:角反阵间隔约为1.4 m;伪装网的尺寸为5.5 m×4.7 m;旋转角反的旋转速度和旋转半径分别为120 r/min和0.32 m。图6展示了相应布设位置下的光学照片。前两个目标作为静止无源干扰物的代表,而最后一个作为运动无源干扰物的代表。随后,图7(a)展示了基于惯导数据绘制的实际飞机飞行轨迹。这段轨迹飞行时间约为20 s,长度约1.2 km。可以发现,受到大气湍流的影响,实际机载飞行轨迹难以严格按照理论设定的路线飞行,高度维的最大起伏有2.5 m。这种量级的运动误差会严重降级需要亚毫米级补偿精度的太赫兹频段成像。同时,图7(b)展示了这段飞行时间内飞行速度与斜视角变化情况,进一步表明了太赫兹频段进行SAR成像的挑战。幸运的是,基于回波驱动的运动补偿方法已经在我们前期工作中成功探索,有效地解决基于惯导、全球定位系统等设备补偿精度不够以及太赫兹频段振动误差问题[31]。受限于文章篇幅限制,这里不对回波驱动的运动补偿进行过多解释。下面将对这3个无源干扰物的成像进行具体分析。

    图  5  太赫兹条带ViSAR实验场景示意图
    Figure  5.  Diagram of airborne experiments regarding stripmap terahertz ViSAR
    图  6  机场场景下3组实验目标的光学照片
    Figure  6.  Optical photos of three experimental targets in the airport
    图  7  实际机载飞行状态
    Figure  7.  Practical airborne flying status

    在太赫兹波束与条带模型共同约束下,实验发现可对角反阵与伪装网进行2 s的持续观测。为避免结果重复展示,我们挑选了3帧运动补偿前后的完整场景成像结果,如图8所示。这3帧的时间间隔扩大到0.4 s。可以发现:(1)得益于短驻留时间以及太赫兹雷达被布置于气浮台,能有效地减缓机载运动误差带来影响,未进行运动补偿前的成像结果能得到基本形状。然而,残余的运动误差仍然会对太赫兹频段成像质量恶化,尤其是导致关键目标与场景边缘产生模糊,如若无先验知识指引,难以辨别这些目标;(2)经过运动补偿后,场景的对比度明显提高,目标更加清晰,能清楚看到机场内的“THz”形状的角反阵、伪装网、卡车、房屋、草地以及各种目标的阴影等,这些目标有助于后续的图像解译。

    图  8  角反阵与伪装网的运动补偿前后的3帧成像结果
    Figure  8.  Imaging results of corner reflector array and camouflage mat

    为了能仔细观察成像结果差异,图9展示了第1帧内关于形如“THz”的角反阵在运动补偿前后的局部成像结果与轮廓图。这些图像的动态范围被限制到30 dB。在经过运动补偿后,每个角反射器沿方位维的散焦都得到良好的聚焦,整体形状可清晰辨别。随后,挑选了“T”字中的L1与L2,如图9(b)所示,来验证成像后角反间距与真实情况的差异。相应的距离与方位剖面如图10所示,可以发现角反之间的间距基本都为1.4 m,与实际情况吻合,有助于后续实现目标的重定位。与此同时,观察这些序列成像结果,我们能明显地辨别角反阵的成像结果基本保持一致。这是由于这3帧的成像角度间隔相近且角反阵处于静止状态,故它们的各向异性情况不明显。与此同时,可以推算角反阵的强度相比于周围水泥地高出约40 dB。

    图  9  角反阵运动补偿前后结果对比
    Figure  9.  Local zoom-in images and contour plots of corner reflector array before and after MOCO
    图  10  距离与方位剖面图
    Figure  10.  Range and azimuth profiles

    随后,图11(a)图11(b)展示了伪装网运动补偿前后的局部放大图。可以发现,未进行运动补偿前,伪装网的成像结果整体模糊,难以辨别。在经过运动补偿后,伪装网的轮廓与边缘变得清晰,图像的对比度得到明显提高。需要说明的是,伪装网的成像结果呈现为明显的面目标,这是因为伪装网上下起伏的网格(如图6(b)所示)在太赫兹频段会造成非相干散射分量增强,从而表现出“粗糙”的成像特性。也就是说,伪装网在太赫兹频段特殊的目标特性可以实现抗干扰,使其丢失在光学与部分电磁频段的“伪装”能力。需要强调的是,伪装网右边的强散射成像结果代表的是布设的狙击枪,其不属于静止无源干扰物。图11(c)形象地展示了太赫兹频段伪装网的面目标形状,进一步验证了上述的分析。值得一提的是,图像中的横条纹我们推测是机场路面的刻痕,它们能被成像也体现了太赫兹频段成像结果的特殊所在。

    图  11  伪装网在运动补偿前后的局部图以及 2.5D重构图
    Figure  11.  Zoom-in images of camouflage mat before and after MOCO

    运动无源干扰物以两个四面的旋转角反为例,将它们放置于木板上,并由电机驱动转动。实验发现,太赫兹条带ViSAR能对其进行约1.5 s的持续性监测(目标运动导致信噪比降低)。图12展示了运动补偿后旋转角反所处场景的成像结果(连续3帧)。不难发现,在未进行动目标成像补偿前,旋转角反会形成散布在场景中心的条带,如图13中局部放大图。基于此,如果布置的旋转角反数目足够多且满足一定构型,则成像结果能形成对场景的压制性成像干扰,对部分关键的目标/场景进行遮挡。因而,为了实现精准态势感知,有必要对这些散焦的成像结果进行重聚焦。

    图  12  关于旋转角反的连续3帧整体成像结果
    Figure  12.  Three consecutive frames of scene containing rotating reflector
    图  13  旋转角反的3帧局部放大图
    Figure  13.  Local zoom-in images of rotating reflectors under three frames

    在经过序列图像校准、幅度校准以及非相干相减后,我们可以检测到场景中的旋转角反。随后,以图12中第2帧为例,图14展示了提取到的感兴趣信号原始相位(黑线)和对应的解缠相位(红线)。可以发现,这两个解缠相位曲线表现出清晰的正弦形式且对称,即初相差接近于π,这里2.2.2节的先验知识保持一致,验证了理论建模的正确性。此外,提取到的解缠相位并不是完全理想的正弦形状。这是因为提取到的感兴趣信号包含了处于同个距离单元的其他目标信号。尽管如此,这两个感兴趣信号的信杂比仍然是相当高的,其保证了后续重聚焦的性能。

    图  14  帧#2下两个旋转角反的感兴趣信号原始相位与解缠相位
    Figure  14.  Raw phases and unwrapped phases of signals of interests from two corner reflectors under frame #2

    基于上述步骤,最终重聚焦的旋转角反如图15所示。可以发现,长条状的散焦旋转角反被重聚焦成为两个点目标。这3帧图像的动态范围均被设置为30 dB。不难发现,第3帧中旋转角反成像结果中的散射强度较弱。这是因为随着飞机飞行,旋转角反逐渐远离雷达的波束覆盖区,导致信杂比降低。这是“掠过式”条带ViSAR的不足之处。紧接着,图16展示了第2帧角反成像结果的距离和方位剖面。可以发现,两者均形成良好的辛克形状,验证了所提方法的重聚焦性能。

    图  15  3帧下重构的旋转角反
    Figure  15.  Reconstructed rotating corner reflectors under three frames
    图  16  补偿后旋转角反的距离与方位剖面图
    Figure  16.  Range and azimuth profiles of the rotating corner reflector after compensation.

    为了进一步验证所提方法可行的潜在原因,图17展示了在连续3帧子孔径下对旋转角反进行补偿前后的时频图。显示的动态范围限制在40 dB,并且以对数形式展示。图中正弦状时频代表的是旋转角反的旋转运动,其余零频附近的时频分量代表的是场景中的静止目标。可以发现静止场景所占的时频小于2100 Hz。并且相比于静止场景的时频,旋转角反的时频展现出形状与强度上的明显差异。基于自相关处理与时频峰值,可以推算出旋转角反的旋转半径与转速分别约为0.32 m和120 r/min,与理论值吻合。因此,可计算得到旋转角反的最大多普勒约为5500 Hz,即此时没有造成多普勒模糊。随后,每帧中单个角反转动角度可计算得到约为144°。最后,对比补偿前后的时频。可以发现正弦状的时频被较好补偿,并且还原到静止目标所处的频谱区域。因而,旋转角反的成像已完成,验证了所提方法的有效性。

    图  17  旋转角反成像补偿前后的时频图
    Figure  17.  Time-frequency images of rotating corner reflectors before and after compensation

    本节首先讨论太赫兹ViSAR的高帧率与抗干扰应用的关系。对于ViSAR而言,其两个主要优势体现在于:动态的态势感知能力和慢速运动目标检测能力。而从抗干扰应用的角度来看,ViSAR的高帧率有一定的必要性,但并非帧率越高就一定越好,需要综合多方面因素来考虑。其优势在于,(1)快速识别干扰变化;高帧率意味着单位时间内能够获取更多的图像帧,对于干扰信号的变化能够更快速地捕捉和识别;(2)准确分析干扰特征;通过连续的高帧率图像帧,可以对干扰信号的特征进行更准确的分析;(3)便于区分目标和干扰;对于运动目标的追踪和识别,高帧率可以提供更丰富的目标运动信息,从而更容易将目标与干扰信号区分开来。尽管如此,高帧率也可能会带来数据处理与传输压力;在抗干扰应用中,如果数据处理和传输的速度跟不上帧率的要求,就可能导致数据的积压和丢失,影响抗干扰系统的实时性和有效性。而且,处理大量的数据也需要更强大的计算资源和更高的能耗,这对于一些资源有限的平台(如小型无人机等)来说可能是一个挑战。

    此外,在前面的成像体制中,我们都是假设其为零或小斜视情况的条带模式。针对弹载的大斜视甚至前视体制[32],太赫兹ViSAR是否能用于大斜视与前视成像,性能如何,仍然是值得探索验证的有趣问题。如若可行,其将在近炸引信等方面产生新的技术手段,值得未来着重研究。

    本文对太赫兹ViSAR下典型无源干扰物成像方法进行了探索,展示了太赫兹频段的抗干扰性,并完成了该频段下对无源干扰物的机载实验验证。基于太赫兹雷达系统,设计了太赫兹ViSAR下的孔径划分方法,确定了成像分辨率表征。随后根据运动状态,将无源干扰物分为静止与运动两类。对于诸如角反阵、伪装网等静止无源干扰物,给出其成像方法和成像特性分析,表明了太赫兹频段下部分目标的表面将从“光滑”变为“粗糙”。运动无源干扰物以旋转角反为例,首先分析压制性干扰成像特性,随后利用经过图像和幅度校准的序列图像进行图像域的目标检测,并通过特显点提取并解缠感兴趣信号相位,最后完成非参的旋转目标重聚焦。所提太赫兹ViSAR在无源干扰物的成像方法的有效性已通过太赫兹频段机载外场实验验证。对于未来工作,我们将考虑太赫兹雷达进行大斜视乃至前视的无源干扰物成像,这一工作目前也正在进行中。

  • 图  1  MCL系统框架

    Figure  1.  MCL system framework

    图  2  正负样本对示意图

    Figure  2.  Schematic diagram of positive and negative sample pairs

    图  3  不同目标的HRRP样本

    Figure  3.  The HRRP samples for different targets

    图  4  平衡参数对识别率的影响

    Figure  4.  The influence of balance parameters on recognition rate

    图  5  温度参数对识别率的影响

    Figure  5.  The influence of temperature parameter τ on the recognition rate

    图  6  MCL在实测数据集上的混淆矩阵

    Figure  6.  Confusion matrix of MCL on measured dataset

    图  7  HRRP实测数据的特征可视化结果

    Figure  7.  Feature visualization results of HRRP measured data

    图  8  MCL在仿真数据集上的混淆矩阵

    Figure  8.  Confusion matrix of MCL on simulation dataset

    1  MCL算法

    1.   MCL algorithm

     输入:雷达传感网络观测数据{{\boldsymbol{x}}}_i^m,目标类别数C,温度参数
     {\tau },平衡参数\lambda
     输出:各观测样本的特征表示{{\boldsymbol{y}}}_i^m
     1:通过式(4)、式(5)对HRRP数据进行预处理。
     2:通过式(6)、式(7)、式(8)计算雷达传感器网络观测数据的特
     征表示、判别特征向量和语义标签向量。
     3:根据式(11)、式(12)、式(18)分别计算实例级损失、Fisher损
     失和语义损失。
     4:利用Adam算法优化网络权重fW
     5:根据式(6)计算各观测样本的特征表示{{\boldsymbol{y}}}_i^m
    下载: 导出CSV

    表  1  目标物理参数

    Table  1.   Parameters of targets

    飞机型号机长(m)翼展(m)机高(m)
    A32144.5134.1011.76
    A32037.5734.1011.76
    A31933.8434.1011.76
    B73839.5035.7912.50
    下载: 导出CSV

    表  2  实测HRRP数据集详细描述

    Table  2.   Description of the HRRP datasets

    数据集参数 数值
    带宽 200 MHz
    目标类型 民用飞机
    目标类型数目 4
    每部雷达训练样本数 4800
    每部雷达测试样本数 2400
    样本维度 600
    观测角 雷达1 0°~15°
    雷达2 45°~60°
    雷达3 80°~95°
    下载: 导出CSV

    表  3  各种HRRP识别方法在实测HRRP数据集上的识别率

    Table  3.   Recognition rates of various HRRP recognition methods on measured HRRP data sets

    方法 策略 \mathrm{Pe} 参数量(M)
    0.01 0.05 0.1
    无监督对比学习方法 基线 冻结网络只训练分类头 0.591 0.676 0.729 0.065
    MoCo[24] 字典查询与动量更新 0.926 0.934 0.949 0.298
    SwAV[25] 原型聚类预测 0.947 0.951 0.963 0.301
    SimCLR[22] 实例级损失 0.967 0.979 0.984 0.298
    CC[26] 实例级和标签损失 0.969 0.980 0.985 0.314
    MCL(ours) 三重对比损失 0.977 0.986 0.989 0.308
    MCL(label) 带标签约束的对比损失 0.985 0.992 0.993 0.308
    HRRP监督学习方法 基线 交叉熵损失 0.927 0.226
    AMM[27] 网络嵌套和动态调整 0.969 0.051
    TACNN[28] 局部特征注意 0.956 0.998
    PNN[29] 并行神经网络 0.975 1.712
    下载: 导出CSV

    表  4  消融实验结果

    Table  4.   Results of ablation experiment

    实例级损失 Fisher
    损失
    语义
    损失
    {\text{Pe}}
    0.01 0.05 0.10
    0.591 0.676 0.729
    0.967 0.979 0.984
    0.937 0.944 0.957
    0.657 0.809 0.859
    0.968 0.982 0.986
    0.943 0.953 0.961
    0.962 0.976 0.984
    0.977 0.986 0.989
    下载: 导出CSV

    表  5  雷达传感器数量对识别率的影响

    Table  5.   The influence of the number of radar sensors on the recognition rate

    雷达数量 Pe
    0.01 0.05 0.10
    2 0.753 0.772 0.785
    3 0.955 0.966 0.972
    4 0.985 0.986 0.988
    5 0.990 0.993 0.995
    下载: 导出CSV
  • [1] 陈健, 杜兰, 廖磊瑶. 基于参数化统计模型的雷达HRRP目标识别方法综述[J]. 雷达学报, 2022, 11(6): 1020–1047. doi: 10.12000/JR22127.

    CHEN Jian, DU Lan, and LIAO Leiyao. Survey of radar HRRP target recognition based on parametric statistical model[J]. Journal of Radars, 2022, 11(6): 1020–1047. doi: 10.12000/JR22127.
    [2] DONG Ganggang and LIU Hongwei. A hierarchical receptive network oriented to target recognition in SAR images[J]. Pattern Recognition, 2022, 126: 108558. doi: 10.1016/j.patcog.2022.108558.
    [3] ZHANG Yukun, GUO Xiansheng, LEUNG H, et al. Cross-task and cross-domain SAR target recognition: A meta-transfer learning approach[J]. Pattern Recognition, 2023, 138: 109402. doi: 10.1016/j.patcog.2023.109402.
    [4] CHEN Bo, LIU Hongwei, CHAI Jing, et al. Large margin feature weighting method via linear programming[J]. IEEE Transactions on Knowledge and Data Engineering, 2009, 21(10): 1475–1488. doi: 10.1109/TKDE.2008.238.
    [5] MOLCHANOV P, EGIAZARIAN K, ASTOLA J, et al. Classification of aircraft using micro-Doppler bicoherence-based features[J]. IEEE Transactions on Aerospace and Electronic Systems, 2014, 50(2): 1455–1467. doi: 10.1109/TAES.2014.120266.
    [6] LI Xiaoxiong, ZHANG Shuning, ZHU Yuying, et al. Supervised contrastive learning for vehicle classification based on the IR-UWB radar[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5117312. doi: 10.1109/TGRS.2022.3203468.
    [7] CHEN Jian, DU Lan, HE Hua, et al. Convolutional factor analysis model with application to radar automatic target recognition[J]. Pattern Recognition, 2019, 87: 140–156. doi: 10.1016/j.patcog.2018.10.014.
    [8] FENG Bo, CHEN Bo, and LIU Hongwei. Radar HRRP target recognition with deep networks[J]. Pattern Recognition, 2017, 61: 379–393. doi: 10.1016/j.patcog.2016.08.012.
    [9] DU Lan, LIU Hongwei, WANG Penghui, et al. Noise robust radar HRRP target recognition based on multitask factor analysis with small training data size[J]. IEEE Transactions on Signal Processing, 2012, 60(7): 3546–3559. doi: 10.1109/TSP.2012.2191965.
    [10] XU Bin, CHEN Bo, WAN Jinwei, et al. Target-aware recurrent attentional network for radar HRRP target recognition[J]. Signal Processing, 2019, 155: 268–280. doi: 10.1016/j.sigpro.2018.09.041.
    [11] SHI Lei, WANG Penghui, LIU Hongwei, et al. Radar HRRP statistical recognition with local factor analysis by automatic Bayesian Ying-Yang harmony learning[J]. IEEE Transactions on Signal Processing, 2011, 59(2): 610–617. doi: 10.1109/TSP.2010.2088391.
    [12] LIAO Leiyao, DU Lan, and CHEN Jian. Class factorized complex variational auto-encoder for HRR radar target recognition[J]. Signal Processing, 2021, 182: 107932. doi: 10.1016/j.sigpro.2020.107932.
    [13] MAO Chengchen and LIANG Jing. HRRP recognition in radar sensor network[J]. Ad Hoc Networks, 2017, 58: 171–178. doi: 10.1016/j.adhoc.2016.09.001.
    [14] LUNDÉN J and KOIVUNEN V. Deep learning for HRRP-based target recognition in multistatic radar systems[C]. 2016 IEEE Radar Conference, Philadelphia, USA, 2016: 1–6. doi: 10.1109/RADAR.2016.7485271.
    [15] 章鹏飞, 李刚, 霍超颖, 等. 基于双雷达微动特征融合的无人机分类识别[J]. 雷达学报, 2018, 7(5): 557–564. doi: 10.12000/JR18061.

    ZHANG Pengfei, LI Gang, HUO Chaoying, et al. Classification of drones based on micro-Doppler radar signatures using dual radar sensors[J]. Journal of Radars, 2018, 7(5): 557–564. doi: 10.12000/JR18061.
    [16] 郭帅, 陈婷, 王鹏辉, 等. 基于角度引导Transformer融合网络的多站协同目标识别方法[J]. 雷达学报, 2023, 12(3): 516–528. doi: 10.12000/JR23014.

    GUO Shuai, CHEN Ting, WANG Penghui, et al. Multistation cooperative radar target recognition based on an angle-guided transformer fusion network[J]. Journal of Radars, 2023, 12(3): 516–528. doi: 10.12000/JR23014.
    [17] 吕小玲, 仇晓兰, 俞文明, 等. 基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析[J]. 雷达学报, 2022, 11(1): 168–182. doi: 10.12000/JR21179.

    LYU Xiaoling, QIU Xiaolan, YU Wenming, et al. Simulation-assisted SAR target classification based on unsupervised domain adaptation and model interpretability analysis[J]. Journal of Radars, 2022, 11(1): 168–182. doi: 10.12000/JR21179.
    [18] WU Zhirong, XIONG Yuanjun, YU S X, et al. Unsupervised feature learning via non-parametric instance discrimination[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 3733–3742. doi: 10.1109/CVPR.2018.00393.
    [19] ÖZDEMIR C. Inverse Synthetic Aperture Radar Imaging with MATLAB Algorithms[M]. 2nd ed. Hoboken: John Wiley & Sons, 2021: 167–170.
    [20] DU Lan, WANG Penghui, LIU Hongwei, et al. Bayesian spatiotemporal multitask learning for radar HRRP target recognition[J]. IEEE Transactions on Signal Processing, 2011, 59(7): 3182–3196. doi: 10.1109/TSP.2011.2141664.
    [21] LIAO Kuo, SI Jinxiu, ZHU Fangqi, et al. Radar HRRP target recognition based on concatenated deep neural networks[J]. IEEE Access, 2018, 6: 29211–29218. doi: 10.1109/ACCESS.2018.2842687.
    [22] CHEN Ting, KORNBLITH S, NOROUZI M, et al. A simple framework for contrastive learning of visual representations[C]. The 37th International Conference on Machine Learning, Virtual Event, 2020: 149.
    [23] WANG Feng and LIU Huaping. Understanding the behaviour of contrastive loss[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nashville, USA, 2021: 2495–2504. doi: 10.1109/CVPR46437.2021.00252.
    [24] HE Kaiming, FAN Haoqi, WU Yuxin, et al. Momentum contrast for unsupervised visual representation learning[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 9729–9738. doi: 10.1109/CVPR42600.2020.00975.
    [25] CARON M, MISRA I, MAIRAL J, et al. Unsupervised learning of visual features by contrasting cluster assignments[C]. The 34th International Conference on Neural Information Processing Systems, Vancouver, Canada, 2020: 831.
    [26] LI Yunfan, HU Peng, LIU Zitao, et al. Contrastive clustering[C]. The 35th AAAI Conference on Artificial Intelligence, Virtual Event, 2021: 8547–8555. doi: 10.1609/aaai.v35i10.17037.
    [27] PAN Mian, LIU Ailin, YU Yanzhen, et al. Radar HRRP target recognition model based on a stacked CNN–Bi-RNN with attention mechanism[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5100814. doi: 10.1109/TGRS.2021.3055061.
    [28] CHEN Jian, DU Lan, GUO Guanbo, et al. Target-attentional CNN for radar automatic target recognition with HRRP[J]. Signal Processing, 2022, 196: 108497. doi: 10.1016/j.sigpro.2022.108497.
    [29] WU Lingang, HU Shengliang, XU Jianghu, et al. Ship HRRP target recognition against decoy jamming based on CNN-BiLSTM-SE model[J]. IET Radar, Sonar & Navigation, 2024, 18(2): 361–378. doi: 10.1049/rsn2.12507.
  • 加载中
图(8) / 表(6)
计量
  • 文章访问数: 232
  • HTML全文浏览量: 130
  • PDF下载量: 69
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-10-14
  • 修回日期:  2024-11-08
  • 网络出版日期:  2024-11-26

目录

/

返回文章
返回