Loading [MathJax]/jax/output/SVG/jax.js

基于“数据驱动+智能学习”的合成孔径雷达学习成像

罗迎 倪嘉成 张群

葛建军, 李春霞. 一种基于信息熵的雷达动态自适应选择跟踪方法[J]. 雷达学报, 2017, 6(6): 587-593. doi: 10.12000/JR17081
引用本文: 罗迎, 倪嘉成, 张群. 基于“数据驱动+智能学习”的合成孔径雷达学习成像[J]. 雷达学报, 2020, 9(1): 107–122. doi: 10.12000/JR19103
Ge Jianjun, Li Chunxia. A Dynamic and Adaptive Selection Radar Tracking Method Based on Information Entropy[J]. Journal of Radars, 2017, 6(6): 587-593. doi: 10.12000/JR17081
Citation: LUO Ying, NI Jiacheng, and ZHANG Qun. Synthetic aperture radar learning-imaging method based on data-driven technique and artificial intelligence[J]. Journal of Radars, 2020, 9(1): 107–122. doi: 10.12000/JR19103

基于“数据驱动+智能学习”的合成孔径雷达学习成像

DOI: 10.12000/JR19103
基金项目: 国家自然科学基金(61631019, 61971434)
详细信息
    作者简介:

    罗 迎(1984–),男,湖南益阳人,空军工程大学信息与导航学院副教授,博士生导师,主要研究方向为雷达成像与目标识别。E-mail: luoying2002521@163.com

    倪嘉成(1990–),男,陕西西安人,空军工程大学信息与导航学院讲师,主要研究方向为SAR成像与目标识别。E-mail: littlenjc@sina.com

    张 群(1964–),男,陕西合阳人,空军工程大学信息与导航学院教授,博士生导师,主要研究方向为雷达成像与目标识别。E-mail: zhangqunnus@gmail.com

    通讯作者:

    罗迎 luoying2002521@163.com

  • 中图分类号: TN957.5

Synthetic Aperture Radar Learning-imaging Method Based onData-driven Technique and Artificial Intelligence

Funds: The National Natural Science Foundation of China (61631019, 61971434)
More Information
  • 摘要: 对感兴趣目标的数量、位置、型号等参数信息的精确获取一直是合成孔径雷达(SAR)技术中最为重要的研究内容之一。现阶段的SAR信息处理主要分为成像和解译两大部分,两者的研究相对独立。SAR成像和解译各自开发了大量算法,复杂度越来越高,但SAR解译并未因成像分辨率提升而变得简单,特别是对重点目标识别率低的问题并未从本质上得以解决。针对上述问题,该文从SAR成像解译一体化角度出发,尝试利用“数据驱动+智能学习”的方法提升机载SAR的信息处理能力。首先分析了基于“数据驱动+智能学习”方法的SAR成像解译一体化的可行性及现阶段存在的主要问题;在此基础上,提出一种“数据驱动+智能学习”的SAR学习成像方法,给出了学习成像框架、网络参数选取方法、网络训练方法和初步的仿真结果,并分析了需要解决的关键性技术问题。

     

  • 分布式多雷达系统节点多、分布广,为了适应复杂战场动态作战需求,需要根据作战任务动态组织各个站点的工作,提高整个系统抗干扰、抗截获、抗摧毁等能力。实际中,受各雷达节点工作参数及相对目标的位置等因素的影响,不同节点观测目标获得的信息量不同,为此,如何根据战场态势,动态优化选择雷达站点“匹配”目标跟踪,是一个重要问题。

    目标跟踪理论是基于状态空间模型的递推结构,利用所有已知信息来求得目标状态变量的后验概率密度。即使用目标运动状态方程预测目标状态的先验概率,再利用最新时刻的雷达观测值来修正,得到状态的后验概率密度。传统多雷达跟踪通常使用所有雷达进行目标跟踪[1,2],研究的重点在于融合结构和融合算法[1,2],在传感器优化选取方面研究较少,目前,主要有基于目标预测的误差协方差矩阵[3,4]和信息增益[5]这两类优化准则的方法。第1类方法主要思想是依据目标跟踪的实际误差协方差矩阵与预设的期望协方差矩阵之间的差别进行雷达节点选择,使实际协方差矩阵在某种意义上逼近期望协方差矩阵;第2类方法主要思想是通过一个测量行为执行前后信息熵的减少求得信息增量,然后根据使信息增量最大的准则对传感器资源进行科学合理的分配。然而,第1类方法,实际中目标跟踪误差协方差矩阵的变化是相对缓慢的,灵敏度并不高,因此选择标准的精度不高;第2类方法仅是基于单部雷达的跟踪效果进行雷达的选取,并不能适用于雷达组合的选择。

    本文提出了使用信息熵定量度量由多雷达联合观测获得的目标的信息量,并给出了该信息量的下界。以此为基础,本文提出基于信息熵的雷达动态自适应选择跟踪方法,该方法通过最小化观测信息熵下界,实时选择信息量高的多个雷达节点进行目标跟踪,从而避免使用信息量低或无信息量的雷达量测。最后,仿真结果表明提出方法的跟踪效果优于任意选择雷达跟踪的平均效果。

    本文结构如下。第2节建立了多雷达跟踪目标的状态空间模型。第3节给出了多雷达观测信息熵的定量度量方法及其下界,进而理论推导了雷达动态自适应选择跟踪方法。第4节仿真对比了不同跟踪方法的效果。第5节为结束语。

    在目标跟踪中,通常使用动态空间模型对目标的运动状态进行描述,包括状态方程和量测方程。其中,状态方程描述了目标运动状态随时间演变的过程,量测方程描述了雷达观测与目标状态的关系。其中,目标运动的状态方程为:

    X(k)=f(X(k1))+V(k) (1)

    其中,X(k)为k时刻目标的状态,f为状态转移函数,V(k)为零均值、协方差矩阵为Q(k)的白色高斯过程噪声序列。

    雷达通常在2维或3维极坐标系中获得观测值,而目标运动则是在直角坐标系中描述[3,4]。假设目标运动在2维平面,雷达在极坐标系下获得探测目标的观测值。针对任意的多雷达探测系统构型,并且不失一般性,考虑各雷达自发自收的情况,k时刻第n部雷达的观测向量记为Zn(k)=[rn(k) an(k)]T。其中,rn(k)为第n部雷达与目标之间的径向距离,an(k)为第n部雷达与目标之间的方位角。由N部雷达组成的多雷达系统形成的观测集合Z(k)={Z1(k) Z2(k) ··· ZN(k)},对应的观测方程为:

    Zn(k)=hn(X(k))+Wn(k),n=1,2,···,N (2)

    其中,hn(X(k))为观测函数,具体计算方程为:

    hn(X(k))=[(x(k)xr,n)2+(y(k)yr,n)2arctan[(y(k)yr,n)/(x(k)xr,n)]] (3)

    其中,(x(k) y(k))为k时刻目标在直角坐标系中的位置,( xr,n , yr,n )为第n部接收雷达的直角坐标位置。并且, xr,n 为位置的横坐标, yr,n 为位置的纵坐标。Wn(k)为与过程噪声不相关的测量噪声, Wn(k)= [wrn(k) wan(k)]T ,测距噪声 wrn(k) 和方位角测角噪声 wan(k) 是均值为零、标准差分别为 σrn σan 的统计独立的高斯白噪声,其中 σrn 表征了第n部雷达径向距离测量值误差的波动大小, σan 表征了第n部雷达方位角测量值误差的波动大小。

    相应的观测协方差矩阵 Rn(k) 为:

    Rn(k)=E(Wn(k)Wn(k)T)=[(σrn)200(σan)2] (4)

    基于上述目标状态方程和观测方法,通常使用所有雷达进行目标跟踪,然而实际中不同雷达观测目标获得的信息量不同,有高有低,甚至有些雷达没有观测到任何目标信息,为此,需要从这些雷达中选择出信息含量高的雷达进行目标跟踪,提高目标跟踪效果。

    N部雷达组成的多雷达系统的观测量可以表示为 r=[rn]1×N , a=[an]1×N ,每个观测量为:

    rn=Rn+wrn (5)
    an=An+wan (6)

    其中, Rn , An分别为目标相对于第n部雷达的真实距离和角度,并且雷达n的目标距离观测噪声 wrnN(0,(σrn)2) ,测角噪声 wanN(0,(σan)2)

    N部雷达构成的多雷达系统极坐标观测的条件下,目标直角坐标位置估计协方差矩阵记为:

    RN,xy=E[(xˆx)(xˆx)(xˆx)(yˆy)(xˆx)(yˆy)(yˆy)(yˆy)] (7)

    多雷达观测是为了更多更准确地获得目标位置信息,将由多雷达的极坐标系观测获得目标直角坐标位置的信息量,定义为多雷达联合观测信息熵,根据信息论原理,推导得N部雷达观测信息熵为:

    HN(x,y|r,a)=12ln((2πe)N|RN,xy|) (8)

    根据参数估计理论[6],由式(8)可知,多雷达联合观测信息熵下界为:

    HN(x,y|r,a)12ln((2πe)N|I1N(x,y|r,a)|) (9)

    其中, IN(x,y|r,a) 为Fisher信息矩阵。根据参数估计理论[6],式(9)中Fisher信息矩阵可以写为:

    \begin{align} &\!\!\!{{{{I}}}\!_N}\left( {x,y|{{{r}}},{{{a}}}} \right) \!\\[ &\!\!\! =\!\! \left[\!\!\!\! {\begin{array}{*{20}{c}} { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {x^2}}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial y\partial x}}} \right]}\\ { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial x\partial y}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {y^2}}}} \right]} \end{array}} \!\!\!\right] \end{align} (10)

    其中,fN(r, a)为由N部自发自收雷达组成的多雷达系统观测的联合概率密度函数。假设各个观测值独立不相关,那么根据式(5),式(6)中各个雷达观测服从的概率分布可知,联合概率密度函数fN(r, a)为:

    fN(r,a)=Nn=112πσrnexp(|rnRn|22(σrn)2)12πσanexp(|anAn|22(σan)2) (11)

    由式(9)、式(10)及式(11)可知,在目标距离雷达站较远时,影响多雷达极坐标量测的信息熵下界的因素包括各雷达站与目标距离、方位角,以及各雷达站的测距精度和测角精度。

    根据贝叶斯理论可知目标跟踪主要过程为,首先使用目标运动状态方程进行预测,获得目标状态的先验信息,然后再结合最新时刻的观测值来更新预测值,获得目标状态的后验概率密度,这样后验概率密度就包含了先验信息和观测在内的所有可利用信息,获得目标状态估计结果。因而,目标跟踪过程可理解为:后验=先验+观测,这表示调节观测会影响目标状态估计结果。

    本文提出的基于信息熵的雷达节点自适应选择跟踪方法通过使用信息含量高的雷达节点而不是全部雷达节点进行目标跟踪,从而避免使用信息含量少甚至没有目标信息的雷达,有效提高目标跟踪效果。本文提出的方法在确定要选择的雷达站数目的情况下,通过最小化多雷达观测信息熵下界对每个时刻的雷达编号进行选择,然后使用所选取的信息量高的雷达对目标进行联合跟踪,从而获得较高的目标跟踪精度。

    不失一般性,假设多雷达系统中共N部雷达,并且自发自收,在目标k时刻多雷达联合跟踪获得的目标状态估计值为 ˆX(k|k) , P(k|k) ,那么由k时刻递推到k+1时刻目标状态估计的过程描述如下。

    •多雷达的选择

    k+1时刻的多个观测量中找出那些具有大的信息量的观测,利用这些观测量来更有效地提高目标跟踪精度。本文以信息熵下界最小,每个时刻自适应从多雷达观测信息熵中选出数值最小的两部(或多部)雷达编号,然后用于目标跟踪。

    假设所选雷达站个数为N0(N0<N),那么计算N部雷达中任意N0部雷达的观测信息熵下界,形成 CN0N 个观测信息熵结果,进而选取具有最小观测信息熵下界的N0部雷达的编号集 ˆΘ ,用这一编号集中的雷达进行多雷达站联合跟踪。为此,由式(9)可得雷达编号集为:

    ˆΘ=argminΘ12ln((2πe)N0|I1N0(x,y|r,a)|) (12)

    由于函数ln(·)单调递增,式(12)中 ˆΘ 的求解等价为:

    ˆΘ=argmaxΘ|IN0(x,y|r,a)| (13)

    其中, IN0 (x, y|r, a)为N0部雷达观测获得目标位置状态估计的Fisher信息矩阵,其求解过程与3.1节中的求N部雷达的类似,仅需要将式(11)中的N部雷达观测的联合概率密度函数替换为N0部雷达观测的联合概率密度函数,其表示为:

    fN0(rN0,aN0)=nΘ12πσrne(|rnRn|22(σrn)2)12πσane(|anAn|22(σan)2) (14)

    式中, rN0,aN0 分别为N0部雷达距离和方位角观测集, Θ N部雷达中任意N0部雷达组成的集合,共有 CN0N 个。其余参数含义同3.1节。

    目前的多雷达融合跟踪算法都与融合结构密切相关,融合结构大致分成3大类:集中式、分布式和混合式[7]。集中式融合也称为中心式融合(centralized fusion)或量测融合(measurement fusion)。分布式融合(distributed fusion)是各传感器都具有自己的局部处理器,能够形成局部航迹,所以在融合中心也主要是对各局部航迹进行融合,所以这种融合方法通常也称为航迹融合(track fusion)。混合式融合(hybrid fusion)是集中式结构和分布式结构的一种综合,融合中心得到的可能是原始量测数据,也可能是局部节点处理过的数据。

    在选择完所用的雷达编号后,可采用这3种融合结构的任何一种进行目标融合跟踪,本文以航迹级融合为例,主要步骤包括使用上一时刻目标融合的位置状态估计对时刻k+1目标状态进行预测,然后使用所选择雷达分别对k+1时刻目标状态进行更新,最后对所选取的雷达的k+1时刻目标状态估计进行融合,获得目标k+1时刻状态估计结果。更为具体的算法描述如下。

    •目标状态预测

    从最优贝叶斯跟踪滤波的角度来看,在获得k时刻的观测值之前,根据目标运动状态转移模型,目标状态预测实现先验概率 p(X(k)|Z1:k) p(X(k+1)|Z1:k) 的求解[8]。假设在k–1时刻, p(X(k)|Z1:k) 是已知的,那么,对于1阶马尔可夫过程(即该时刻的状态仅与上一时刻的状态值有关,而与之前所有时刻的状态值无关),由Chapman- Kolmogorov方程可知

    p(X(k+1)|Z1:k)=p(X(k+1)|X(k))p(X(k)|Z1:k)dX(k) (15)

    其中, p(X(k+1)|X(k)) 为目标状态转移概率, Z1:k 表示从1到k时刻观测量的集合,即 Z1:k= {Z(1),Z(2),···,Z(k)} 。根据目标运动方程,可得式(15)中的目标状态转移概率为:

    p(X(k+1)|X(k))=N(X(k+1);f(X(k)),Q(k)) (16)

    式中, N(X(k+1);f(X(k)),Q(k)) 表示均值为 f(X(k)) ,协方差矩阵为 Q(k) 的高斯分布。

    上述最优贝叶斯跟踪下的目标状态预测过程的具体实现可以采用转换量测卡尔曼滤波(CMKF)、基于泰勒展开式的扩展卡尔曼滤波[911](Extended Kalman Filter, EKF),不敏卡尔曼滤波[12](Unscented Kalman Filter, UKF),粒子滤波[13](PF)等滤波方法中的目标状态预测过程。以EKF预测方法为例,目标状态的一步预测为:

    ˆX(k+1|k)=f(ˆX(k|k)) (17)

    相应地,状态误差协方差矩阵的一步预测为:

    P(k+1|k)=fX(k)P(k|k)fTX(k)+Q(k) (18)

    其中,fX(k)为目标状态转移函数关于 ˆXn (k|k)的雅可比矩阵,Q(k)为白色高斯过程噪声序列的协方差矩阵。

    •目标状态更新

    从最优贝叶斯跟踪滤波的角度来看,目标状态更新是在获得k+1时刻的观测值后,实现先验概率 p(X(k+1)|Z1:k) 至后验概率 p(X(k+1)|Z1:k+1) 的推导。根据贝叶斯定理可知

    p(X(k+1)|Z1:k+1)=p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)dX(k+1) (19)

    其中,根据跟踪滤波的雷达观测模型,式(19)中的似然函数 p(Z(k+1)|X(k+1)) 表达式为:

    p(Z(k+1)|X(k+1))=N(Z(k+1);h(X(k+1)),R(k+1)) (20)

    式中,N(Z(k+1); h(X(k+1)), R(k+1))表示均值为h(X(k+1)),协方差矩阵为R(k+1)的高斯分布。

    同样地,上述最优贝叶斯跟踪下的目标状态更新过程的具体实现可以采用CMKF, EKF, UKF, PF等滤波方法中的目标状态更新过程。本文以EKF目标状态更新过程为例进行描述。

    k+1时刻多雷达观测中的每部雷达观测分别代入滤波中的状态更新,得到对应每部雷达观测的多个目标状态更新值,并将使用第n部雷达观测得到的k+1时刻目标状态更新值记作 ˆX n(k+1|k+1), Pn(k+1|k+1)。具体过程如下:

    由目标跟踪的状态空间方程中的观测方程,可得观测值和观测新息协方差矩阵预测为:

    ˆZn(k+1|k)=hn(ˆX(k+1|k)) (21)
    Sn(k+1|k)=hn,X(k+1)Pn(k+1|k)hTn,X(k+1)+Rn(k+1) (22)

    其中, hn,X(k+1) 为量测函数关于 ˆX n(k+1|k)的雅可比矩阵,即

    hn,X(k+1)=[XhTn(X(k+1))]TX=ˆX(k+1|k)=[x(k+1|k)r(k+1|k)0y(k+1|k)r(k+1|k)0y(k+1|k)(r(k+1|k))20x(k+1|k)(r(k+1|k))20]X=ˆX(k+1|k) (23)

    EKF滤波方法的增益为:

    Pn,XZ=Pn(k+1|k)hn,X(k+1) (24)
    Kn(k+1)=Pn,XZSn(k+1|k)1 (25)

    空间目标状态和协方差矩阵的更新值分别为:

    ˆXn(k+1|k+1)=ˆX(k+1|k)+Kn(k+1)[Zn(k+1)ˆZn(k+1|k)] (26)
    Pn(k+1|k+1)=[IKn(k+1)hn,X(k+1)]P(k+1|k)[I+Kn(k+1)hn,X(k+1)]TKn(k+1)Rn(k+1)KTn(k+1) (27)

    其中,I为4阶单位矩阵,其余变量的含义如上。经由以上步骤,得到了目标在k+1时刻的使用雷达n观测的状态估计 ˆXn (k+1|k+1)及状态协方差矩阵Pn(k+1|k+1)。

    •多雷达跟踪航迹融合

    将选出的N0部雷达的目标状态更新结果进行融合,得到最后的目标状态融合结果作为k+1时刻目标状态估计值。设选择的融合雷达编号集合为 Ω ,并且采用广义凸组合融合1(Generalized Convex Combination 1, GCC1),有时也称为简单凸组合融合(Simple Convex Combination, SCC)[1,2,14],得到的融合结果为:

    ˆX(k+1|k+1)=P(k+1|k+1)nΩP1n(k+1|k+1)ˆXn(k+1|k+1) (28)
    P(k+1|k+1)=(nΩP1n(k+1|k+1))1 (29)

    重复以上步骤直至跟踪结束,便可得到利用雷达观测信息熵下界自适应选择雷达节点,实现目标跟踪的整个过程。

    在目标跟踪中,航迹精度是对跟踪滤波算法性能进行评估的重要指标。航迹精度体现了不同滤波方法对雷达测量误差的平滑程度。概括来讲,航迹精度包括位置精度和速度精度,航迹的位置精度定义为航迹位置估计的均方根误差。目标状态估计的均方根误差越小,滤波器的滤波值与真实值越接近,航迹精度则越高[8]

    m次蒙特卡诺仿真得到滤波估计误差为:

    em(k)=ˆXm(k|k)X(k) (30)

    其中, ˆX m (k+1|k+1)和X(k)分别为k时刻目标状态的跟踪结果和真实值。

    目标跟踪位置和速度估计的均方根误差分别为:

      RMSEPOS(k)=(1MCMCm=1[ˆxm(k|k)x(k)]2+[ˆym(k|k)y(k)]2)1/2 (31)
    \begin{align} {\rm RMSE}_{\rm VEL}\left( k \right) =& \left( \frac{1}{{\rm MC}}\sum\limits_{m = 1}^{\rm MC} {{\left[ {v{{\hat x}_m}\left( {k|k} \right) - vx\left( k \right)} \right]}^2} \right. \\ & + \left. {{\left[ {v{{\hat y}_m}\left( {k|k} \right) - vy\left( k \right)} \right]}^2} \Biggr\right)^{1/2} \end{align} (32)

    其中,向量 (ˆxm ˆym ˆzm) (x y z) 分别为目标在k时刻的位置估计值和真实值,向量 (vˆxm vˆym vˆzm) (vx vy vz) 分别为目标在k时刻的速度估计值和真实值,下标m表示第m次蒙特卡诺仿真,MC为总的蒙特卡诺仿真次数,本文设置为200,并且各部雷达的测距和测角误差方差分别为 σ2r=25 m2 , σ2θ= 0.0003 rad2

    假设在多雷达系统中共有4部雷达,它们在直角坐标系中的位置为:雷达1为(0, 0)、雷达2为(20000, 0) m、雷达3为(20000, 0) m和雷达4为(1000, 20000) m。设置的4部雷达站位置与目标航迹如图1所示。其中,目标运动时间为40 s,运动间隔为1 s,并在前26 s时间内目标做匀速直线运动,在26 s时目标进行了转弯,然后进行匀速直线运动,目标运动方向如图中箭头所示。

    图  1  4部雷达位置与目标航迹图
    Figure  1.  Radars locations and target trajectory

    为了仿真验证提出的方法,需要从场景中的4部雷达选择信息含量高的N0部雷达进行跟踪,而此个数在实际的多目标多任务复杂跟踪场景,需要进行合理设置。本文从验证提出的方法的角度出发,可以将N0进行人为设置。不失一般性,设计N0=2,即从4部雷达选出联合信息量最多的2部雷达进行联合跟踪。根据3.2节中雷达优化选择方法,可知不同时刻跟踪选择的雷达站编号如图2所示。

    图  2  不同时刻选择的信息量高的雷达编号
    Figure  2.  Radars indexes selected by fusion entropy model

    将基于联合信息量最大选出的两部雷达进行融合跟踪的方法记为“基于信息熵的联合跟踪”;将不采用信息量最大选择出的任意两部雷达跟踪的效果的平均记为“传统联合跟踪”。对比单部雷达跟踪、不采用和采用信息熵的联合跟踪效果,结果如图3图4所示。

    图  3  目标位置跟踪精度对比
    Figure  3.  Comparison of target position RMSE
    图  4  目标速度跟踪精度对比
    Figure  4.  Comparison of target velocity RMSE

    图3图4可知,采用基于两部联合信息量最大选出的雷达进行融合跟踪,得到的位置精度和速度精度最好,其次是不采用基于信息熵的任意两部雷达融合跟踪的平均效果,而单雷达跟踪效果最差。

    为了满足现代复杂战场动态作战需求,针对单雷达站信息量少跟踪精度不高,而多雷达系统中不同雷达、不同时刻获得目标信息量的多少不同的问题,提出一种基于信息熵的雷达动态自适应选择跟踪方法。该方法使用信息熵定量刻画了由多雷达极坐标观测获得目标直角坐标位置的信息量,并给出了其下界。进而,通过最小化雷达观测目标的信息熵下界,理论推导了每个时刻实时最优化选取目标信息含量高的雷达站进行跟踪的方法,具有良好的目标跟踪效果。

  • 图  1  现阶段SAR信息处理基本流程图

    Figure  1.  Basic flow chart of SAR information processing at present

    图  2  一种SAR“回波数据域”到“目标参数域”成像解译一体化流程图

    Figure  2.  An flow chart of SAR imaging & interpretation integration from “echo data domain” to “target parameter domain”

    图  3  1维SAR观测模型示意图

    Figure  3.  One dimensional SAR observation model

    图  4  SAR学习成像网络结构图

    Figure  4.  Network structure of SAR learning-imaging

    图  5  非监督训练、γ=1, 20 dB信噪比条件下成像结果对比

    Figure  5.  Comparison of imaging results using unsupervised training, γ=1 and SNR=20 dB

    图  6  非监督训练、γ=0.1, 5 dB信噪比条件下成像结果对比

    Figure  6.  Comparison of imaging results using unsupervised training, γ=0.1 and SNR=5 dB

    图  7  低PRF条件下成像结果对比

    Figure  7.  Imaging results under low PRF condition

    图  8  不同样本数据量对应的网络训练误差

    Figure  8.  Network training error corresponding to differentnumber of training samples

    图  9  含载机轨迹误差条件下成像结果对比

    Figure  9.  Imaging results with platform trajectory error

    图  10  MSTAR目标成像结果对比

    Figure  10.  MSTAR target imaging results

    图  11  MSTAR其它两种目标成像结果对比

    Figure  11.  Imaging results of two different targets in MSTAR dataset

    表  1  雷达参数和网络参数

    Table  1.   Parameters of radar and network

    参数
    雷达参数载频fc (GHz)10
    带宽Br (MHz)150
    脉冲重复频率PRF (Hz)500
    脉冲持续时间Tr (μs)1.2
    方位向分辨率(m)2
    距离向分辨率(m)2
    平台高度H (m)10000
    平台速度v (m/s)100
    网络参数网络层数L
    训练样本数量Ntrain
    学习率η
    随机降采样率γ
    下载: 导出CSV

    表  2  成像质量与成像时间对比

    Table  2.   Comparison of imaging quality and imaging time

    算法γ=1, 20 dB信噪比γ=0.1, 5 dB信噪比
    PSNR (dB)NMSEPLSR (dB)成像时间(s) PSNR (dB)NMSEPLSR (dB)成像时间(s)
    stOMP24.610.25–15.5510.93–13.051.46e31.20
    l1/2范数ISTA24.440.26–15.6948.3421.600.50–13.874.83
    所提方法L=319.950.73–17.400.15119.720.77–13.560.012
    所提方法L=825.580.20–19.490.15422.910.37–16.010.012
    所提方法L=1125.800.19–19.520.15122.910.37–16.130.012
    下载: 导出CSV
  • [1] 保铮, 邢孟道, 王彤. 雷达成像技术[M]. 北京: 电子工业出版社, 2006: 1–6.

    BAO Zheng, XING Mengdao, and WANG Tong. Radar Imaging Technologies[M]. Beijing: Publishing House of Electronics Industry, 2006: 1–6.
    [2] HONG Wen, WANG Yanping, TAN Weixian, et al. Tomographic SAR and circular SAR experiments in anechoic chamber[C]. The 7th European Conference on Synthetic Aperture Radar, Friedrichshafen, Germany, 2008: 1–6.
    [3] 洪文, 王彦平, 林赟, 等. 新体制SAR三维成像技术研究进展[J]. 雷达学报, 2018, 7(6): 633–654. doi: 10.12000/JR18109

    HONG Wen, WANG Yanping, LIN Yun, et al. Research progress on three-dimensional SAR imaging techniques[J]. Journal of Radars, 2018, 7(6): 633–654. doi: 10.12000/JR18109
    [4] YANG Wei, CHEN Jie, LIU Wei, et al. A modified three-step algorithm for TOPS and sliding spotlight SAR data processing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(12): 6910–6921. doi: 10.1109/TGRS.2017.2735993
    [5] CHEN Siwei, WANG Xuesong, and XIAO Shunping. Urban damage level mapping based on co-polarization coherence pattern using multitemporal polarimetric SAR data[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(8): 2657–2667. doi: 10.1109/JSTARS.2018.2818939
    [6] YANG Jungang, THOMPSON J, HUANG Xiaotao, et al. Random-frequency SAR imaging based on compressed sensing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(2): 983–994. doi: 10.1109/TGRS.2012.2204891
    [7] CHEN Yichang, LI Gang, ZHANG Qun, et al. Motion compensation for airborne SAR via parametric sparse representation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(1): 551–562. doi: 10.1109/TGRS.2016.2611522
    [8] 唐禹, 王岩飞, 张冰尘. 滑动聚束SAR成像模式研究[J]. 电子与信息学报, 2007, 29(1): 26–29. doi: 10.3724/SP.J.1146.2005.00398

    TANG Yu, WANG Yanfei, and ZHANG Bingchen. A study of sliding spotlight SAR imaging mode[J]. Journal of Electronics &Information Technology, 2007, 29(1): 26–29. doi: 10.3724/SP.J.1146.2005.00398
    [9] 杨军, 李震宇, 孙光才, 等. 一种新的大斜视TOPS SAR全孔径成像方法[J]. 西安电子科技大学学报: 自然科学版, 2015, 42(1): 42–48, 55. doi: 10.3969/j.issn.1001-2400.2015.01.08

    YANG Jun, LI Zhenyu, SUN Guangcai, et al. Novel full aperture imaging algorithm for highly squinted TOPS SAR[J]. Journal of Xidian University:Natural Science, 2015, 42(1): 42–48, 55. doi: 10.3969/j.issn.1001-2400.2015.01.08
    [10] ZHU Xiaoxiang and BAMLER R. Tomographic SAR inversion by L1-norm regularization-the compressive sensing approach[J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(10): 3839–3846. doi: 10.1109/TGRS.2010.2048117
    [11] ZHANG Fubo, LIANG Xingdong, WU Yirong, et al. 3D surface reconstruction of layover areas in continuous terrain for multi-baseline SAR interferometry using a curve model[J]. International Journal of Remote Sensing, 2015, 36(8): 2093–2112. doi: 10.1080/01431161.2015.1030042
    [12] TAN Weixian, HUANG Pingping, HAN Kuoye, et al. Array error calibration methods in downward-looking linear-array three-dimensional synthetic aperture radar[J]. Journal of Applied Remote Sensing, 2016, 10(2): 025010. doi: 10.1117/1.jrs.10.025010
    [13] 徐丰, 金亚秋. 从物理智能到微波视觉[J]. 科技导报, 2018, 36(10): 30–44. doi: 10.3981/j.issn.1000-7857.2018.10.004

    XU Feng and JIN Yaqiu. From the emergence of intelligent science to the research of microwave vision[J]. Science &Technology Review, 2018, 36(10): 30–44. doi: 10.3981/j.issn.1000-7857.2018.10.004
    [14] 丁赤飚, 仇晓兰, 徐丰, 等. 合成孔径雷达三维成像——从层析、阵列到微波视觉[J]. 雷达学报, 2019, 8(6): 693–709. doi: 10.12000/JR19090

    DING Chibiao, QIU Xiaolan, XU Feng, et al. Synthetic aperture radar three-dimensional imaging—from TomoSAR and array InSAR to microwave vision[J]. Journal of Radars, 2019, 8(6): 693–709. doi: 10.12000/JR19090
    [15] LI Gang, XIA Xianggen, XU Jia, et al. A velocity estimation algorithm of moving targets using single antenna SAR[J]. IEEE Transactions on Aerospace and Electronic Systems, 2009, 45(3): 1052–1062. doi: 10.1109/TAES.2009.5259182
    [16] YANG Jungang, HUANG Xiaotao, THOMPSON J, et al. Compressed sensing radar imaging with compensation of observation position error[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(8): 4608–4620. doi: 10.1109/tgrs.2013.2283054
    [17] CHEN Yichang, ZHANG Qun, YIN Yufu, et al. Estimation of the velocity of a moving ground target using a SAR system, based on a modified multiple-measurement vector model[J]. Remote Sensing Letters, 2017, 8(10): 937–946. doi: 10.1080/2150704X.2017.1339919
    [18] ZHANG Bingchen, HONG Wen, and WU Yirong. Sparse microwave imaging: Principles and applications[J]. Science China Information Sciences, 2012, 55(3): 1722–1754. doi: 10.1007/s11432-012-4633-4
    [19] NI Jiacheng, ZHANG Qun, LUO Ying, et al. Compressed sensing SAR imaging based on centralized sparse representation[J]. IEEE Sensors Journal, 2018, 18(12): 4920–4932. doi: 10.1109/JSEN.2018.2831921
    [20] NI Jiacheng, ZHANG Qun, YIN Yufu, et al. A novel scan SAR imaging method for maritime surveillance via Lp regularization[J]. International Journal of Remote Sensing, 2018, 39(1): 169–190. doi: 10.1080/01431161.2017.1382744
    [21] 焦李成, 张向荣, 侯彪, 等. 智能SAR图像处理与解译[M]. 北京: 科学出版社, 2008: 1–7.

    JIAO Licheng, ZHANG Xiangrong, HOU Biao, et al. Intelligent SAR Image Processing and Interpretation[M]. Beijing: Science Press, 2008: 1–7.
    [22] 张新征, 谭志颖, 王亦坚. 基于多特征-多表示融合的SAR图像目标识别[J]. 雷达学报, 2017, 6(5): 492–502. doi: 10.12000/JR17078

    ZHANG Xinzheng, TAN Zhiying, and WANG Yijian. SAR target recognition based on multi-feature multiple representation classifier fusion[J]. Journal of Radars, 2017, 6(5): 492–502. doi: 10.12000/JR17078
    [23] 王俊, 郑彤, 雷鹏, 等. 深度学习在雷达中的研究综述[J]. 雷达学报, 2018, 7(4): 395–411. doi: 10.12000/JR18040

    WANG Jun, ZHENG Tong, LEI Peng, et al. Study on deep learning in radar[J]. Journal of Radars, 2018, 7(4): 395–411. doi: 10.12000/JR18040
    [24] CHANG J H R, LI Chunliang, PÓCZOS B, et al. One network to solve them all-solving linear inverse problems using deep projection models[C]. 2017 IEEE International Conference on Computer Vision (ICCV), Venice, Italy, 2017: 5888–5897. doi: 10.1109/ICCV.2017.627.
    [25] SHAH V and HEGDE C. Solving linear inverse problems using GAN priors: An algorithm with provable guarantees[C]. 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Calgary, Canada, 2018: 4609–4613. doi: 10.1109/ICASSP.2018.8462233.
    [26] ZHANG Kai, ZUO Wangmeng, CHEN Yunjin, et al. Beyond a Gaussian denoiser: Residual learning of deep CNN for image denoising[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3142–3155. doi: 10.1109/TIP.2017.2662206
    [27] MASON E, YONEL B, and YAZICI Y B. Deep learning for SAR image formation[C]. SPIE 10201, Algorithms for Synthetic Aperture Radar Imagery XXIV, Anaheim, USA, 2017. doi: 10.1117/12.2267831.
    [28] BORGERDING M, SCHNITER P, and RANGAN S. AMP-inspired deep networks for sparse linear inverse problems[J]. IEEE Transactions on Signal Processing, 2017, 65(16): 4293–4308. doi: 10.1109/TSP.2017.2708040
  • 期刊类型引用(10)

    1. 陈小龙,何肖阳,邓振华,关键,杜晓林,薛伟,苏宁远,王金豪. 雷达微弱目标智能化处理技术与应用. 雷达学报. 2024(03): 501-524 . 本站查看
    2. 李文哲,李开明,岳屹峰,王金昊,许慧革,罗迎. 基于时空注意力-Seq2Seq网络的ISAR包络对齐方法. 信号处理. 2024(09): 1659-1673 . 百度学术
    3. 李晓帆,邓彬,罗成高,王宏强,范磊,付强. 基于深度学习的雷达成像研究进展. 太赫兹科学与电子信息学报. 2023(09): 1086-1099 . 百度学术
    4. 张群,张宏伟,倪嘉成,罗迎. 合成孔径雷达深度学习成像研究综述. 信号处理. 2023(09): 1521-1551 . 百度学术
    5. 黄钟泠,姚西文,韩军伟. 面向SAR图像解译的物理可解释深度学习技术进展与探讨. 雷达学报. 2022(01): 107-125 . 本站查看
    6. 刘通,赵志钦,曹兰英. 基于截获因子评价的双基前视SAR成像LPI设计. 雷达科学与技术. 2022(04): 449-456+463 . 百度学术
    7. 陈鹭伟,罗迎,倪嘉成,熊世超. 基于深度展开的SAR大斜视RD成像算法. 空军工程大学学报. 2022(04): 43-51 . 百度学术
    8. 张云,穆慧琳,姜义成,丁畅. 基于深度学习的雷达成像技术研究进展. 雷达科学与技术. 2021(05): 467-478 . 百度学术
    9. 卞粱,晋良念,刘庆华. 衍射层析模型下穿墙雷达三维学习成像方法. 雷达科学与技术. 2021(06): 669-676+688 . 百度学术
    10. 陈小龙,陈唯实,饶云华,黄勇,关键,董云龙. 飞鸟与无人机目标雷达探测与识别技术进展与展望. 雷达学报. 2020(05): 803-827 . 本站查看

    其他类型引用(15)

  • 加载中
图(11) / 表(2)
计量
  • 文章访问数: 6204
  • HTML全文浏览量: 1883
  • PDF下载量: 690
  • 被引次数: 25
出版历程
  • 收稿日期:  2019-11-27
  • 修回日期:  2020-02-26
  • 网络出版日期:  2020-02-01

目录

/

返回文章
返回