Loading [MathJax]/jax/output/SVG/jax.js
Ge Jianjun, Li Chunxia. A Dynamic and Adaptive Selection Radar Tracking Method Based on Information Entropy[J]. Journal of Radars, 2017, 6(6): 587-593. doi: 10.12000/JR17081
Citation: LI Zhongyu, PI Haozhuo, LI Jun’ao, et al. Clutter suppression technology based space-time adaptiveANM-ADMM-Net for bistatic SAR[J]. Journal of Radars, in press. doi: 10.12000/JR24032

Clutter Suppression Technology Based Space-time Adaptive ANM-ADMM-Net for Bistatic SAR

DOI: 10.12000/JR24032
Funds:  The National Natural Science Foundation of China (62171084), The Municipal Government of Quzhou (2022D014)
More Information
  • Bistatic Synthetic Aperture Radar (BiSAR) needs to suppress ground background clutter when detecting and imaging ground moving targets. However, due to the spatial configuration of BiSAR, the clutter poses a serious space-time nonstationary problem, which deteriorates the clutter suppression performance. Although Space-Time Adaptive Processing based on Sparse Recovery (SR-STAP) can reduce the nonstationary problem by reducing the number of samples, the off-grid dictionary problem will occur during processing, resulting in a decrease in the space-time spectrum estimation effect. Although most of the typical SR-STAP methods have clear mathematical relations and interpretability, they also have some problems, such as improper parameter setting and complicated operation in complex and changeable scenes. To solve the aforementioned problems, a complex neural network based on the Alternating Direction Multiplier Method (ADMM), is proposed for BiSAR space-time adaptive clutter suppression. First, a sparse recovery model of the continuous clutter space-time domain of BiSAR is constructed based on the Atomic Norm Minimization (ANM) to overcome the off-grid problem associated with the traditional discrete dictionary model. Second, ADMM is used to rapidly and iteratively solve the BiSAR clutter spectral sparse recovery model. Third according to the iterative and data flow diagrams, the artificial hyperparameter iterative process is transformed into ANM-ADMM-Net. Then, the normalized root-mean-square-error network loss function is set up and the network model is trained with the obtained data set. Finally, the trained ANM-ADMM-Net architecture is used to quickly process BiSAR echo data, and the space-time spectrum of BiSAR clutter is accurately estimated and efficiently restrained. The effectiveness of this approach is validated through simulations and airborne BiSAR clutter suppression experiments.

     

  • 分布式多雷达系统节点多、分布广,为了适应复杂战场动态作战需求,需要根据作战任务动态组织各个站点的工作,提高整个系统抗干扰、抗截获、抗摧毁等能力。实际中,受各雷达节点工作参数及相对目标的位置等因素的影响,不同节点观测目标获得的信息量不同,为此,如何根据战场态势,动态优化选择雷达站点“匹配”目标跟踪,是一个重要问题。

    目标跟踪理论是基于状态空间模型的递推结构,利用所有已知信息来求得目标状态变量的后验概率密度。即使用目标运动状态方程预测目标状态的先验概率,再利用最新时刻的雷达观测值来修正,得到状态的后验概率密度。传统多雷达跟踪通常使用所有雷达进行目标跟踪[1,2],研究的重点在于融合结构和融合算法[1,2],在传感器优化选取方面研究较少,目前,主要有基于目标预测的误差协方差矩阵[3,4]和信息增益[5]这两类优化准则的方法。第1类方法主要思想是依据目标跟踪的实际误差协方差矩阵与预设的期望协方差矩阵之间的差别进行雷达节点选择,使实际协方差矩阵在某种意义上逼近期望协方差矩阵;第2类方法主要思想是通过一个测量行为执行前后信息熵的减少求得信息增量,然后根据使信息增量最大的准则对传感器资源进行科学合理的分配。然而,第1类方法,实际中目标跟踪误差协方差矩阵的变化是相对缓慢的,灵敏度并不高,因此选择标准的精度不高;第2类方法仅是基于单部雷达的跟踪效果进行雷达的选取,并不能适用于雷达组合的选择。

    本文提出了使用信息熵定量度量由多雷达联合观测获得的目标的信息量,并给出了该信息量的下界。以此为基础,本文提出基于信息熵的雷达动态自适应选择跟踪方法,该方法通过最小化观测信息熵下界,实时选择信息量高的多个雷达节点进行目标跟踪,从而避免使用信息量低或无信息量的雷达量测。最后,仿真结果表明提出方法的跟踪效果优于任意选择雷达跟踪的平均效果。

    本文结构如下。第2节建立了多雷达跟踪目标的状态空间模型。第3节给出了多雷达观测信息熵的定量度量方法及其下界,进而理论推导了雷达动态自适应选择跟踪方法。第4节仿真对比了不同跟踪方法的效果。第5节为结束语。

    在目标跟踪中,通常使用动态空间模型对目标的运动状态进行描述,包括状态方程和量测方程。其中,状态方程描述了目标运动状态随时间演变的过程,量测方程描述了雷达观测与目标状态的关系。其中,目标运动的状态方程为:

    X(k)=f(X(k1))+V(k) (1)

    其中,X(k)为k时刻目标的状态,f为状态转移函数,V(k)为零均值、协方差矩阵为Q(k)的白色高斯过程噪声序列。

    雷达通常在2维或3维极坐标系中获得观测值,而目标运动则是在直角坐标系中描述[3,4]。假设目标运动在2维平面,雷达在极坐标系下获得探测目标的观测值。针对任意的多雷达探测系统构型,并且不失一般性,考虑各雷达自发自收的情况,k时刻第n部雷达的观测向量记为Zn(k)=[rn(k) an(k)]T。其中,rn(k)为第n部雷达与目标之间的径向距离,an(k)为第n部雷达与目标之间的方位角。由N部雷达组成的多雷达系统形成的观测集合Z(k)={Z1(k) Z2(k) ··· ZN(k)},对应的观测方程为:

    Zn(k)=hn(X(k))+Wn(k),n=1,2,···,N (2)

    其中,hn(X(k))为观测函数,具体计算方程为:

    hn(X(k))=[(x(k)xr,n)2+(y(k)yr,n)2arctan[(y(k)yr,n)/(x(k)xr,n)]] (3)

    其中,(x(k) y(k))为k时刻目标在直角坐标系中的位置,( xr,n , yr,n )为第n部接收雷达的直角坐标位置。并且, xr,n 为位置的横坐标, yr,n 为位置的纵坐标。Wn(k)为与过程噪声不相关的测量噪声, Wn(k)= [wrn(k) wan(k)]T ,测距噪声 wrn(k) 和方位角测角噪声 wan(k) 是均值为零、标准差分别为 σrn σan 的统计独立的高斯白噪声,其中 σrn 表征了第n部雷达径向距离测量值误差的波动大小, σan 表征了第n部雷达方位角测量值误差的波动大小。

    相应的观测协方差矩阵 Rn(k) 为:

    Rn(k)=E(Wn(k)Wn(k)T)=[(σrn)200(σan)2] (4)

    基于上述目标状态方程和观测方法,通常使用所有雷达进行目标跟踪,然而实际中不同雷达观测目标获得的信息量不同,有高有低,甚至有些雷达没有观测到任何目标信息,为此,需要从这些雷达中选择出信息含量高的雷达进行目标跟踪,提高目标跟踪效果。

    N部雷达组成的多雷达系统的观测量可以表示为 r=[rn]1×N , a=[an]1×N ,每个观测量为:

    rn=Rn+wrn (5)
    an=An+wan (6)

    其中, Rn , An分别为目标相对于第n部雷达的真实距离和角度,并且雷达n的目标距离观测噪声 wrnN(0,(σrn)2) ,测角噪声 wanN(0,(σan)2)

    N部雷达构成的多雷达系统极坐标观测的条件下,目标直角坐标位置估计协方差矩阵记为:

    RN,xy=E[(xˆx)(xˆx)(xˆx)(yˆy)(xˆx)(yˆy)(yˆy)(yˆy)] (7)

    多雷达观测是为了更多更准确地获得目标位置信息,将由多雷达的极坐标系观测获得目标直角坐标位置的信息量,定义为多雷达联合观测信息熵,根据信息论原理,推导得N部雷达观测信息熵为:

    HN(x,y|r,a)=12ln((2πe)N|RN,xy|) (8)

    根据参数估计理论[6],由式(8)可知,多雷达联合观测信息熵下界为:

    HN(x,y|r,a)12ln((2πe)N|I1N(x,y|r,a)|) (9)

    其中, IN(x,y|r,a) 为Fisher信息矩阵。根据参数估计理论[6],式(9)中Fisher信息矩阵可以写为:

    \begin{align} &\!\!\!{{{{I}}}\!_N}\left( {x,y|{{{r}}},{{{a}}}} \right) \!\\[ &\!\!\! =\!\! \left[\!\!\!\! {\begin{array}{*{20}{c}} { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {x^2}}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial y\partial x}}} \right]}\\ { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial x\partial y}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {y^2}}}} \right]} \end{array}} \!\!\!\right] \end{align} (10)

    其中,fN(r, a)为由N部自发自收雷达组成的多雷达系统观测的联合概率密度函数。假设各个观测值独立不相关,那么根据式(5),式(6)中各个雷达观测服从的概率分布可知,联合概率密度函数fN(r, a)为:

    fN(r,a)=Nn=112πσrnexp(|rnRn|22(σrn)2)12πσanexp(|anAn|22(σan)2) (11)

    由式(9)、式(10)及式(11)可知,在目标距离雷达站较远时,影响多雷达极坐标量测的信息熵下界的因素包括各雷达站与目标距离、方位角,以及各雷达站的测距精度和测角精度。

    根据贝叶斯理论可知目标跟踪主要过程为,首先使用目标运动状态方程进行预测,获得目标状态的先验信息,然后再结合最新时刻的观测值来更新预测值,获得目标状态的后验概率密度,这样后验概率密度就包含了先验信息和观测在内的所有可利用信息,获得目标状态估计结果。因而,目标跟踪过程可理解为:后验=先验+观测,这表示调节观测会影响目标状态估计结果。

    本文提出的基于信息熵的雷达节点自适应选择跟踪方法通过使用信息含量高的雷达节点而不是全部雷达节点进行目标跟踪,从而避免使用信息含量少甚至没有目标信息的雷达,有效提高目标跟踪效果。本文提出的方法在确定要选择的雷达站数目的情况下,通过最小化多雷达观测信息熵下界对每个时刻的雷达编号进行选择,然后使用所选取的信息量高的雷达对目标进行联合跟踪,从而获得较高的目标跟踪精度。

    不失一般性,假设多雷达系统中共N部雷达,并且自发自收,在目标k时刻多雷达联合跟踪获得的目标状态估计值为 ˆX(k|k) , P(k|k) ,那么由k时刻递推到k+1时刻目标状态估计的过程描述如下。

    •多雷达的选择

    k+1时刻的多个观测量中找出那些具有大的信息量的观测,利用这些观测量来更有效地提高目标跟踪精度。本文以信息熵下界最小,每个时刻自适应从多雷达观测信息熵中选出数值最小的两部(或多部)雷达编号,然后用于目标跟踪。

    假设所选雷达站个数为N0(N0<N),那么计算N部雷达中任意N0部雷达的观测信息熵下界,形成 CN0N 个观测信息熵结果,进而选取具有最小观测信息熵下界的N0部雷达的编号集 ˆΘ ,用这一编号集中的雷达进行多雷达站联合跟踪。为此,由式(9)可得雷达编号集为:

    ˆΘ=argminΘ12ln((2πe)N0|I1N0(x,y|r,a)|) (12)

    由于函数ln(·)单调递增,式(12)中 ˆΘ 的求解等价为:

    ˆΘ=argmaxΘ|IN0(x,y|r,a)| (13)

    其中, IN0 (x, y|r, a)为N0部雷达观测获得目标位置状态估计的Fisher信息矩阵,其求解过程与3.1节中的求N部雷达的类似,仅需要将式(11)中的N部雷达观测的联合概率密度函数替换为N0部雷达观测的联合概率密度函数,其表示为:

    fN0(rN0,aN0)=nΘ12πσrne(|rnRn|22(σrn)2)12πσane(|anAn|22(σan)2) (14)

    式中, rN0,aN0 分别为N0部雷达距离和方位角观测集, Θ N部雷达中任意N0部雷达组成的集合,共有 CN0N 个。其余参数含义同3.1节。

    目前的多雷达融合跟踪算法都与融合结构密切相关,融合结构大致分成3大类:集中式、分布式和混合式[7]。集中式融合也称为中心式融合(centralized fusion)或量测融合(measurement fusion)。分布式融合(distributed fusion)是各传感器都具有自己的局部处理器,能够形成局部航迹,所以在融合中心也主要是对各局部航迹进行融合,所以这种融合方法通常也称为航迹融合(track fusion)。混合式融合(hybrid fusion)是集中式结构和分布式结构的一种综合,融合中心得到的可能是原始量测数据,也可能是局部节点处理过的数据。

    在选择完所用的雷达编号后,可采用这3种融合结构的任何一种进行目标融合跟踪,本文以航迹级融合为例,主要步骤包括使用上一时刻目标融合的位置状态估计对时刻k+1目标状态进行预测,然后使用所选择雷达分别对k+1时刻目标状态进行更新,最后对所选取的雷达的k+1时刻目标状态估计进行融合,获得目标k+1时刻状态估计结果。更为具体的算法描述如下。

    •目标状态预测

    从最优贝叶斯跟踪滤波的角度来看,在获得k时刻的观测值之前,根据目标运动状态转移模型,目标状态预测实现先验概率 p(X(k)|Z1:k) p(X(k+1)|Z1:k) 的求解[8]。假设在k–1时刻, p(X(k)|Z1:k) 是已知的,那么,对于1阶马尔可夫过程(即该时刻的状态仅与上一时刻的状态值有关,而与之前所有时刻的状态值无关),由Chapman- Kolmogorov方程可知

    p(X(k+1)|Z1:k)=p(X(k+1)|X(k))p(X(k)|Z1:k)dX(k) (15)

    其中, p(X(k+1)|X(k)) 为目标状态转移概率, Z1:k 表示从1到k时刻观测量的集合,即 Z1:k= {Z(1),Z(2),···,Z(k)} 。根据目标运动方程,可得式(15)中的目标状态转移概率为:

    p(X(k+1)|X(k))=N(X(k+1);f(X(k)),Q(k)) (16)

    式中, N(X(k+1);f(X(k)),Q(k)) 表示均值为 f(X(k)) ,协方差矩阵为 Q(k) 的高斯分布。

    上述最优贝叶斯跟踪下的目标状态预测过程的具体实现可以采用转换量测卡尔曼滤波(CMKF)、基于泰勒展开式的扩展卡尔曼滤波[911](Extended Kalman Filter, EKF),不敏卡尔曼滤波[12](Unscented Kalman Filter, UKF),粒子滤波[13](PF)等滤波方法中的目标状态预测过程。以EKF预测方法为例,目标状态的一步预测为:

    ˆX(k+1|k)=f(ˆX(k|k)) (17)

    相应地,状态误差协方差矩阵的一步预测为:

    P(k+1|k)=fX(k)P(k|k)fTX(k)+Q(k) (18)

    其中,fX(k)为目标状态转移函数关于 ˆXn (k|k)的雅可比矩阵,Q(k)为白色高斯过程噪声序列的协方差矩阵。

    •目标状态更新

    从最优贝叶斯跟踪滤波的角度来看,目标状态更新是在获得k+1时刻的观测值后,实现先验概率 p(X(k+1)|Z1:k) 至后验概率 p(X(k+1)|Z1:k+1) 的推导。根据贝叶斯定理可知

    p(X(k+1)|Z1:k+1)=p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)dX(k+1) (19)

    其中,根据跟踪滤波的雷达观测模型,式(19)中的似然函数 p(Z(k+1)|X(k+1)) 表达式为:

    p(Z(k+1)|X(k+1))=N(Z(k+1);h(X(k+1)),R(k+1)) (20)

    式中,N(Z(k+1); h(X(k+1)), R(k+1))表示均值为h(X(k+1)),协方差矩阵为R(k+1)的高斯分布。

    同样地,上述最优贝叶斯跟踪下的目标状态更新过程的具体实现可以采用CMKF, EKF, UKF, PF等滤波方法中的目标状态更新过程。本文以EKF目标状态更新过程为例进行描述。

    k+1时刻多雷达观测中的每部雷达观测分别代入滤波中的状态更新,得到对应每部雷达观测的多个目标状态更新值,并将使用第n部雷达观测得到的k+1时刻目标状态更新值记作 ˆX n(k+1|k+1), Pn(k+1|k+1)。具体过程如下:

    由目标跟踪的状态空间方程中的观测方程,可得观测值和观测新息协方差矩阵预测为:

    ˆZn(k+1|k)=hn(ˆX(k+1|k)) (21)
    Sn(k+1|k)=hn,X(k+1)Pn(k+1|k)hTn,X(k+1)+Rn(k+1) (22)

    其中, hn,X(k+1) 为量测函数关于 ˆX n(k+1|k)的雅可比矩阵,即

    hn,X(k+1)=[XhTn(X(k+1))]TX=ˆX(k+1|k)=[x(k+1|k)r(k+1|k)0y(k+1|k)r(k+1|k)0y(k+1|k)(r(k+1|k))20x(k+1|k)(r(k+1|k))20]X=ˆX(k+1|k) (23)

    EKF滤波方法的增益为:

    Pn,XZ=Pn(k+1|k)hn,X(k+1) (24)
    Kn(k+1)=Pn,XZSn(k+1|k)1 (25)

    空间目标状态和协方差矩阵的更新值分别为:

    ˆXn(k+1|k+1)=ˆX(k+1|k)+Kn(k+1)[Zn(k+1)ˆZn(k+1|k)] (26)
    Pn(k+1|k+1)=[IKn(k+1)hn,X(k+1)]P(k+1|k)[I+Kn(k+1)hn,X(k+1)]TKn(k+1)Rn(k+1)KTn(k+1) (27)

    其中,I为4阶单位矩阵,其余变量的含义如上。经由以上步骤,得到了目标在k+1时刻的使用雷达n观测的状态估计 ˆXn (k+1|k+1)及状态协方差矩阵Pn(k+1|k+1)。

    •多雷达跟踪航迹融合

    将选出的N0部雷达的目标状态更新结果进行融合,得到最后的目标状态融合结果作为k+1时刻目标状态估计值。设选择的融合雷达编号集合为 Ω ,并且采用广义凸组合融合1(Generalized Convex Combination 1, GCC1),有时也称为简单凸组合融合(Simple Convex Combination, SCC)[1,2,14],得到的融合结果为:

    ˆX(k+1|k+1)=P(k+1|k+1)nΩP1n(k+1|k+1)ˆXn(k+1|k+1) (28)
    P(k+1|k+1)=(nΩP1n(k+1|k+1))1 (29)

    重复以上步骤直至跟踪结束,便可得到利用雷达观测信息熵下界自适应选择雷达节点,实现目标跟踪的整个过程。

    在目标跟踪中,航迹精度是对跟踪滤波算法性能进行评估的重要指标。航迹精度体现了不同滤波方法对雷达测量误差的平滑程度。概括来讲,航迹精度包括位置精度和速度精度,航迹的位置精度定义为航迹位置估计的均方根误差。目标状态估计的均方根误差越小,滤波器的滤波值与真实值越接近,航迹精度则越高[8]

    m次蒙特卡诺仿真得到滤波估计误差为:

    em(k)=ˆXm(k|k)X(k) (30)

    其中, ˆX m (k+1|k+1)和X(k)分别为k时刻目标状态的跟踪结果和真实值。

    目标跟踪位置和速度估计的均方根误差分别为:

      RMSEPOS(k)=(1MCMCm=1[ˆxm(k|k)x(k)]2+[ˆym(k|k)y(k)]2)1/2 (31)
    \begin{align} {\rm RMSE}_{\rm VEL}\left( k \right) =& \left( \frac{1}{{\rm MC}}\sum\limits_{m = 1}^{\rm MC} {{\left[ {v{{\hat x}_m}\left( {k|k} \right) - vx\left( k \right)} \right]}^2} \right. \\ & + \left. {{\left[ {v{{\hat y}_m}\left( {k|k} \right) - vy\left( k \right)} \right]}^2} \Biggr\right)^{1/2} \end{align} (32)

    其中,向量 (ˆxm ˆym ˆzm) (x y z) 分别为目标在k时刻的位置估计值和真实值,向量 (vˆxm vˆym vˆzm) (vx vy vz) 分别为目标在k时刻的速度估计值和真实值,下标m表示第m次蒙特卡诺仿真,MC为总的蒙特卡诺仿真次数,本文设置为200,并且各部雷达的测距和测角误差方差分别为 σ2r=25 m2 , σ2θ= 0.0003 rad2

    假设在多雷达系统中共有4部雷达,它们在直角坐标系中的位置为:雷达1为(0, 0)、雷达2为(20000, 0) m、雷达3为(20000, 0) m和雷达4为(1000, 20000) m。设置的4部雷达站位置与目标航迹如图1所示。其中,目标运动时间为40 s,运动间隔为1 s,并在前26 s时间内目标做匀速直线运动,在26 s时目标进行了转弯,然后进行匀速直线运动,目标运动方向如图中箭头所示。

    图  1  4部雷达位置与目标航迹图
    Figure  1.  Radars locations and target trajectory

    为了仿真验证提出的方法,需要从场景中的4部雷达选择信息含量高的N0部雷达进行跟踪,而此个数在实际的多目标多任务复杂跟踪场景,需要进行合理设置。本文从验证提出的方法的角度出发,可以将N0进行人为设置。不失一般性,设计N0=2,即从4部雷达选出联合信息量最多的2部雷达进行联合跟踪。根据3.2节中雷达优化选择方法,可知不同时刻跟踪选择的雷达站编号如图2所示。

    图  2  不同时刻选择的信息量高的雷达编号
    Figure  2.  Radars indexes selected by fusion entropy model

    将基于联合信息量最大选出的两部雷达进行融合跟踪的方法记为“基于信息熵的联合跟踪”;将不采用信息量最大选择出的任意两部雷达跟踪的效果的平均记为“传统联合跟踪”。对比单部雷达跟踪、不采用和采用信息熵的联合跟踪效果,结果如图3图4所示。

    图  3  目标位置跟踪精度对比
    Figure  3.  Comparison of target position RMSE
    图  4  目标速度跟踪精度对比
    Figure  4.  Comparison of target velocity RMSE

    图3图4可知,采用基于两部联合信息量最大选出的雷达进行融合跟踪,得到的位置精度和速度精度最好,其次是不采用基于信息熵的任意两部雷达融合跟踪的平均效果,而单雷达跟踪效果最差。

    为了满足现代复杂战场动态作战需求,针对单雷达站信息量少跟踪精度不高,而多雷达系统中不同雷达、不同时刻获得目标信息量的多少不同的问题,提出一种基于信息熵的雷达动态自适应选择跟踪方法。该方法使用信息熵定量刻画了由多雷达极坐标观测获得目标直角坐标位置的信息量,并给出了其下界。进而,通过最小化雷达观测目标的信息熵下界,理论推导了每个时刻实时最优化选取目标信息含量高的雷达站进行跟踪的方法,具有良好的目标跟踪效果。

  • [1]
    ROBINSON P N. Synthetic array radar[J]. IEEE Potentials, 1997, 16(1): 8–11. doi: 10.1109/45.565604.
    [2]
    杨建宇. 双基地合成孔径雷达技术[J]. 电子科技大学学报, 2016, 45(4): 482–501. doi: 10.3969/j.issn.1001-0548.2016.04.001.

    YANG Jianyu. Bistatic synthetic aperture radar technology[J]. Journal of University of Electronic Science and Technology of China, 2016, 45(4): 482–501. doi: 10.3969/j.issn.1001-0548.2016.04.001.
    [3]
    WILDEN H and BRENNER A R. The SAR/GMTI airborne radar PAMIR: Technology and performance[C]. IEEE MTT-S International Microwave Symposium, Anaheim, USA, 2010: 534–537. doi: 10.1109/MWSYM.2010.5518080.
    [4]
    LI Zhongyu, WU Junjie, HUANG Yulin, et al. Ground-moving target imaging and velocity estimation based on mismatched compression for bistatic forward-looking SAR[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(6): 3277–3291. doi: 10.1109/TGRS.2016.2514494.
    [5]
    LI Junao, LI Zhongyu, YANG Qing, et al. Joint clutter suppression and moving target indication in 2-D azimuth rotated time domain for single-channel bistatic SAR[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5202516. doi: 10.1109/TGRS.2023.3237553.
    [6]
    LI Zhongyu, WU Junjie, YANG Jianyu, et al. Bistatic SAR Clutter Suppression[M]. Singapore: Springer, 2022: 8–19. doi: 10.1007/978-981-19-0159-1.
    [7]
    李中余. 双基地合成孔径雷达动目标检测与成像技术研究[D]. [博士论文], 电子科技大学, 2017: 11–59.

    LI Zhongyu. Research on bistatic SAR moving target detection and imaging technology[D]. [Ph.D. dissertation], University of Electronic Science and Technology of China, 2017: 11–59.
    [8]
    CHEN H C and MCGILLEM C D. Target motion compensation by spectrum shifting in synthetic aperture radar[J]. IEEE Transactions on Aerospace and Electronic Systems, 1992, 28(3): 895–901. doi: 10.1109/7.256313.
    [9]
    FIENUP J R. Detecting moving targets in SAR imagery by focusing[J]. IEEE Transactions on Aerospace and Electronic Systems, 2001, 37(3): 794–809. doi: 10.1109/7.953237.
    [10]
    MOREIRA J R and KEYDEL W. A new MTI-SAR approach using the reflectivity displacement method[J]. IEEE Transactions on Geoscience and Remote Sensing, 1995, 33(5): 1238–1244. doi: 10.1109/36.469488.
    [11]
    LIGHTSTONE L, FAUBERT D, and REMPEL G. Multiple phase centre DPCA for airborne radar[C]. IEEE National Radar Conference, Los Angeles, USA, 1991: 36–40. doi: 10.1109/NRC.1991.114720.
    [12]
    LI Zhongyu, LI Shanchuan, LIU Zhutian, et al. Bistatic forward-looking SAR MP-DPCA method for space–time extension clutter suppression[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(9): 6565–6579. doi: 10.1109/TGRS.2020.2977982.
    [13]
    谢文冲, 段克清, 王永良. 机载雷达空时自适应处理技术研究综述[J]. 雷达学报, 2017, 6(6): 575–586. doi: 10.12000/JR17073.

    XIE Wenchong, DUAN Keqing, and WANG Yongliang. Space time adaptive processing technique for airborne radar: An overview of its development and prospects[J]. Journal of Radars, 2017, 6(6): 575–586. doi: 10.12000/JR17073.
    [14]
    REED I S, MALLETT J D, and BRENNAN L E. Rapid convergence rate in adaptive arrays[J]. IEEE Transactions on Aerospace and Electronic Systems, 1974, AES-10(6): 853–863. doi: 10.1109/TAES.1974.307893.
    [15]
    KLEMM R. Comparison between monostatic and bistatic antenna configurations for STAP[J]. IEEE Transactions on Aerospace and Electronic Systems, 2000, 36(2): 596–608. doi: 10.1109/7.845248.
    [16]
    LIU Zhutian, YU Huaiqin, LI Zhongyu, et al. Non-stationary clutter suppression approach based on cascading cancellation for bistatic forward-looking SAR[C]. 2019 IEEE Radar Conference, Boston, USA, 2019: 1–5. doi: 10.1109/RADAR.2019.8835707.
    [17]
    LI Junao, LI Zhongyu, YANG Qing, et al. Efficient matrix sparse recovery STAP method based on Kronecker transform for BiSAR sea clutter suppression[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024, 62: 5103218. doi: 10.1109/TGRS.2024.3362844.
    [18]
    马泽强, 王希勤, 刘一民, 等. 基于稀疏恢复的空时二维自适应处理技术研究现状[J]. 雷达学报, 2014, 3(2): 217–228. doi: 10.3724/SP.J.1300.2014.14002.

    MA Zeqiang, WANG Xiqin, LIU Yimin, et al. An overview on sparse recovery-based STAP[J]. Journal of Radars, 2014, 3(2): 217–228. doi: 10.3724/SP.J.1300.2014.14002.
    [19]
    SUN Ke, ZHANG Hao, LI Gang, et al. A novel STAP algorithm using sparse recovery technique[C]. 2009 IEEE International Geoscience and Remote Sensing Symposium, Cape Town, South Africa, 2009: V-336–V-339. doi: 10.1109/IGARSS.2009.5417664.
    [20]
    TANG Gongguo, BHASKAR B N, SHAH P, et al. Compressed sensing off the grid[J]. IEEE Transactions on Information Theory, 2013, 59(11): 7465–7490. doi: 10.1109/TIT.2013.2277451.
    [21]
    YE Hongda, LI Zhongyu, LIU Zhutian, et al. Clutter-ridge matched SR-STAP technique for non-stationary clutter suppression[C]. 2020 IEEE Radar Conference, Florence, Italy, 2020: 1–4. doi: 10.1109/RadarConf2043947.2020.9266628.
    [22]
    DUAN Keqing, LIU Weijian, DUAN Guangqing, et al. Off-grid effects mitigation exploiting knowledge of the clutter ridge for sparse recovery STAP[J]. IET Radar, Sonar & Navigation, 2018, 12(5): 557–564. doi: 10.1049/iet-rsn.2017.0425.
    [23]
    LI Zhihui, ZHANG Yongshun, GE Qichao, et al. Off-grid STAP algorithm based on reduced-dimension local search orthogonal matching pursuit[C]. 2019 IEEE 4th International Conference on Signal and Image Processing, Wuxi, China, 2019: 187–191. doi: 10.1109/SIPROCESS.2019.8868509.
    [24]
    段克清, 王泽涛, 谢文冲, 等. 一种基于联合稀疏恢复的空时自适应处理方法[J]. 雷达学报, 2014, 3(2): 229–234. doi: 10.3724/SP.J.1300.2014.13149.

    DUAN Keqing, WANG Zetao, XIE Wenchong, et al. A space-time adaptive processing algorithm based on joint sparse recovery[J]. Journal of Radars, 2014, 3(2): 229–234. doi: 10.3724/SP.J.1300.2014.13149.
    [25]
    HE Pengyuan, HE Shun, YANG Zhiwei, et al. An off-grid STAP algorithm based on local mesh splitting with bistatic radar system[J]. IEEE Signal Processing Letters, 2020, 27: 1355–1359. doi: 10.1109/LSP.2020.3010161.
    [26]
    LI Zhongyu, YE Hongda, LIU Zhutian, et al. Bistatic SAR clutter-ridge matched STAP method for nonstationary clutter suppression[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5216914. doi: 10.1109/TGRS.2021.3125043.
    [27]
    FENG Weike, GUO Yiduo, ZHANG Yongshun, et al. Airborne radar space time adaptive processing based on atomic norm minimization[J]. Signal Processing, 2018, 148: 31–40. doi: 10.1016/j.sigpro.2018.02.008.
    [28]
    LI Zhongyue and WANG Tong. ADMM-based low-complexity off-grid space-time adaptive processing methods[J]. IEEE Access, 2020, 8: 206646–206658. doi: 10.1109/ACCESS.2020.3037652.
    [29]
    ZOU Bo, WANG Xin, FENG Weike, et al. DU-CG-STAP method based on sparse recovery and unsupervised learning for airborne radar clutter suppression[J]. Remote Sensing, 2022, 14(14): 3472. doi: 10.3390/rs14143472.
    [30]
    SU Hanning, BAO Qinglong, and CHEN Zengping. ADMM–net: A deep learning approach for parameter estimation of chirp signals under sub-nyquist sampling[J]. IEEE Access, 2020, 8: 75714–75727. doi: 10.1109/ACCESS.2020.2989507.
    [31]
    RICHARDS M A. The keystone transformation for correcting range migration in range-doppler processing[J]. Pulse, 2014, 1000(1).
    [32]
    LIU Zhutian, LI Zhongyu, YU Huaiqin, et al. Bistatic forward-looking SAR moving target detection method based on joint clutter cancellation in echo-image domain with three receiving channels[J]. Sensors, 2018, 18(11): 3835. doi: 10.3390/s18113835.
  • Relative Articles

    [1]WAN Fuhai, XU Jingwei, LIAO Guisheng, WANG Weiwei. Space-time Two-dimensional Clutter Suppression Method Based on Subarray Beam Pattern Design[J]. Journal of Radars, 2024, 13(5): 1061-1072. doi: 10.12000/JR24064
    [2]HU Xueyao, LIANG Can, LU Shanshan, WANG Zaiyang, ZHENG Le, LI Yang. Matrix Completion-based Range-Doppler Spectrum Estimation for Random Stepped-frequency Radars[J]. Journal of Radars, 2024, 13(1): 200-214. doi: 10.12000/JR23176
    [3]LIAO Zhipeng, DUAN Keqing, HE Jinjun, QIU Zizhou, WANG Yongliang. Interpretable STAP Algorithm Based on Deep Convolutional Neural Network[J]. Journal of Radars, 2024, 13(4): 917-928. doi: 10.12000/JR24024
    [4]GAO Yongchan, PAN Liyan, LI Yachao, ZUO Lei. Multi-rank Range-spread Target Detection Method for Space/Time Symmetric Array Radar under Non-Gaussian Clutter Background[J]. Journal of Radars, 2022, 11(5): 765-777. doi: 10.12000/JR22013
    [5]DUAN Keqing, LI Xiang, XING Kun, WANG Yongliang. Clutter Mitigation in Space-based Early Warning Radar Using a Convolutional Neural Network[J]. Journal of Radars, 2022, 11(3): 386-398. doi: 10.12000/JR21161
    [6]QU Haiyou, CHENG Di, CHEN Chang, CHEN Weidong. High-resolution Sparse Self-calibration Imaging for Vortex Radar with Phase Error[J]. Journal of Radars, 2021, 10(5): 699-717. doi: 10.12000/JR21094
    [7]CUI Ning, XING Kun, DUAN Keqing, YU Zhongjun. Fast Tensor-based Three-dimensional Sparse Bayesian Learning Space-Time Adaptive Processing Method[J]. Journal of Radars, 2021, 10(6): 919-928. doi: 10.12000/JR21140
    [8]WEI Yinsheng, ZHOU Jianyu, XU Rongqing. Intelligent Suppression Method for Ionospheric Clutter Based on Clustering and Greedy Strategy[J]. Journal of Radars, 2020, 9(4): 589-607. doi: 10.12000/JR20086
    [9]ZOU Kun, LAI Lei, LUO Yanbo, LI Wei. Suppression of Non-Gaussian Clutter from Subspace Interference[J]. Journal of Radars, 2020, 9(4): 715-722. doi: 10.12000/JR19050
    [10]MOU Xiaoqian, CHEN Xiaolong, GUAN Jian, ZHOU Wei, LIU Ningbo, DONG Yunlong. Clutter Suppression and Marine Target Detection for Radar Images Based on INet[J]. Journal of Radars, 2020, 9(4): 640-653. doi: 10.12000/JR20090
    [11]ZHANG Shuangxi, QIAO Ning, XING Mengdao, WU Yifeng, WU Yufeng. A Novel Clutter Suppression Approach for the Space-borne Multiple Channel in the Azimuth High-resolution and Wide-swath SAR-GMTI System with an Ambiguous Doppler Spectrum[J]. Journal of Radars, 2020, 9(2): 295-303. doi: 10.12000/JR20005
    [12]Chen Xiaolong, Chen Baoxin, Huang Yong, Xue Yonghua, Guan Jian. Frequency Diverse Array Radar Signal Processing via Space-Range-Doppler Focus (SRDF) Method[J]. Journal of Radars, 2018, 7(2): 183-193. doi: 10.12000/JR18018
    [13]Wang Yuzhuo, Zhu Shengqi, Xu Jingwei. A Range-ambiguous Clutter Suppression Method for MIMO Bistatic Airborne Radar[J]. Journal of Radars, 2018, 7(2): 202-211. doi: 10.12000/JR18016
    [14]Wei Min, Li Xiaobo, Wang Li. A Method for Reducing the Impact of Range Ambiguity[J]. Journal of Radars, 2017, 6(1): 106-113. doi: 10.12000/JR16082
    [15]Qin Yao, Huang Chun-lin, Lu Min, Xu Wei. Adaptive clutter reduction based on wavelet transform and principal component analysis for ground penetrating radar[J]. Journal of Radars, 2015, 4(4): 445-451. doi: 10.12000/JR15013
    [16]Wang Jie, Shen Ming-wei, Wu Di, Zhu Dai-yin. An Efficient STAP Algorithm for Nonsidelooking Airborne Radar Based on Mainlobe Clutter Compensation[J]. Journal of Radars, 2014, 3(2): 235-240. doi: 10.3724/SP.J.1300.2014.13122
    [17]Xu Jia, Peng Ying-ning, Xia Xiang-gen, Long Teng, Mao Er-ke. Radar Signal Processing Method of Space-Time-Frequency Focus-Before-Detects[J]. Journal of Radars, 2014, 3(2): 129-141. doi: 10.3724/SP.J.1300.2014.14023
    [18]Wang Xiao-yang, Gao Gui, Zhou Shi-lin, Zou Huan-xin. A Clutter Suppression Approach for SAR-GMTI Based on Dual-channel DPCA[J]. Journal of Radars, 2014, 3(2): 241-248. doi: 10.3724/SP.J.1300.2014.13121
    [19]Li Jun, Dang Bo, Liu Chang-zan, Liao Gui-sheng. Bistatic MIMO Radar Clutter Suppression by Exploiting the Transmit Angle[J]. Journal of Radars, 2014, 3(2): 208-216. doi: 10.3724/SP.J.1300.2014.13148
    [20]Ma Ze-qiang, Wang Xi-qin, Liu Yi-min, Meng Hua-dong. An Overview on Sparse Recovery-based STAP[J]. Journal of Radars, 2014, 3(2): 217-228. doi: 10.3724/SP.J.1300.2014.14002
  • Cited by

    Periodical cited type(3)

    1. 王岩飞,李和平,韩松. 天线阵列编码合成孔径成像. 雷达学报. 2023(01): 1-12 . 本站查看
    2. 彭正翔,张群,刘治东,李开明,蔡斌. 一种基于正交脉冲分集的ISAR欺骗干扰消除与识别方法. 空军工程大学学报(自然科学版). 2022(02): 39-45 .
    3. 冯翼,杜好阳,李一木,王磊,王昕,郑益慧. 基于脉冲编码激励超声扩频测距的变压器绕组变形检测技术. 高电压技术. 2020(11): 3960-3969 .

    Other cited types(6)

  • Created with Highcharts 5.0.7Amount of accessChart context menuAbstract Views, HTML Views, PDF Downloads StatisticsAbstract ViewsHTML ViewsPDF Downloads2024-052024-062024-072024-082024-092024-102024-112024-122025-012025-022025-032025-04050100150200
    Created with Highcharts 5.0.7Chart context menuAccess Class DistributionFULLTEXT: 37.5 %FULLTEXT: 37.5 %META: 52.6 %META: 52.6 %PDF: 10.0 %PDF: 10.0 %FULLTEXTMETAPDF
    Created with Highcharts 5.0.7Chart context menuAccess Area Distribution其他: 6.3 %其他: 6.3 %其他: 1.6 %其他: 1.6 %Central District: 0.2 %Central District: 0.2 %China: 0.1 %China: 0.1 %Seattle: 0.6 %Seattle: 0.6 %上海: 1.7 %上海: 1.7 %乐山: 0.4 %乐山: 0.4 %九江: 0.1 %九江: 0.1 %亚特兰大: 0.1 %亚特兰大: 0.1 %北京: 7.2 %北京: 7.2 %十堰: 0.2 %十堰: 0.2 %南京: 2.2 %南京: 2.2 %南充: 0.2 %南充: 0.2 %南昌: 0.2 %南昌: 0.2 %台州: 0.4 %台州: 0.4 %合肥: 0.6 %合肥: 0.6 %咸阳: 0.1 %咸阳: 0.1 %哈尔滨: 0.4 %哈尔滨: 0.4 %嘉兴: 0.4 %嘉兴: 0.4 %大连: 0.1 %大连: 0.1 %天津: 1.3 %天津: 1.3 %太原: 0.2 %太原: 0.2 %威海: 0.2 %威海: 0.2 %安康: 0.1 %安康: 0.1 %宜宾: 0.3 %宜宾: 0.3 %岳阳: 0.1 %岳阳: 0.1 %常州: 0.4 %常州: 0.4 %平顶山: 0.1 %平顶山: 0.1 %广州: 2.5 %广州: 2.5 %库比蒂诺: 0.1 %库比蒂诺: 0.1 %延安: 0.1 %延安: 0.1 %延边: 0.4 %延边: 0.4 %开封: 1.2 %开封: 1.2 %弗吉尼亚州: 0.2 %弗吉尼亚州: 0.2 %张家口: 2.4 %张家口: 2.4 %成都: 5.9 %成都: 5.9 %扬州: 0.4 %扬州: 0.4 %无锡: 0.1 %无锡: 0.1 %昆明: 1.6 %昆明: 1.6 %朝阳: 0.3 %朝阳: 0.3 %杭州: 1.0 %杭州: 1.0 %武汉: 1.2 %武汉: 1.2 %汕头: 0.1 %汕头: 0.1 %沈阳: 0.2 %沈阳: 0.2 %济南: 0.7 %济南: 0.7 %海口: 0.1 %海口: 0.1 %深圳: 1.2 %深圳: 1.2 %温州: 0.1 %温州: 0.1 %渭南: 0.1 %渭南: 0.1 %湖州: 0.2 %湖州: 0.2 %漯河: 1.4 %漯河: 1.4 %漳州: 0.1 %漳州: 0.1 %珠海: 0.2 %珠海: 0.2 %石家庄: 0.2 %石家庄: 0.2 %福州: 0.2 %福州: 0.2 %纽约: 13.3 %纽约: 13.3 %绍兴: 0.1 %绍兴: 0.1 %绵阳: 0.2 %绵阳: 0.2 %芒廷维尤: 19.4 %芒廷维尤: 19.4 %芝加哥: 1.0 %芝加哥: 1.0 %苏州: 0.1 %苏州: 0.1 %衡水: 0.2 %衡水: 0.2 %衡阳: 0.2 %衡阳: 0.2 %衢州: 0.7 %衢州: 0.7 %西宁: 6.8 %西宁: 6.8 %西安: 5.7 %西安: 5.7 %赣州: 0.1 %赣州: 0.1 %遵义: 0.1 %遵义: 0.1 %邯郸: 0.4 %邯郸: 0.4 %郑州: 0.3 %郑州: 0.3 %鄂州: 0.1 %鄂州: 0.1 %重庆: 0.4 %重庆: 0.4 %金华: 0.2 %金华: 0.2 %银川: 0.1 %银川: 0.1 %长沙: 1.9 %长沙: 1.9 %青岛: 0.2 %青岛: 0.2 %首尔特别: 0.2 %首尔特别: 0.2 %齐齐哈尔: 0.4 %齐齐哈尔: 0.4 %其他其他Central DistrictChinaSeattle上海乐山九江亚特兰大北京十堰南京南充南昌台州合肥咸阳哈尔滨嘉兴大连天津太原威海安康宜宾岳阳常州平顶山广州库比蒂诺延安延边开封弗吉尼亚州张家口成都扬州无锡昆明朝阳杭州武汉汕头沈阳济南海口深圳温州渭南湖州漯河漳州珠海石家庄福州纽约绍兴绵阳芒廷维尤芝加哥苏州衡水衡阳衢州西宁西安赣州遵义邯郸郑州鄂州重庆金华银川长沙青岛首尔特别齐齐哈尔

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Figures(18)  / Tables(3)

    Article views(637) PDF downloads(121) Cited by(9)
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint