Probability Model-driven Airborne Bayesian Forward-looking Super-resolution Imaging for Multitarget Scenario
-
摘要: 雷达前视成像技术在精确制导打击、自主下降着陆、汽车自动驾驶等军民领域具有广阔的应用前景。由于多普勒相位历程的限制,机载平台的前视成像分辨率较低。解卷积方法可以进行前视成像,但当前视成像场景复杂时,现有的前视成像方法的成像质量会下降。针对复杂前视成像构型下的场景稀疏度度量和表征问题,该文提出一种基于概率模型驱动的机载贝叶斯前视超分辨多目标成像方法。首先通过将前视成像场景的数据维度由单帧空间扩展到多帧空间提升场景的稀疏度,然后基于广义高斯概率模型对成像场景的稀疏特性进行统计建模和稀疏度求解,最后基于贝叶斯框架完成稀疏前视成像。由于选取的稀疏度表征参数嵌入到前视成像的整个过程中,在每次迭代期间都会进行前视成像参数的更新,从而保证了前视成像算法的稳健性。通过计算机结果和实测数据处理,验证了该文方法的有效性。Abstract: Forward-looking imaging is crucial in many civil and military fields, such as precision guidance, autonomous landing, and autonomous driving. The forward-looking imaging performance of airborne radar may deteriorate significantly due to the constraint of the Doppler history. The deconvolution method can be used to improve the quality of forward-looking imaging; however, it will not work well for complex imaging scenes. To solve the problem of scene sparsity measurement and characterization in complex forward-looking imaging configurations, an efficient probability model-driven airborne Bayesian forward-looking super-resolution imaging algorithm is proposed for multitarget scenarios to improve the azimuth resolution. First, the data dimension of the forward-looking imaging scene was expanded from single-frame to multiframe spaces to enhance the sparsity of the imaging scene. Then, the sparse characteristics of the imaging scene were statistically modeled using the generalized Gaussian probability model. Finally, the super-resolution imaging problem was solved using the Bayesian framework. Because the sparsity characterization parameters are embedded in the entire process of imaging, the forward-looking imaging parameters will be updated during each iteration. The effectiveness of the proposed algorithm was verified using simulation and real data.
-
1. 引言
前视成像雷达(Forward-Looking Radar, FLR)由于在飞行器自主导航,导弹末端制导,自动驾驶等领域具有广阔的应用前景,因此在军事和民用领域越来越受到重视[1–4]。传统的多普勒波束锐化(Doppler Beam Sharpening, DBS)技术[5–7]和合成孔径雷达(Synthetic Aperture Radar, SAR)[8–13]通常采用条带模式或前斜视模式工作。然而,受多普勒成像原理的限制,这两种方法由于多普勒历程的约束无法对飞行方向的正前方区域进行高分辨率成像,从而导致前视盲区。因此,不断追求方位分辨率的提升是前视成像技术不断发展的动力。
为了获得FLR成像场景的细节信息,利用宽带信号和脉冲压缩技术可以获取高距离分辨率。为了克服多普勒历程的约束,最直接的解决思路就是通过引入发射平台和接收平台的空间分集带来的独立多普勒信息进行方位高分辨成像,这也是双基 SAR[14–21]技术可用来提高方位分辨率的关键,但双基前视SAR成像的空间几何关系复杂,特别是空时频同步的精度给收发雷达系统的设计带来较大的复杂度。文献[22–24]充分利用和差通道的信息,将单脉冲测角与前视成像技术相结合提高方位分辨率。杨志伟等人[25]采用实波束重叠扫描的方式,利用波达角(Direction of Arrival, DOA)估计方法和理论实现了前视成像。在 DOA 估计基础上,王军等人[26]和温晓杨等人[27]针对前视成像近似稀疏的场景,通过压缩感知(Compressed Sensing, CS)的方式获取前视成像结果。由于FLR的前视成像方位分辨率主要与天线孔径大小成反比,当天线孔径越来越大时,天线波束宽度将越来越小。在这种情况下,可以获得高方位分辨率,因此近年来实孔径前视成像技术越来越受到关注。研究表明,解卷积技术[28]是一种不改变现有雷达系统体制,利用信号处理手段提高方位分辨率的有效方法。但由于天线方向图的低通特性,直接的解卷积技术是一个病态问题,因此许多改进的解卷积前视成像技术应运而生。李悦丽等人[29]提出一种基于多通道处理的解卷积前视技术,通过利用多个通道信息的联合处理克服解卷积过程中的病态问题,但对于无人机载和弹载雷达系统而言,多通道会增加系统设计的复杂度。为降低系统的复杂度,单通道解卷积技术[30–41]越来越受到国内外学者的关注。文献[31]通过引入
l2 范数,将正则化方法应用于提高方位分辨率,取得了一定的效果。文献[32–34]将稀疏性约束嵌入到解卷积成像中,进一步提高了前视成像的分辨率,为单通道解卷积技术的发展带来了新的曙光。为了减轻FLR解卷积前视成像问题的病态性,Huang等人[35]和Tuo等人[36]引入了截断奇异值分解方法(Truncated Singular Value Decomposition Method, TSVD)提高方位角质量。然后,Yang等人将迭代自适应处理(Iterative Adaptive Approach, IAA)方法[37]引入前视成像。正则化方法[38]是将不适定问题转换为附近的条件良好问题的良好工具,该操作可以通过在最小二乘算法上选择不同的正则化约束来实现。正则化可以解决反卷积问题,获得更好的性能。此外,Zhang等人[39,40]提出了基于全变差(Total Variation, TV)的方法来描述场景信息,这在保持目标轮廓方面表现良好。为了充分利用前视成像场景的先验信息,Yang等人提出了基于贝叶斯框架[41–47]的前视方法。
然而,目前的机载前视成像方法的研究主要集中在场景稀疏性先验已知的情况下。真实场景中的稀疏性不能采用单纯的某一种稀疏约束进行表征,特别是当场景中包含多个目标时,此时场景稀疏度的度量和表征是影响复杂场景下前视成像质量的关键。针对此问题,基于先前已经建立的多普勒解卷积前视成像模型[41–44],提出了一种基于广义高斯概率模型驱动的机载贝叶斯前视超分辨率多目标成像方法。本文的主要贡献是针对多目标场景,自动的迭代选择场景稀疏度参数,并基于贝叶斯准则,将选取的稀疏度表征参数嵌入到前视成像过程中。此外,本文所提出的方法在每次迭代期间都会进行参数更新,从而增加了不同情况,具有鲁棒性。
2. 前视成像信号模型
如图1所示,假设机载平台工作在前视成像模式,雷达波束指向与机载平台飞行方向之间的夹角为
θ ,与水平方向的俯仰角为φ 。假设机载平台的飞行速度为v,飞行方向沿X轴正向,飞行高度用H表示。雷达波长为λ ,R0 为雷达与目标场景中心之间的初始斜距。雷达发射线性调频信号:
s(τ)=rect(τTp)×exp[j2π(fcτ+Kr2τ2)] (1) 其中,
τ 为快时间,fc 为发射雷达信号的载频,Tp 为脉冲持续时间,rect(τ/τTpTp) 为矩形函数,则回波信号的复包络可以表示为Sr(τ,tm)=∑R∑θσ(R(tm),θ(tm))h(θ−θ(tm))×rect(τ−2R(tm)cTp)×exp(j2πfc(τ−2R(tm)c)+jπKr(τ−2R(tm)c)2) (2) 此时,雷达与场景中任一目标之间的瞬时斜距和瞬时角度值可以表述为
R(tm)=√R0−2Rvtmcosθcosφ+(vtm)2 (3) θ(tm) = θ0−ωtm (4) 其中,
tm 为方位慢时间,σ(R,θ) 为目标的散射分布函数,fc 为雷达载频,Kr 为线性调频信号的调频率,h(⋅) 为天线的方向图,ω 为天线的扫描速度。首先对回波信号进行下变频处理,并进行距离走动校正后的回波信号可以转化为
Sr(R,θ)=∑R∑θσ(R(tm),θ(tm))h(θ−θ(tm))×sinc(B(τ−2R0c))×exp(−j4πR0λ+j2πfdtm) (5) 采用基于Keystone变换的方法对回波信号进行距离走动校正,经过距离走动校正之后,由式(5)可以看出,某一距离单元上的回波信号是天线方向图与目标散射分布函数
σ(R,θ) 的卷积,即Sr(R,θ)=σ(R(tm),θ(tm))⊗h(θ)sinc(Bτ)×exp(−j4πR0λ+j2πfdtm) (6) 同时,将回波信号中的噪声用
n(θ) 表示,则前视成像模式下的回波信号可以简化为Sr(θ)=σ(θ)⊗(g(θ)⊙ϕ(fd))+n(θ) (7) 假设方位慢时间维有M个采样点,为了便于分析,将式(7)转化为矩阵形式
S=G⊙Φσ+n (8) 其中,
σ 为目标后向散射系数分布向量,G为天线方向图矩阵,S为方位向雷达接收信号,Φ 为多普勒矩阵,n为系统噪声,G和Φ 的具体形式如下:G=[g00⋯0g1g0⋱⋮⋮g1⋱0gL−1⋮⋱g00gL−1⋱g1⋮⋱⋱⋮0⋯0gL−1] (9) Φ=[11⋯1ej2πfd(θ1)PRFej2πfd(θ2)PRF⋯ej2πfd(θK)PRF⋮⋮⋯⋮ej2πfd(θ1)K−1PRFej2πfd(θ2)K−1PRF⋯ej2πfd(θK)K−1PRF] (10) 式(9)和式(10)的前视解卷积模型不仅考虑了天线方向图矩阵对散射点的影响,并且考虑了多普勒矩阵的影响。在实际情况下,由于机载平台的运动速度很快,这种影响是不可能消除的。为了提高对前视成像的分辨率,需要对多普勒矩阵进行准确描述,然后再进行后续的前视成像处理。
3. 基于广义高斯概率模型驱动的贝叶斯前视超分辨成像方法
3.1 多普勒解卷积前视成像模型
为了降低计算复杂度,在保证前视成像质量的前提下,参考以前的工作[37,44–46],对式(8)进行化简,根据目标的斜距历程,可以求得目标的多普中心频率为
fd=2vcosθcosφλ (11) 将
θ(tm) = θ0−ωtm 代入式(11),并进行泰勒展开,则瞬时多普勒可以修正为fd(θm)=2vcos(θ0−ωtm)λcosφ (12) 由于机载雷达主要工作在前视状态,
|θm|≤10∘ 。为了后续的工程应用和实现,式(12)可以简化为fd(θm)=2vλcosφ(cosθ0) (13) 此时1阶多普勒解卷积模型下的前视回波信号可以简化为
S=G⊙Φ1σ+n (14) 经过化简之后,由于多普勒运动所引起的相位因子可以描述为
Φ1=[1⋯1ej2πfd0PRF⋯ej2πfd0PRF⋮⋱⋮ej2πfd0M−1PRF⋯ej2πfd0M−1PRF] (15) 为提高多普勒解卷积的性能,提取先验信息是重要的。更通常的做法是将稀疏信息用于前视雷达成像中。然而,在单波束空间中散射源并不是完全满足稀疏性的假设。
为解决这一问题,利用多波束空间下的解卷积前视成像模型[44]。在方位上将单波束回波交联形成高维空间。即使呈现局部聚集特性的多个散射点在单帧数据内不满足稀疏性假设,在多帧数据组成的联合高维空间内仍可以看作是稀疏的。此时前视成像场景的稀疏性得到改善,高维空间下的回波信号可表示为
[s11s12⋮s1Ms21⋮s2M⋮sP1⋮sPM]=[G1G2⋱GP]⊙[ˆΦ1ˆΦ2⋱ˆΦP][σ11σ12⋮σ1Kσ21⋮σ2K⋮σP1⋮σPK]+[n11n12⋮n1Mn21⋮n2M⋮nP1⋮nPM] (16) 在一个距离门内,式(16)可以进一步表示为
Y=H⊙ΦX+N (17) 其中,Y和X分别是高维空间回波矩阵和散射矩阵。P为波束数量,H和
Φ 为天线矩阵和扩展的多普勒卷积矩阵,表达式为Y=[sT1,sT2,…,sTP]T (18) X=[σT1,σT2,⋯,σTP]T (19) Φ=[ˆΦ1ˆΦ2⋱ˆΦP] (20) H=[G1G2⋱GP] (21) 3.2 基于广义高斯概率模型驱动的贝叶斯前视超分辨成像
为了获取高分辨的前视成像结果,需要对式(17)进行多普勒解卷积求解。国内外的学者通过将稀疏性约束嵌入到解卷积成像中,在一定程度上改善了前视成像的方位分辨率。但是,由于前视成像场景的复杂性,单纯的某一种稀疏约束无法完整地刻画真实的场景。
为了更加准确地描述前视成像场景的稀疏度,本文采用广义高斯概率模型对前视成像场景中的散射点分布特性进行统计建模,其表达式可以描述为
PDF(Xi|a,b,μ,q)=aexp[−(b|Xi−μ|)q] (22) 其中,
a=q2βΓ(1/1qq) ,b=1/1ββ ,β=σ√Γ(1/1qq)(3/3qq) ,q是形状系数,μ 为均值,σ2 为方差,Γ(⋅) 表示伽马分布。在多波束空间中,本文采用一组仿真数据对成像场景的稀疏特性进行直方图统计,并分别采用高斯模型、Laplace分布和广义高斯模型进行拟合。图2给出了某一距离单元回波信号的直方图统计,场景参数如表1所示。从图2可以看出,当场景复杂时,传统的Laplace分布的稀疏性假设[30,41,46]已经不能完整地刻画复杂场景的稀疏度,场景稀疏度的失配在一定程度上会导致成像质量的下降。因此,场景稀疏度的度量和表征是影响前视成像质量的关键。
表 1 点目标仿真实验雷达参数Table 1. Radar parameters for simulation experiment with point targets参数 数值 参数 数值 平台速度(m/s) 300 时宽(μs) 10 平台高度(m) 1000 方位波束(°) 3 带宽(MHz) 512 扫描范围(°) –15~15 在满足独立同分布(i.i.d.)的假设条件下,成像场景的稀疏度可以采用概率密度函数进行描述,具体表达式为
PDF(X|q)=aNexp(−b‖X‖q) (23) 经化简,前视成像问题可表示为
ˆX=argmin{‖Y−H⊙ΦX‖22+μ‖X‖q} (24) 其中,
μ=2ε2b 是归一化参数,用于平衡稀疏性与前视成像质量,它与回波信号、噪声水平、形状系数等多个因素有关,本文主要采用最小二乘方法设定,详细的参数选取方法见文献[48]。对式(24)进行进一步的化简,可得到
J(ˆX)=argmin{‖Y−H⊙ΦX‖22+μL∑i=1(|x|2i+ε)q2} (25) 其中,
‖X‖q≈∑Li=1(|x|2i+ε)q2 。为获得前视稀疏成像的最优解,对X求
J(ˆX) 的梯度,得到∇J(ˆXn)=[2(H⊙Φ)HH⊙Φ+μΛ(ˆXn)]X−2(H⊙Φ)HY (26) 其中,
Λ(ˆXn)=diag{(1(|xni|2+ε)1−q2)} ,(⋅)H 为取共轭转置。此时,式(26)可以通过准牛顿方法获得迭代解,表达式为
ˆXn+1=ˆXn−[A(ˆXn)]−1⋅∇J(ˆXn) (27) 其中,n为迭代次数,
A = 2(H⊙Φ)HH⊙Φ+μΛ ,通过不断迭代求解,直至满足终止条件,最终得到图像矩阵ˆXn+1 。假设M表示单个波束空间的方位采样点数,P表示多波束空间中的单波束个数,N代表迭代计算的次数,则本文方法的计算复杂度约为O(N(PM)3+N(PM)2) 。具体的算法处理步骤如算法1所示。1 前视超分辨成像方法求解流程1. Solution flow of the proposed algorithm输入:天线方向图矩阵H,扩展的多普勒卷积矩阵Φ,观测数
据Y初始化:迭代次数m=1,ˆX1=Y 更新迭代过程: (1) 更新p:
p=F−1((1MM∑i=1|Xi|)21MM∑i=1(Xi−1MM∑i=1|Xi|)2),
F(x)=Γ2(2/2pp)Γ(1/1pp)Γ(3/3pp)(2) 更新J(ˆXn): J(ˆXn)=argmin{‖Y−H⊙ΦXn‖22+μL∑i=1(|xn|2i+ε)p2} (3) 更新∇J(ˆXn): ∇J(ˆXn)=[2(H⊙Φ)HH⊙Φ+μΛ(ˆXn)]X−2(H⊙Φ)HY (4) 更新An: An = 2(H⊙Φ)HH⊙Φ+μΛ (5) 更新ˆXn: ˆXn+1=ˆXn−[A(ˆXn)]−1⋅∇J(ˆXn) 输出:图像矩阵ˆXn+1 4. 仿真和实测实验结果分析
本节将进行仿真和实测数据验证所提方法的有效性,试验结果将实际波束方法、TSVD方法、Tikhonov方法、IAA方法、贝叶斯方法和本文所提出的方法进行了比较。后文将提出的方法简写为PM-Bayesian (Probability Model-driven airborne Bayesian)。
4.1 点阵目标仿真实验结果
图3给出了真实的原始场景,成像场景由14个点目标组成,机载雷达的部分参数如表2所示,仿真过程中回波的信噪比(Signal-to-Noise-Ratio, SNR)设置为10 dB,其中SNR定义为
表 2 面目标仿真实验雷达参数Table 2. Radar parameters for simulation experiment with surface targets参数 数值 参数 数值 平台速度(m/s) 300 时宽(μs) 10 平台高度(m) 1000 方位波束(°) 3 带宽(MHz) 300 扫描范围(°) –15~15 SNR = 10lg(PsPn) (28) 其中,
Ps 和Pn 分别表示回波与噪声的平均功率。从图4可以看出,由于真实场景中最邻近点目标之间的角度间隔小于天线的波束宽度,所以实波束方法存在明显的信号混叠现象,且受限于天线方向图的调制作用,无法对点阵目标进行较好的前视成像。TSVD方法由于受到噪声的严重影响,成像结果存在模糊,这可能是由于在低信噪比下难以选择合适的奇异值所导致的。Tikhonov方法保持了前视成像结果的完整性,但在目标周围出现了一些副瓣。IAA方法的成像结果目标轮廓清晰,信息保持完整。但对于相邻的非常近的两个目标无法很好的区分。图4(e)和图4(f)显示了贝叶斯和提出的PM-Bayesian方法的成像结果。这两种方法都可以获得高分辨的前视成像结果,并且所提出的PM-Bayesian不仅提高了前视成像分辨率,而且周边的副瓣和噪声更低,从而在一定程度上抑制了噪声。图4(g)给出了不同方法在某一距离单元的前视成像结果对比图,从中可以看出所提出的PM-Bayesian不仅可以准确地对前视场景中的散射点进行成像,还可以获得较低的副瓣,从而为后续的目标识别提供支撑。
为了定量评估不同前视成像算法的性能,进行了100次蒙特卡罗实验,统计出不同方法在不同SNR下的均方根误差(Root Mean Square Error, RMSE)变化曲线。其中RMSE定义为
RMSE=1KK∑k=1M∑m=1N∑n=1(ˆIm,n,k−Im,n)2MN (29) 其中,
ˆIm,n,k 是第k次蒙特卡罗估计的结果,Im,n 是真实的散射场景信息,K是蒙特卡罗的总次数,本实验中的试验次数为100次。从图5可以看出,随着SNR的提升,每一种前视成像方法的RMSE都会降低,并且当SNR降低时,所提出的PM-Bayesian的RMSE变化相对较小,试验结果表明本文方法具有较强的稳健性。
4.2 复杂面目标仿真实验结果
为了进一步验证所提出方法的性能,本节将考虑更复杂的飞机模型,并且场景中包含了3架飞机模型,如图6所示,仿真过程中回波的SNR设置为20 dB。
图7给出了采用不同前视成像方法进行前视成像的结果,从中可以看出实波束方法出现了模糊,无法进行高分辨前视成像。图7(b)—图7(d)分别是TSVD, Tikhonov和IAA方法处理的结果,从中可以看出虽然方位分辨率得到了改善,但是在不同的距离门还存在许多虚假点目标,背景噪声的基底很大,不利于后续的目标检测。图7(e)—图7(f)是贝叶斯和PM-Bayesian的处理结果,从中可以看出,虽然贝叶斯方法可以获得目标的轮廓信息,但本文提出的PM-Bayesian成像结果可以获得更多的细节信息,不仅方位副瓣很低,而且背景噪声很干净,对后续的目标识别提供了高清的成像结果。
针对复杂面目标的场景,图8给出了不同前视成像算法在不同SNR下的RMSE变化曲线。从图8可以看出,在SNR较高时,每一种前视成像方法的RMSE都会降低,但在低SNR条件下,本文所提出的PM-Bayesian的RMSE更小。上述原因主要是由于PM-Bayesian选取的稀疏度表征参数嵌入到前视成像的整个过程中,在每次迭代期间都会进行前视成像参数的更新,从而确保了本文方法在低SNR条件下仍具有较强的稳健性。
4.3 实测数据实验结果
为了进一步验证本文方法的有效性,本文采用一组北京无线电测量研究所在2019年录取的实测数据进行分析,本组实验数据场景中包含了房屋建筑物、道路等典型目标,不同方法下的成像结果如图9所示。
从图9可以看出,实波束成像方法的方位向模糊严重,无法在方位维度对目标进行很好的分辨。图9(b)和图9(c)分别是TSVD和Tikhonov方法的成像结果,从中可以看出,方位分辨率虽然有了提升,但成像质量依旧较差。图9(d)和图9(e)分别是IAA和贝叶斯方法的成像结果,从中可以看出建筑物和道路信息已经开始清晰。本文提出的PM-Bayesian成像方法如图9(f)所示,从图9(f)可以看出,图中的建筑物房屋得到了很好的区分,详细的细节信息如图10中红色矩形框中所示。
图10(a)中,基于真实波束的前视成像结果模糊,这意味着方位分辨率较差。如图10(b)和图10(c)所示,基于TSVD和Tikhonov方法的成像结果优于实波束方法。特别在图10(d)的IAA方法已经可以对图中的2个建筑物进行很好区分,然而,图像中仍然存在一些阴影和旁瓣。图10(e)中,我们可以看出贝叶斯方法可以实现比IAA更好的分辨率,并且可以获取目标的轮廓信息。相比之下,所提出的PM-Bayesian算法不仅可以恢复更详细的建筑物信息,而且成像结果中的噪声和副瓣更小。因此,所提出的PM-Bayesian方法的结果具有更高的方位超分辨率能力和更好的噪声抑制能力。基于实测数据的处理结果表明,本文提出的前视成像方法无论在视觉效果还是在成像质量都优于其他方法,从而验证了本文方法的有效性。
5. 结语
解卷积方法可以进行前视成像,但当前视成像场景复杂时,现有的前视成像方法的成像质量会下降。本文主要针对机载高速平台的前视成像问题进行了分析,提出了一种基于概率模型驱动的机载贝叶斯前视超分辨多目标成像方法。通过将前视成像空间扩展到多帧数据空间提升场景的稀疏度,并采用广义高斯概率模型对成像场景的稀疏特性进行统计建模和表征,最后基于贝叶斯框架实现稀疏前视成像。仿真结果和实测数据表明,由于选取的稀疏度表征参数嵌入到前视成像的整个过程中,在每次迭代期间都会进行前视成像参数的更新,因此本文方法不仅可以获得高分辨成像结果,而且具有较强的鲁棒性。
本文主要针对弱稀疏场景下的多目标前视成像问题进行了研究,后续将继续挖掘更多的场景先验信息,研究更加稳健的成像网络模型,提升复杂非稀疏场景下的单通道前视成像性能。
-
表 1 点目标仿真实验雷达参数
Table 1. Radar parameters for simulation experiment with point targets
参数 数值 参数 数值 平台速度(m/s) 300 时宽(μs) 10 平台高度(m) 1000 方位波束(°) 3 带宽(MHz) 512 扫描范围(°) –15~15 1 前视超分辨成像方法求解流程
1. Solution flow of the proposed algorithm
输入:天线方向图矩阵H,扩展的多普勒卷积矩阵Φ,观测数
据Y初始化:迭代次数m=1,ˆX1=Y 更新迭代过程: (1) 更新p:
p=F−1((1MM∑i=1|Xi|)21MM∑i=1(Xi−1MM∑i=1|Xi|)2),
F(x)=Γ2(2/2pp)Γ(1/1pp)Γ(3/3pp)(2) 更新J(ˆXn): J(ˆXn)=argmin{‖Y−H⊙ΦXn‖22+μL∑i=1(|xn|2i+ε)p2} (3) 更新∇J(ˆXn): ∇J(ˆXn)=[2(H⊙Φ)HH⊙Φ+μΛ(ˆXn)]X−2(H⊙Φ)HY (4) 更新An: An = 2(H⊙Φ)HH⊙Φ+μΛ (5) 更新ˆXn: ˆXn+1=ˆXn−[A(ˆXn)]−1⋅∇J(ˆXn) 输出:图像矩阵ˆXn+1 表 2 面目标仿真实验雷达参数
Table 2. Radar parameters for simulation experiment with surface targets
参数 数值 参数 数值 平台速度(m/s) 300 时宽(μs) 10 平台高度(m) 1000 方位波束(°) 3 带宽(MHz) 300 扫描范围(°) –15~15 -
[1] SKOLNIK M I. Radar Handbook[M]. 3rd ed. New York, USA: McGraw-Hill, 2008: 23.1–23.36. [2] 保铮, 邢孟道, 王彤. 雷达成像技术[M]. 北京: 电子工业出版社, 2005, 2–18.BAO Zheng, XING Mengdao, and WANG Tong. Radar Imaging Technique[M]. Beijing, China: Publishing House of Electronics Industry, 2005, 2–18. [3] RICHARDS M A. Fundamentals of Radar Signal Processing[M]. New York, USA: McGraw-Hill, 2005, 385–401. [4] CUMMING I G and WONG F H. Digital Processing of Synthetic Aperture Radar Data: Algorithms and Implementation[M]. Boston, USA: Artech House, 2005, 3–17. [5] LONG Teng, LU Zheng, DING Zegang, et al. A DBS Doppler centroid estimation algorithm based on entropy minimization[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(10): 3703–3712. doi: 10.1109/TGRS.2011.2142316 [6] 李亚超, 王家东, 张廷豪, 等. 弹载雷达成像技术发展现状与趋势[J]. 雷达学报, 2022, 11(6): 943–973. doi: 10.12000/JR22119LI Yachao, WANG Jiadong, ZHANG Tinghao, et al. Present situation and prospect of missile-borne radar imaging technology[J]. Journal of Radars, 2022, 11(6): 943–973. doi: 10.12000/JR22119 [7] CHEN Hongmeng, LI Ming, WANG Zeyu, et al. Cross-range resolution enhancement for DBS imaging in a scan mode using aperture-extrapolated sparse representation[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(9): 1459–1463. doi: 10.1109/LGRS.2017.2710082 [8] MOREIRA A and HUANG Yonghong. Airborne SAR processing of highly squinted data using a chirp scaling approach with integrated motion compensation[J]. IEEE Transactions on Geoscience and Remote Sensing, 1994, 32(5): 1029–1040. doi: 10.1109/36.312891 [9] MOREIRA A, PRATS-IRAOLA P, YOUNISM, et al. A tutorial on synthetic aperture radar[J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(1): 6–43. doi: 10.1109/MGRS.2013.2248301 [10] LI Zhenyu, XING Mengdao, LIANG Yi, et al. A frequency-domain imaging algorithm for highly squinted SAR mounted on maneuvering platforms with nonlinear trajectory[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(7): 4023–4038. doi: 10.1109/TGRS.2016.2535391 [11] RAN Lei, LIU Zheng, ZHANG Lei, et al. An autofocus algorithm for estimating residual trajectory deviations in synthetic aperture radar[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(6): 3408–3425. doi: 10.1109/TGRS.2017.2670785 [12] SUN Guangcai, LIU Yanbin, XIANG Jixiang, et al. Spaceborne synthetic aperture radar imaging algorithms: An overview[J]. IEEE Geoscience and Remote Sensing Magazine, 2022, 10(1): 161–184. doi: 10.1109/MGRS.2021.3097894 [13] LU Jingyue, ZHANG Lei, WEI Shaopeng, et al. Resolution enhancement for forwarding looking multi-channel SAR imagery with exploiting space-time sparsity[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5200617. doi: 10.1109/TGRS.2022.3232392 [14] WU Junjie, LI Zhongyu, HUANG Yulin, et al. Focusing bistatic forward-looking SAR with stationary transmitter based on Keystone transform and nonlinear chirp scaling[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(1): 148–152. doi: 10.1109/LGRS.2013.2250904 [15] ZENG Tao, WANG Rui, LI Feng, et al. A modified nonlinear chirp scaling algorithm for spaceborne/stationary bistatic SAR based on series reversion[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(5): 3108–3118. doi: 10.1109/TGRS.2012.2219057 [16] MENG Ziqiang, LI Yachao, LI Chunbiao, et al. A raw data simulator for bistatic forward-looking high-speed maneuvering-platform SAR[J]. Signal Processing, 2015, 117: 151–164. doi: 10.1016/j.sigpro.2015.05.008 [17] PU Wei, WU Junjie, HUANG Yulin, et al. Fast factorized backprojection imaging algorithm integrated with motion trajectory estimation for bistatic forward-looking SAR[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(10): 3949–3965. doi: 10.1109/JSTARS.2019.2945118 [18] 梅海文, 孟自强, 李亚超, 等. 双基前视SAR几何定位及同步误差分析[J]. 电子与信息学报, 2018, 40(4): 882–889. doi: 10.11999/JEIT170677MEI Haiwen, MENG Ziqiang, LI Yachao, et al. Bistatic forward-looking SAR geometrical positioning and analysis of synchronization error[J]. Journal of Electronics &Information Technology, 2018, 40(4): 882–889. doi: 10.11999/JEIT170677 [19] LI Yachao, ZHANG Tinghao, MEI Haiwen, et al. Focusing translational-variant bistatic forward-looking SAR data using the modified Omega-K algorithm[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5203916. doi: 10.1109/TGRS.2021.3063780 [20] LIU Zhutian, LI Zhongyu, YU Huaiqin, et al. Bistatic forward-looking SAR moving target detection method based on joint clutter cancellation in echo-image domain with three receiving channels[J]. Sensors, 2018, 18(11): 3835. doi: 10.3390/s18113835 [21] LI Yachao, XU Gaotian, ZHOU Song, et al. A novel CFFBP algorithm with noninterpolation image merging for bistatic forward-looking SAR focusing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5225916. doi: 10.1109/TGRS.2022.3162230 [22] 吴迪, 杨成杰, 朱岱寅, 等. 一种用于单脉冲成像的自聚焦算法[J]. 电子学报, 2016, 44(8): 1962–1968. doi: 10.3969/j.issn.0372-2112.2016.08.027WU Di, YANG Chengjie, ZHU Daiyin, et al. An autofocusing algorithm for monopulse imaging[J]. Acta Electronica Sinica, 2016, 44(8): 1962–1968. doi: 10.3969/j.issn.0372-2112.2016.08.027 [23] CHEN Hongmeng, LU Yaobing, MU Heqiang, et al. Knowledge-aided mono-pulse forward-looking imaging for airborne radar by exploiting the antenna pattern information[J]. Electronics Letters, 2017, 53(8): 566–568. doi: 10.1049/el.2017.0324 [24] 李悦丽, 马萌恩, 赵崇辉, 等. 基于单脉冲雷达和差通道多普勒估计的前视成像[J]. 雷达学报, 2021, 10(1): 131–142. doi: 10.12000/JR20111LI Yueli, MA Meng’en, ZHAO Chonghui, et al. Forward-looking imaging via Doppler estimates of sum-difference measurements in scanning monopulse radar[J]. Journal of Radars, 2021, 10(1): 131–142. doi: 10.12000/JR20111 [25] 杨志伟, 贺顺, 廖桂生. 机载单通道雷达实波束扫描的前视探测[J]. 航空学报, 2012, 33(12): 2240–2245.YANG Zhiwei, HE Shun, and LIAO Guisheng. Forward-looking detection for airborne single-channel radar with beam scanning[J]. Acta Aeronauticaet AstronauticaSinica, 2012, 33(12): 2240–2245. [26] 王军, 赵宜楠, 乔晓林. 基于压缩感知的雷达前视向稀疏目标分辨[J]. 电子与信息学报, 2014, 36(8): 1978–1984. doi: 10.3724/SP.J.1146.2013.01936WANG Jun, ZHAO Yin’an, and QIAO Xiaolin. A sparse target-scenario determination strategy based on compressive sensing for active radar in the line of sight[J]. Journal of Electronics &Information Technology, 2014, 36(8): 1978–1984. doi: 10.3724/SP.J.1146.2013.01936 [27] 温晓杨, 匡纲要, 胡杰民, 等. 基于实波束扫描的相控阵雷达前视成像[J]. 航空学报, 2014, 35(7): 1977–1991. doi: 10.7527/S1000-6893.2013.0545WEN Xiaoyang, KUANG Gangyao, HU Jiemin, et al. Forward-looking imaging based on real beam scanning phased array radars[J]. Acta Aeronauticaet AstronauticaSinica, 2014, 35(7): 1977–1991. doi: 10.7527/S1000-6893.2013.0545 [28] RICHARDS M A. Iterative noncoherent angular superresolution (radar)[C]. 1988 IEEE National Radar Conference, Ann Arbor, USA, 1988: 100–105. [29] 李悦丽, 梁甸农, 黄晓涛. 一种单脉冲雷达多通道解卷积前视成像方法[J]. 信号处理, 2007, 23(5): 699–703. doi: 10.3969/j.issn.1003-0530.2007.05.013LI Yueli, LIANG Diannong, and HUANG Xiaotao. A multi-channel deconvolution based on forword-looking imaging method in monopulse radar[J]. Signal Processing, 2007, 23(5): 699–703. doi: 10.3969/j.issn.1003-0530.2007.05.013 [30] 陈洪猛, 李明, 王泽玉, 等. 基于多帧数据联合处理的机载单通道雷达贝叶斯前视成像[J]. 电子与信息学报, 2015, 37(10): 2328–2334. doi: 10.11999/JEIT150153CHEN Hongmeng, LI Ming, WANG Zeyu, et al. Bayesian forward-looking imaging for airborne single-channel radar based on combined multiple frames data[J]. Journal of Electronics &Information Technology, 2015, 37(10): 2328–2334. doi: 10.11999/JEIT150153 [31] GAMBARDELLA A and MIGLIACCIO M. On the superresolution of microwave scanning radiometer measurements[J]. IEEE Geoscience and Remote Sensing Letters, 2008, 5(4): 796–800. doi: 10.1109/LGRS.2008.2006285 [32] CHEN Hongmeng, LI Ming, WANG Zeyu, et al. Sparse super-resolution imaging for airborne single channel forward-looking radar in expanded beam space via l p regularisation[J]. Electronics Letters, 2015, 51(11): 863–865. doi: 10.1049/el.2014.3978 [33] ZHANG Yongchao, JAKOBSSON A, ZHANG Yin, et al. Wideband sparse reconstruction for scanning radar[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(10): 6055–6068. doi: 10.1109/TGRS.2018.2830100 [34] LI Yueli, LIU Jianguo, JIANG Xiaoqing, et al. Angular superresol for signal model in coherent scanning radars[J]. IEEE Transactions on Aerospace and Electronic Systems, 2019, 55(6): 3103–3116. doi: 10.1109/TAES.2019.2900133 [35] HUANG Yulin, ZHA Yuebo, WANG Yue, et al. Forward looking radar imaging by truncated singular value decomposition and its application for adverse weather aircraft landing[J]. Sensors, 2015, 15(6): 14397–14414. doi: 10.3390/s150614397 [36] TUO Xingyu, ZHANG Yin, HUANG Yulin, et al. Fast sparse-TSVD super-resolution method of real aperture radar forward-looking imaging[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(8): 6609–6620. doi: 10.1109/TGRS.2020.3027053 [37] ZHANG Yongchao, ZHANG Yin, LI Wenchao, et al. Super-resolution surfacemapping for scanning radar: Inverse filtering based on the fast iterativeadaptive approach[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(1): 127–144. doi: 10.1109/TGRS.2017.2743263 [38] ÇETIN M and KARL W C. Feature-enhanced synthetic aperture radar image formation based on nonquadratic regularization[J]. IEEE Transactions on Image Processing, 2001, 10(4): 623–631. doi: 10.1109/83.913596 [39] ZHANG Yin, TUO Xingyu, HUANG Yulin, et al. A TV forward-looking super-resolution imaging method based on TSVD strategy for scanning radar[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(7): 4517–4528. doi: 10.1109/TGRS.2019.2958085 [40] ZHANG Qiping, ZHANG Yin, HUANG Yulin, et al. TV-sparse super-resolution method for radar forward-looking imaging[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(9): 6534–6549. doi: 10.1109/TGRS.2020.2977719 [41] YANG Jianyu, KANG Yao, ZHANG Yin, et al. A Bayesian angular superresolution method with lognormal constraint for sea-surface target[J]. IEEE Access, 2020, 8: 13419–13428. doi: 10.1109/ACCESS.2020.2965973 [42] ZHANG Yin, ZHANG Qiping, LI Changlin, et al. Sea-Surface target angular superresolution in forward-looking radar imaging based on maximum a posteriori algorithm[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(8): 2822–2834. doi: 10.1109/JSTARS.2019.2918189 [43] ZHANG Qiping, ZHANG Yin, HUANG Yulin, et al. Azimuth superresolutionof forward-looking radar imaging which relies on linearized Bregman[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(7): 2032–2043. doi: 10.1109/JSTARS.2019.2912993 [44] CHEN Hongmeng, LI Yachao, GAO Wenquan, et al. Bayesian forward-looking superresolution imaging using Doppler deconvolution in expanded beam space for high-speed platform[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5105113. doi: 10.1109/TGRS.2021.3107717 [45] LI Weixin, LI Ming, ZUO Lei, et al. Real aperture radar forward-looking imaging based on variational Bayesian in presence of outliers[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5117113. doi: 10.1109/TGRS.2022.3203807 [46] ZHANG Yin, SHEN Jiahao, TUO Xingyu, et al. Scanning radar forward-looking superresolution imaging based on the Weibull distribution for a sea-surface target[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5116111. doi: 10.1109/TGRS.2022.3194118 [47] LI Weixin, LI Ming, ZUO Lei, et al. A computationally efficient airborne forward-looking super-resolution imaging method based on sparse Bayesian learning[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5102613. doi: 10.1109/TGRS.2023.3260094 [48] XU Gang, XING Mengdao, XIA Xianggen, et al. Sparse regularization of interferometric phase and amplitude for InSAR image formation based on Bayesian representation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(4): 2123–2136. doi: 10.1109/TGRS.2014.2355592 期刊类型引用(1)
1. 毛德庆,杨建宇,杨明杰,张永超,张寅,黄钰林. IAA-Net:一种实孔径扫描雷达迭代自适应角超分辨成像方法. 雷达学报. 2024(05): 1073-1091 . 本站查看
其他类型引用(2)
-