-
摘要: 稀疏孔径逆合成孔径雷达(ISAR)成像的目标是从不完整的回波中恢复和重建高质量ISAR图像,现有方法主要可以分为基于模型的方法和基于深度学习的方法两大类:一方面,基于模型的稀疏孔径ISAR成像方法往往具备显性的数学模型,对雷达回波的成像过程有清晰的物理建模,但算法有效性上不如基于学习的方法。另一方面,基于深度学习的方法通常高度依赖训练数据,难以适配空间目标ISAR成像任务中高实时、高动态的现实应用需求。针对上述问题,该文提出了一种基于元学习的高效、自适应稀疏孔径ISAR成像算法。所提方法主要包含基于学习辅助的交替迭代优化和元学习优化两部分。基于学习辅助的交替迭代优化继承了ISAR成像机理的回波成像模型,保证了方法数学物理可解释性的同时避免了方法对数据的依赖性;基于元学习的优化策略通过引入非贪婪优化策略,提高了算法跳出局部最优解的能力,保证了病态非凸条件下的算法收敛性能。最后,实验结果表明:该文方法可以在不依赖训练数据、不进行预训练的情况下实现高效、自适应的稀疏孔径ISAR成像,并取得优于其他常规ISAR成像算法的性能。
-
关键词:
- 逆合成孔径雷达 /
- 稀疏孔径ISAR成像 /
- 学习辅助 /
- 非凸优化 /
- 元学习
Abstract: Sparse Aperture-Inverse Synthetic Aperture Radar (SA-ISAR) imaging methods aim to reconstruct high-quality ISAR images from the corresponding incomplete ISAR echoes. The existing SA-ISAR imaging methods can be roughly divided into two categories: model-based and deep learning-based methods. Model-based SA-ISAR methods comprise physical ISAR imaging models based on explicit mathematical formulations. However, due to the high nonconvexity and ill-posedness of the SA-ISAR problem, model-based methods are often ineffective compared with deep learning-based methods. Meanwhile, the performance of the existing deep learning-based methods depends on the quality and quantity of the training data, which are neither sufficient nor precisely labeled in space target SA-ISAR imaging tasks. To address these issues, we propose a metalearning-based SA-ISAR imaging method for space target ISAR imaging tasks. The proposed method comprises two primary modules: the learning-aided alternating minimization module and the metalearning-based optimization module. The learning-aided alternating minimization module retains the explicit ISAR imaging formulations, guaranteeing physical interpretability without data dependency. The metalearning-based optimization module incorporates a non-greedy strategy to enhance convergence performance, ensuring the ability to escape from poor local modes during optimization. Extensive experiments validate that the proposed algorithm demonstrates superior performance, excellent generalization capability, and high efficiency, despite the lack of prior training or access to labeled training samples, compared to existing methods. -
1. 引言
传统单通道SAR成像受最小天线面积的限制[1],高分辨率和宽测绘带不能同时实现,在实际应用中需要根据需求对两者进行折衷。而高分宽幅SAR系统具有突破传统单通道SAR系统最小天线面积限制的能力,同时实现高分辨率和宽的测绘幅宽,是未来SAR的一个重要发展趋势。但高分宽幅SAR系统面临的难题是,高的方位向分辨率需要高的脉冲重复频率(Pulse Repetition Frequency, PRF)来避免方位多普勒谱模糊[2],而宽的距离测绘带则需要低的PRF。方位向多通道SAR可以在不提升发射脉冲重复频率的情况下实现方位采样率提升,从而实现距离宽测绘带和方位高分辨率,解决了高分宽幅成像的难题[3-5],同时该系统具有地面动目标显示(Ground Moving Target Indication, GMTI)能力,因此将两种功能结合可实现高分宽幅动目标成像,在军事侦察中具有重要意义[6-8]。
在方位多通道SAR系统中,由于系统采用低脉冲重复频率,每个通道接收的回波存在多普勒模糊[9],多通道成像存在周期性相位误差造成成对回波,导致传统的动目标成像方法不再适用。Stefan等人[10]基于最大信杂噪比准则估计运动目标速度,该方法鲁棒性较强,但需要对所有运动目标的可能速度都进行遍历搜索,运算量大大增加。孙光才等人[11]提出了一种瞬时距离-多普勒(Instantaneous-Range-Doppler, IRD)的动目标成像方法,基于方位去斜Keystone变换[12]实现聚焦,不依赖于目标精确的运动参数,但是对信噪比要求较高且难以估计目标位置。张双喜等人[13]利用相位误差随距离频率变化的特性求解运动目标的径向速度,未考虑动目标和杂波背景联合优化成像问题。郭怡冉等人[14]提出了基于周期性相位误差的分数阶傅里叶变换(FRactional Fourier Transform, FRFT)等径向速度估计算法,但需要系统具有较多的方位向通道。
常规多通道高分宽幅SAR动目标成像系统复杂程度高,数据冗余量大,而且存在动目标成对回波问题,本文针对上述问题提出了一种基于分布式压缩感知[15]的高分宽幅SAR动目标成像技术,利用动目标稀疏特性和杂波背景非稀疏特性构建分布式压缩感知观测模型,通过优化求解实现杂波背景和稀疏动目标的重建,并抑制多通道SAR动目标成像中的成对回波,基于RADAR-SAT数据的仿真试验结果验证了本文算法的有效性。
2. 多通道高分宽幅SAR动目标成像几何模型和信号模型
多通道高分宽幅SAR动目标成像几何模型如图1所示,设SAR系统在方位向上有N个通道,采用单个通道发射一个宽波束信号,N个通道同时接收回波信号,对于所观测的场景如图1所示,其中
(x,y,z) 表示地面观测单元的中心坐标,φ 表示入射角,V表示平台速度,v表示目标运动速度,X,Y,Z 方向分别表示顺轨方向,交轨方向和径向。对于如图1所示目标,第
n 个通道接收到的回波sn(tr,ta)=σ(x,y,z)ωr(tr−rn+r0c)ωa(ta−tac)⋅e(−j2πf0rn+r0c)e(+jπKr(tr−rn+r0c)2) (1) r0(ta,x,y,z)≈√(x−Vta)2+y2+z2+vrta (2) rn(ta,x,y,z)≈√(x−xn−Vta)2+y2+z2+vrta (3) 其中,
ta 表示方位慢时间,c 表示光速,f0 为工作频率,rn 为地面目标到第n 个通道的瞬时距离,r0 为地面目标到参考通道的瞬时距离,vr 为地面目标的径向速度,σ(x,y,z) 为目标的复反射系数,ωr 表示距离包络,ωa(ta) 表示天线方向图对应方位包络,tac 方向图波束中心偏离时间,xn=(n−1)d 为阵元的位置,d 为阵元间隔。3. 常规多通道高分宽幅SAR动目标成像技术
在常规多通道高分宽幅SAR动目标成像系统中,为了实现高分宽幅成像需要方位向具有多个通道,为了实现动目标检测和成像需要保障脉间方位多通道重叠度形成顺轨干涉,通道构型如图2所示,并给出了相邻脉冲重复时间(Pulse Repetition Time, PRT)内接收天线和等效相位中心的相对位置关系,其中方框表示接收天线,相邻接收天线以不同颜色进行区分;由于雷达系统采用的是收发分置,需要进行双站到单站的等效处理,等效为每个通道自发自收,图2中圆形表示等效相位中心,相邻等效相位中心与上述接收天线依次相对应,并以不同颜色进行区分。为了保障系统的性能指标,正侧视情况下通道数量和系统参数之间的关系如下
N≥4VBsinφρac (4) 其中,B为测绘带宽,c为光速,
ρa 为方位向分辨率。假设平台对地速度5 km/s,系统测绘带宽200 km,方位分辨率1 m,入射角为45∘ ,则常规高分宽幅动目标成像要求通道数量大于等于10个,对应阵列天线方位向长度超过20 m,这就导致了系统极度复杂。此外,高分宽幅动目标成像还存在成对回波问题。在成像过程中根据静止目标进行匹配滤波处理,因此对于上述动目标来讲其残余相位如下
Δϕn(ta)=−2πf02vrtac+πKr4vrtac(tr−r0+rnc) (5) 其中第1项表现为多普勒频率,第2项表现为距离徙动,经过距离向脉冲压缩之后残余相位只剩下多普勒频率,即为
Δϕn,rc(ta)=−2πf02vrtac (6) 多个通道的残余相位是一致的,而方位向不同时间残余相位是不一致的,由此形成周期性相位误差,经过方位向脉冲压缩之后,运动目标不仅在方位向形成位置偏移,而且形成了较高的栅瓣,即成对回波,在高分宽幅动目标成像中形成图像模糊,并造成动目标检测的虚警[14]。
4. 基于分布式压缩感知的高分宽幅SAR动目标成像技术
针对常规高分宽幅动目标成像技术存在的系统复杂度高、成像模糊等问题,本文提出了基于分布式压缩感知的高分宽幅动目标成像技术,利用运动目标稀疏分布特性和杂波背景非稀疏特性构造分布式压缩感知模型,只需少量通道即可实现回波数据获取,通过分布式压缩感知稀疏重建获得动目标和杂波背景信息,同时实现动目标成对回波抑制和观测场景高分宽幅成像。该方法利用了动目标稀疏特性,大大降低了系统复杂度和信息冗余度,并在信号模型上考虑了动目标残余相位特性,抑制了成对回波,实现了无模糊高分宽幅成像。
4.1 基于分布式压缩感知的高分宽幅动目标信号模型
雷达观测场景如图1所示,整个场景包括动目标和杂波背景的回波表示如下
sn(tr,ta)=∑iσ(xi,yi,zi)ωr(tr−rni+r0ic)⋅ωa(ta−taci)e(−j2πf0rni+r0ic)⋅e(+jπKr(tr−rni+r0ic)2)+∑jσ(xj,yj,zj)⋅ωr(tr−rnj+r0jc)ωa(ta−taci)⋅e(−j2πf0rnj+r0jc)e(+jπKr(tr−rnj+r0jc)2) (7) 其中第1部分为杂波背景,第2部分为动目标。式(7)中的距离表达式如下
r0i≈√(xi−Vta)2+yi2+zi2 (8) rni≈√(xi−xn−Vta)2+yi2+zi2 (9) r0j≈√(xj−Vta)2+yj2+zj2+vrjta (10) rnj≈√(xj−xn−Vta)2+yj2+zj2+vrjta (11) 将式(7)表示为矩阵形式
sn=Θnσ=[Θn1Θn2][σ1σ2] (12) 其中
Θn1 ,σ1 表示杂波背景部分(共同分量),Θn2 ,σ2 表示运动目标部分(更新分量)。它们表达式如下sn=[sn(tr1,ta1)sn(tr1,ta2)⋮sn(trK,taM)] (13) Θn1=[Θn1(tr1,ta1,σ1)···Θn1(tr1,ta1,σI)Θn1(tr1,ta2,σ1)···Θn1(tr1,ta2,σI)⋮⋱⋮Θn1(trK,taM,σ1)···Θn1(trK,taM,σI)] (14) Θn1(tr,ta,σi)=ωr(tr−rni+r0ic)ωa(ta−taci)⋅e(−j2πf0rni+r0ic)e(+jπKr(tr−rni+r0ic)2) (15) Θn2=[Θn2(tr1,ta1,σr1)···Θn2(tr1,ta1,σrJ)Θn2(tr1,ta2,σr1)···Θn2(tr1,ta2,σrJ)⋮⋱⋮Θn2(trK,taM,σr1)···Θn2(trK,taM,σrJ)] (16) Θn2(tr,ta,σj)=ωr(tr−rnj+r0jc)ωa(ta−tacj)⋅e(−j2πf0rnj+r0jc)⋅e(+jπKr(tr−rnj+r0jc)2)≈Θn1(tr,ta,σj)e(−j2π2vrjtaλ) (17) 其中K, M分别表示距离向和方位向采样点数,I, J分别表示杂波背景目标数量和动目标数量。整合多个通道信号形成联合观测模型如下
S=Θσ,S=[s1s2⋮sN],Θ=[Θ1Θ2⋮ΘN]=[Θ11Θ12Θ21Θ22⋮⋮ΘN1ΘN2] (18) 根据分布式压缩感知理论[16],如果观测的数据量满足下面的条件,则观测场景可以很好的被恢复
KMN≥c0(I+J) (19) 其中c0表示一个常数。考虑高分宽幅极限情况下,参照式(4)可以得到杂波背景目标数量
I≈ 2VBsinφρacKM ,常数c0=1,于是可以得到N≥2VBsinφρac+JKM (20) 由于运动目标一般为稀疏分布,因此式(20)中第2项通常很小,通过和式(4)比较可以发现基于分布式压缩感知的高分宽幅动目标成像技术相比传统技术所需通道数量约降低1倍。
4.2 基于分布式压缩感知的高分宽幅数据录取
基于分布式压缩感知的高分宽幅数据录取可以采用多种构型,本文构建了一种顺轨多通道构型。该构型与图1中观测几何相似,与常规多通道高分宽幅SAR动目标成像原理相比,基于分布式压缩感知的高分宽幅动目标成像通道构型如图3所示,并给出了相邻PRT内接收天线和等效相位中心的相对位置关系,其中方框表示接收天线,相邻接收天线以不同颜色进行区分;由于雷达系统采用的是收发分置,需要进行双站到单站的等效处理,等效为每个通道自发自收,图3中圆形表示等效相位中心,相邻等效相位中心与上述接收天线依次相对应,并以不同颜色进行区分。区别在于基于分布式压缩感知的SAR系统通道数量更少,对应脉间方位多通道重叠度更低,系统通道数量越多,脉间方位通道重叠数量越少,则要求的通道数量越少,极限情况下本文构型通道数量相比常规高分宽幅动目标成像构型通道数量约降低1倍。
需要说明的是,当相邻PRF之间不存在完全重合的等效相位中心时,利用分布式压缩感知技术也可以实现高分宽幅动目标成像,本文不再进行详细讨论。
4.3 基于分布式压缩感知的高分宽幅动目标成像处理
由于基于分布式压缩感知的高分宽幅SAR动目标成像系统脉间方位多通道重叠度不足以支撑顺轨干涉处理,且常规高分宽幅动目标成像存在成对回波问题,因此需要结合动目标稀疏特性进行信号处理获得高分宽幅动目标图像。
基于分布式压缩感知的高分宽幅动目标信号模型如式(18)所示,在信号重建过程中需要加入动目标稀疏性约束,表示如下
min‖σ2‖0,s.t.S=Θ[σ1σ2] (21) 其中,
σ1 表示杂波背景部分,是非稀疏的,σ2 表示运动目标部分,是稀疏的。理论上,式(21)的解可以通过优化方法获得,从而实现场景的重建。实际问题中,高分宽幅成像目标数量巨大,而且存在明显的距离方位耦合,难以实现单维度处理,因此直接求解该问题难以实现。针对上述问题,本文采用先方位1维分布式压缩感知重建再距离方位2维分布式压缩感知重建的过程。方位2维分布式压缩感知通过数据降维大大降低计算复杂度,并估计得到目标的速度和位置参数,但存在方位成对回波;距离方位2维分布式压缩感知根据运动目标速度和位置信息降低字典维度从而降低计算复杂度,完成成对回波抑制。算法的流程详见表1。
表 1 算法流程Table 1. Algorithm flowchart(1) 对高分宽幅SAR动目标成像系统每个通道数据分别进行距离压缩处理,获得每个通道的1维距离图像; (2) 联合多通道数据转换到方位多普勒域进行距离徙动校正,之后转换回到方位时域,完成对静止目标距离徙动校正,而动目标由于相位
误差存在距离徙动校正误差;(3) 对距离徙动校正后的多通道数据构造方位1维分布式压缩感知模型,利用优化方法进行信号重建,分别获得非稀疏背景杂波和稀疏动目
标散射信息;(4) 根据稀疏动目标散射信息估计动目标的位置和速度参数; (5) 对距离徙动校正后的多通道数据根据运动目标位置和速度信息构造距离方位2维分布式压缩感知模型,利用优化方法进行信号重建,获
得非稀疏背景杂波和稀疏动目标散射信息;(6) 将运动目标信息σ2和背景杂波图像σ1融合形成完整的高分宽幅图像。 基于分布式压缩感知的多通道SAR高分宽幅动目标成像处理流程如图4所示。
5. 仿真实验
为了对基于分布式压缩感知的高分宽幅SAR动目标成像技术有效性进行验证,开展了计算机数值仿真,以RADAR-SAT实测图像作为杂波背景,添加稀疏的动目标,仿真产生多通道SAR回波数据,通过本文成像处理过程获得最终SAR图像。仿真的参数如表2所示
表 2 雷达系统主要参数Table 2. Main parameters of radar system参数 数值 工作频率 5.3 GHz 带宽 30 MHz 采样率 32.3 MHz PRF 1256.98 Hz 速度 7062 m/s 通道数 3 动目标速度 2.5 m/s 仿真中采用的实测图像如图5所示,在图中红色圆圈标示的道路位置添加1个运动目标,仿真产生杂波背景和运动目标的回波。
对单个通道进行2维成像处理,由于方位向欠采样的存在,单个通道图像存在明显的方位向模糊,图像质量变差,如图6所示。
对多通道距离压缩和距离徙动校正数据进行方位向1维分布式压缩感知建模,利用优化方法进行非稀疏背景杂波和稀疏运动目标重建,所得图像如图7所示。图7(a)表示非稀疏静止背景杂波重建结果,可以看到经过多通道融合之后图像模糊程度得到明显改善,并且运动目标得到了良好的抑制,同时运动目标的成对回波也得到了良好的抑制。图7(b)表示稀疏运动目标重建结果,可以看到杂波得到良好抑制,重建图像中有明显的运动目标和成对回波,动目标检测存在虚警,需要说明的是,当距离徙动现象显著时,成对回波和动目标会落在不同的距离分辨单元内。从图7(b)中可以估计出多个动目标信息,用于构建距离方位分布式压缩感知模型。图7(c)表示非稀疏静止背景杂波和稀疏运动目标融合结果,可以看到,由于目标径向速度影响,目标方位位置出现偏移,成像位置不在道路上。
利用运动目标信息构建距离方位2维分布式压缩感知模型,利用优化方法进行信号重建,获得非稀疏背景杂波和稀疏动目标散射信息,如图8所示。图8(a)表示非稀疏静止背景杂波重建结果。图8(b)表示稀疏运动目标重建结果,可以看到运动目标的成对回波得到良好的抑制,同时估计得到运动目标径向速度为2.46 m/s,与仿真速度吻合。图8(c)表示非稀疏静止背景杂波和稀疏运动目标融合结果,可以看到运动目标得到了良好的重建,运动目标位置重新定位于道路上,同时成对回波得到了良好的抑制,验证了本文基于分布式压缩感知的高分宽幅SAR动目标成像技术有效性。
6. 结束语
高分宽幅动目标成像是SAR技术发展的一个重要方向,然而传统多通道SAR实现高分宽幅动目标成像需要保障脉间方位多通道重叠度,系统复杂程度过高,而且动目标成像存在成对回波现象,造成动目标检测虚警。针对上述问题,本文提出了一种基于分布式压缩感知的高分宽幅SAR动目标成像技术,结合杂波背景非稀疏特性和运动目标稀疏特性建立分布式压缩感知信号模型,通过模型求解实现高分宽幅动目标成像。针对高分宽幅条件下分布式压缩感知信号模型难以直接求解的问题,本文采用先方位1维分布式压缩感知重建再距离方位2维分布式压缩感知重建的过程,方位1维分布式压缩感知通过数据降维大大降低计算复杂度,并估计得到目标的速度和位置参数,距离方位2维分布式压缩感知根据运动目标速度和位置信息降低字典维度从而降低计算复杂度。基于RADAR-SAT数据的仿真试验表明,本文技术方法能够良好实现运动目标成像和信息反演,验证了该技术的可行性和有效性。
-
1 一种基于元学习的稀疏孔径ISAR成像算法
1. A meta-learning based sparse aperture ISAR imaging method
1 给定:稀疏孔径一维距离像S 2 初始化:网络输入 {\boldsymbol{Z}}_{\boldsymbol{X}}^{\mathrm{0,0}} ,网络参数 {\boldsymbol{\theta }}_{\boldsymbol{X}}^{\mathrm{0,0}} 。 3 for k\leftarrow \mathrm{0,1},\cdots ,K do 4 for t\leftarrow \mathrm{0,1},\cdots ,T do 5 {\boldsymbol{X} }^{(k,t)}={ {{G} } }_{\boldsymbol{X} }\left({\boldsymbol{Z} }_{\boldsymbol{X} }^{(k,t)},{\boldsymbol{\theta } }_{\boldsymbol{X} }^{\left(k\right)}\right) 6 {\mathcal{L} }_{ {\boldsymbol{Z} }_{\boldsymbol{X} } }^{(k,t)}={\left\|\boldsymbol{S}-\boldsymbol{D}\boldsymbol{F}{\boldsymbol{X} }^{(k,t)}\right\|}_{{\rm{F}}}^{2}+\beta {\left\|{\boldsymbol{X} }^{(k,t)}\right\|}_{1} 7 {\boldsymbol{Z} }_{\boldsymbol{X} }^{(k,t+1)}={\boldsymbol{Z} }_{\boldsymbol{X} }^{(k,t)}-{\gamma }_{\boldsymbol{X} }^{(k,t)}\cdot {\rm{Adam}}\left({\nabla }_{ {\boldsymbol{Z} }_{\boldsymbol{X} }^{(k,t)} }{\mathcal{L} }_{ {\boldsymbol{Z} }_{\boldsymbol{X} } }^{(k,t)}\right) 8 end
9 {\mathcal{L} }_{ {\rm{meta} } }^{\left(k\right)}=\displaystyle\sum _{t=1}^{T}\left\{ {\left\|\boldsymbol{S}-\boldsymbol{D}\boldsymbol{F}\cdot { { {G} } }_{\boldsymbol{X} }\left({\boldsymbol{Z} }_{\boldsymbol{X} }^{(k,t)},{\boldsymbol{\theta } }_{\boldsymbol{X} }^{\left(k\right)}\right)\right\|}_{{\rm{F}}}^{2}\right.
\left. +\beta {\left\|{ {{G} } }_{\boldsymbol{X} }\left({\boldsymbol{Z} }_{\boldsymbol{X} }^{(k,t)},{\boldsymbol{\theta } }_{\boldsymbol{X} }^{\left(k\right)}\right)\right\|}_{1}\right\}10 {\boldsymbol{\theta } }_{\boldsymbol{X} }^{(k+1)}={\boldsymbol{\theta } }_{\boldsymbol{X} }^{\left(k\right)}-{\gamma }_{{\rm{meta}}}^{\left(k\right)}\cdot {\rm{Adam}}\left({\nabla }_{ {\boldsymbol{\theta } }_{\boldsymbol{X} }^{\left(k\right)} }{\mathcal{L} }_{{\rm{meta}}}^{\left(k\right)}\right) 11 {\boldsymbol{Z}}_{\boldsymbol{X}}^{(k+1, 0)}={\boldsymbol{Z}}_{\boldsymbol{X}}^{(k,T)} 12 end 13 输出:{\boldsymbol{X} }^{(K,T)}={ {{G} } }_{\boldsymbol{X} }\left({\boldsymbol{Z} }_{\boldsymbol{X} }^{(K,T)},{\boldsymbol{\theta } }_{\boldsymbol{X} }^{\left(K\right)}\right) 表 1 不同方法在仿真ISAR数据集上的平均成像性能对比(稀疏率为0.250)
Table 1. The average imaging results on the of the simulated ISAR data (sparsity rate 0.250)
表 2 不同方法在仿真ISAR数据集上的平均成像性能对比(稀疏率为0.125)
Table 2. The average imaging results on the of the simulated ISAR data (sparsity rate 0.125)
表 3 不同方法在实测ISAR数据集上的平均成像性能对比(稀疏率为0.250)
Table 3. The average imaging results on the of the real ISAR data (sparsity rate 0.250)
表 4 不同方法在实测ISAR数据集上的平均成像性能对比(稀疏率为0.125)
Table 4. The average imaging results on the of the real ISAR data (sparsity rate 0.125)
表 5 本文方法中元学习优化的消融实验
Table 5. The ablation studies of the proposed method
稀疏率 方法 图像熵 PSNR (dB) RMSE 0.250 本文方法 5.1500 52.9602 0.0143 无元学习模块 5.5986 51.2857 0.0191 0.125 本文方法 5.1143 51.2460 0.0174 无元学习模块 5.2697 50.3675 0.0206 表 6 5种方法的计算复杂度对比
Table 6. The computational complexity comparison of five methods
方法 计算复杂度 训练
时间(h)测试
时间(s)RD {\mathcal{O} }\left({ {{M} } }^{2}\right) 无 < 1.0 OMP[4] {\mathcal{O} }\left({{K} }{ {{M} } }^{2}\right) 无 4.4 ADMM[5] {\mathcal{O} }\left({{K} }{ {{M} } }^{3}\right) 无 1.6 CU-ADMM[19] {\mathcal{O} }\left({{K} }{ {{M} } }^{3}\right) 2 < 1.0 本文方法 {\mathcal{O} }\left({{K} }{ {{M} } }^{2}{{N} }{\displaystyle\sum }_{l=1}^{L}{ {{C} } }_{l}{ {{C} } }_{l+1}\right) 无 18.4 -
[1] 丁鹭飞, 耿富录, 陈建春. 雷达原理[M]. 5版. 北京: 电子工业出版社, 2014.DING Lufei, GENG Fulu, and CHEN Jianchun. Principle of Radar[M]. 5th ed. Beijing: Publishing House of Electronics Industry, 2014. [2] 张双辉. 基于贝叶斯框架的稀疏孔径ISAR成像技术研究[D]. [博士论文], 国防科学技术大学, 2016.ZHANG Shanghui. Research on sparse aperture inverse synthetic aperture radar imaging withing Bayesian framework[D]. [Ph.D. dissertation], National University of Defense Technology, 2016. [3] MALLAT S G and ZHANG Zhifeng. Matching pursuits with time-frequency dictionaries[J]. IEEE Transactions on Signal Processing, 1993, 41(12): 3397–3415. doi: 10.1109/78.258082 [4] TROPP J A and GILBERT A C. Signal recovery from random measurements via orthogonal matching pursuit[J]. IEEE Transactions on Information Theory, 2007, 53(12): 4655–4666. doi: 10.1109/TIT.2007.909108 [5] BOYD S, PARIKH N, CHU E, et al. Distributed optimization and statistical learning via the alternating direction method of multipliers[J]. Foundations and Trends® in Machine Learning, 2011, 3(1): 1–122. doi: 10.1561/2200000016 [6] DONOHO D L. Compressed sensing[J]. IEEE Transactions on Information Theory, 2006, 52(4): 1289–1306. doi: 10.1109/TIT.2006.871582 [7] ZHANG Lei, QIAO Zhijun, XING Mengdao, et al. High-resolution ISAR imaging by exploiting sparse apertures[J]. IEEE Transactions on Antennas and Propagation, 2012, 60(2): 997–1008. doi: 10.1109/TAP.2011.2173130 [8] PENG Shaowen, LI Shangyuan, XUE Xiaoxiao, et al. High-resolution W-band ISAR imaging system utilizing a logic-operation-based photonic digital-to-analog converter[J]. Optics Express, 2018, 26(2): 1978–1987. doi: 10.1364/OE.26.001978 [9] 陈阿磊, 王党卫, 马晓岩, 等. 一种基于估计理论的ISAR超分辨成像方法[J]. 系统工程与电子技术, 2010, 32(4): 740–744.CHEN Alei, WANG Dangwei, MA Xiaoyan, et al. Method of super resolution imaging for ISAR based on estimation theory[J]. Systems Engineering and Electronics, 2010, 32(4): 740–744. [10] ZHANG Lei, WANG Hongxian, and QIAO Zhijun. Resolution enhancement for ISAR imaging via improved statistical compressive sensing[J]. EURASIP Journal on Advances in Signal Processing, 2016, 2016(1): 80. doi: 10.1186/s13634-016-0379-2 [11] XU Gang, XING Mengdao, XIA Xianggen, et al. High-resolution inverse synthetic aperture radar imaging and scaling with sparse aperture[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(8): 4010–4027. doi: 10.1109/JSTARS.2015.2439266 [12] WEI Shunjun, ZHANG Xiaoling, SHI Jun, et al. Sparse reconstruction for SAR imaging based on compressed sensing[J]. Progress in Electromagnetics Research, 2010, 109: 63–81. doi: 10.2528/PIER10080805 [13] RONNEBERGER O, FISCHER P, and BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]. 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, Munich, Germany, 2015: 234–241. [14] GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial networks[J]. Communications of the ACM, 2020, 63(11): 139–144. doi: 10.1145/3422622 [15] YANG Ting, SHI Hongyin, LANG Manyun, et al. ISAR imaging enhancement: Exploiting deep convolutional neural network for signal reconstruction[J]. International Journal of Remote Sensing, 2020, 41(24): 9447–9468. doi: 10.1080/01431161.2020.1799449 [16] QIN Dan, LIU Diyang, GAO Xunzhang, et al. ISAR resolution enhancement using residual network[C]. 2019 IEEE 4th International Conference on Signal and Image Processing (ICSIP), Wuxi, China, 2019: 788–792. [17] QIN Dan and GAO Xunzhang. Enhancing ISAR resolution by a generative adversarial network[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(1): 127–131. doi: 10.1109/LGRS.2020.2965743 [18] WANG Haobo, LI Kaiming, LU Xiaofei, et al. ISAR resolution enhancement method exploiting generative adversarial network[J]. Remote Sensing, 2022, 14(5): 1291. doi: 10.3390/rs14051291 [19] LI Ruize, ZHANG Shuanghui, ZHANG Chi, et al. Deep learning approach for sparse aperture ISAR imaging and autofocusing based on complex-valued ADMM-Net[J]. IEEE Sensors Journal, 2021, 21(3): 3437–3451. doi: 10.1109/JSEN.2020.3025053 [20] LI Ruize, ZHANG Shuanghui, ZHANG Chi, et al. A computational efficient 2-D block-sparse ISAR imaging method based on PCSBL-GAMP-Net[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 5214814. doi: 10.1109/TGRS.2021.3111901 [21] LEMPITSKY V, VEDALDI A, and ULYANOV D. Deep image prior[C]. The IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 9446–9454. [22] LIANG Jingyun, ZHANG Kai, GU Shuhang, et al. Flow-based kernel prior with application to blind super-resolution[C]. The 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nashville, USA, 2021: 10596–10605. [23] YUE Zongsheng, ZHAO Qian, XIE Jianwen, et al. Blind image super-resolution with elaborate degradation modeling on noise and kernel[C]. The 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition, New Orleans, USA, 2022: 2118–2128, [24] XIA Jingyuan, LI Shengxi, HUANG Junjie, et al. Metalearning-based alternating minimization algorithm for nonconvex optimization[J]. IEEE Transactions on Neural Networks and Learning Systems, 2022: 1–15. [25] YANG Zhixiong, XIA Jingyuan, LUO Junshan, et al. A Learning-aided flexible gradient descent approach to MISO beamforming[J]. IEEE Wireless Communications Letters, 2022, 11(9): 1895–1899. doi: 10.1109/LWC.2022.3186160 [26] KINGMA D P and BA J. Adam: A method for stochastic optimization[C]. 3rd International Conference on Learning Representations, San Diego, USA, 2015. 期刊类型引用(3)
1. 王昕,张权,乔玲,叶啓. 双基地SAR动目标图像相位误差分析和二维稀疏重聚焦处理. 南京邮电大学学报(自然科学版). 2024(04): 54-67 . 百度学术
2. 刘潇文,原方,楚国锋,李凯,东晨. 基于量子算法的逆合成孔径雷达稀疏成像方法. 空军工程大学学报. 2023(01): 26-31+88 . 百度学术
3. 雷禹,冷祥光,孙忠镇,计科峰. 宽幅SAR海上大型运动舰船目标数据集构建及识别性能分析. 雷达学报. 2022(03): 347-362 . 本站查看
其他类型引用(5)
-