Processing math: 100%
PAN Jie, WANG Shuai, LI Daojing, et al. High-resolution Wide-swath SAR moving target imaging technology based on distributed compressed sensing[J]. Journal of Radars, 2020, 9(1): 166–173. doi: 10.12000/JR19060
Citation: YANG Chen, WU Lei, YANG Wei, et al. Cross-ambiguity function shaping through fractional quadratic programming[J]. Journal of Radars, 2024, 13(1): 174–186. doi: 10.12000/JR23126

Cross-ambiguity Function Shaping Through Fractional Quadratic Programming

DOI: 10.12000/JR23126
Funds:  The National Natural Foundation of China (61871384), The Science and Technology Innovation Program of Hunan Province (2022RC1092), The Science Technology Innovation Program of National Defense University (22-ZZCX-043)
More Information
  • Corresponding author: YANG Wei, yw850716@sina.com
  • Received Date: 2023-07-11
  • Rev Recd Date: 2023-09-08
  • Available Online: 2023-09-13
  • Publish Date: 2023-10-07
  • Due to the mismatch between transmit waveforms and receive filters, Cross-Ambiguity Function (CAF) shaping plays an important role in the design of cognitive radar waveforms and allows more freedom for waveform optimization problem than conventional ambiguity function shaping. A CAF shaping method is proposed for designing phase-shift keying transmit waveforms and receive filters jointly to maximize the output Signal-to-Interference-plus-Noise Ratio (SINR), thereby solving the problem of weaking-moving target detection under strong clutter conditions. The optimization problem is first modeled as a quadratic fractional programming problem under the Constant Modulus (CM) constraint of the transmit waveform. The conjugated gradient method is utilized to solve the minimization problem of the Stiefel manifold space through the introduction of auxiliary variables; furthermore the nonconvex optimization problem is converted into a unimodular quadratic programming problem. An algorithm based on alternately iterative maximization and power method-like iteration is proposed to solve the quadratic optimization problem. Since transmit waveforms are limited by hardware and achieving CM is difficult, the nearest vector method is employed under the constraint of a low peak-to-average power ratio. Finally, the experiments with simulated and real measured data under different parameters reveal that the transmit waveforms and receive filters designed using the proposed method exhibit better SINR performance and faster convergence speed compared with other existing algorithms.

     

  • 传统单通道SAR成像受最小天线面积的限制[1],高分辨率和宽测绘带不能同时实现,在实际应用中需要根据需求对两者进行折衷。而高分宽幅SAR系统具有突破传统单通道SAR系统最小天线面积限制的能力,同时实现高分辨率和宽的测绘幅宽,是未来SAR的一个重要发展趋势。但高分宽幅SAR系统面临的难题是,高的方位向分辨率需要高的脉冲重复频率(Pulse Repetition Frequency, PRF)来避免方位多普勒谱模糊[2],而宽的距离测绘带则需要低的PRF。方位向多通道SAR可以在不提升发射脉冲重复频率的情况下实现方位采样率提升,从而实现距离宽测绘带和方位高分辨率,解决了高分宽幅成像的难题[3-5],同时该系统具有地面动目标显示(Ground Moving Target Indication, GMTI)能力,因此将两种功能结合可实现高分宽幅动目标成像,在军事侦察中具有重要意义[6-8]

    在方位多通道SAR系统中,由于系统采用低脉冲重复频率,每个通道接收的回波存在多普勒模糊[9],多通道成像存在周期性相位误差造成成对回波,导致传统的动目标成像方法不再适用。Stefan等人[10]基于最大信杂噪比准则估计运动目标速度,该方法鲁棒性较强,但需要对所有运动目标的可能速度都进行遍历搜索,运算量大大增加。孙光才等人[11]提出了一种瞬时距离-多普勒(Instantaneous-Range-Doppler, IRD)的动目标成像方法,基于方位去斜Keystone变换[12]实现聚焦,不依赖于目标精确的运动参数,但是对信噪比要求较高且难以估计目标位置。张双喜等人[13]利用相位误差随距离频率变化的特性求解运动目标的径向速度,未考虑动目标和杂波背景联合优化成像问题。郭怡冉等人[14]提出了基于周期性相位误差的分数阶傅里叶变换(FRactional Fourier Transform, FRFT)等径向速度估计算法,但需要系统具有较多的方位向通道。

    常规多通道高分宽幅SAR动目标成像系统复杂程度高,数据冗余量大,而且存在动目标成对回波问题,本文针对上述问题提出了一种基于分布式压缩感知[15]的高分宽幅SAR动目标成像技术,利用动目标稀疏特性和杂波背景非稀疏特性构建分布式压缩感知观测模型,通过优化求解实现杂波背景和稀疏动目标的重建,并抑制多通道SAR动目标成像中的成对回波,基于RADAR-SAT数据的仿真试验结果验证了本文算法的有效性。

    多通道高分宽幅SAR动目标成像几何模型如图1所示,设SAR系统在方位向上有N个通道,采用单个通道发射一个宽波束信号,N个通道同时接收回波信号,对于所观测的场景如图1所示,其中(x,y,z)表示地面观测单元的中心坐标,φ表示入射角,V表示平台速度,v表示目标运动速度,X,Y,Z方向分别表示顺轨方向,交轨方向和径向。

    图  1  SAR系统坐标系
    Figure  1.  Coordinate system of SAR

    对于如图1所示目标,第n个通道接收到的回波

    sn(tr,ta)=σ(x,y,z)ωr(trrn+r0c)ωa(tatac)e(j2πf0rn+r0c)e(+jπKr(trrn+r0c)2) (1)
    r0(ta,x,y,z)(xVta)2+y2+z2+vrta (2)
    rn(ta,x,y,z)(xxnVta)2+y2+z2+vrta (3)

    其中,ta表示方位慢时间,c表示光速,f0为工作频率,rn为地面目标到第n个通道的瞬时距离,r0为地面目标到参考通道的瞬时距离,vr为地面目标的径向速度,σ(x,y,z)为目标的复反射系数,ωr表示距离包络,ωa(ta)表示天线方向图对应方位包络,tac方向图波束中心偏离时间,xn=(n1)d为阵元的位置,d为阵元间隔。

    在常规多通道高分宽幅SAR动目标成像系统中,为了实现高分宽幅成像需要方位向具有多个通道,为了实现动目标检测和成像需要保障脉间方位多通道重叠度形成顺轨干涉,通道构型如图2所示,并给出了相邻脉冲重复时间(Pulse Repetition Time, PRT)内接收天线和等效相位中心的相对位置关系,其中方框表示接收天线,相邻接收天线以不同颜色进行区分;由于雷达系统采用的是收发分置,需要进行双站到单站的等效处理,等效为每个通道自发自收,图2中圆形表示等效相位中心,相邻等效相位中心与上述接收天线依次相对应,并以不同颜色进行区分。为了保障系统的性能指标,正侧视情况下通道数量和系统参数之间的关系如下

    图  2  多通道SAR高分宽幅动目标成像通道构型
    Figure  2.  Channel configuration of multi-channel SAR high resolution wide swath target imaging
    N4VBsinφρac (4)

    其中,B为测绘带宽,c为光速,ρa为方位向分辨率。假设平台对地速度5 km/s,系统测绘带宽200 km,方位分辨率1 m,入射角为45,则常规高分宽幅动目标成像要求通道数量大于等于10个,对应阵列天线方位向长度超过20 m,这就导致了系统极度复杂。

    此外,高分宽幅动目标成像还存在成对回波问题。在成像过程中根据静止目标进行匹配滤波处理,因此对于上述动目标来讲其残余相位如下

    Δϕn(ta)=2πf02vrtac+πKr4vrtac(trr0+rnc) (5)

    其中第1项表现为多普勒频率,第2项表现为距离徙动,经过距离向脉冲压缩之后残余相位只剩下多普勒频率,即为

    Δϕn,rc(ta)=2πf02vrtac (6)

    多个通道的残余相位是一致的,而方位向不同时间残余相位是不一致的,由此形成周期性相位误差,经过方位向脉冲压缩之后,运动目标不仅在方位向形成位置偏移,而且形成了较高的栅瓣,即成对回波,在高分宽幅动目标成像中形成图像模糊,并造成动目标检测的虚警[14]

    针对常规高分宽幅动目标成像技术存在的系统复杂度高、成像模糊等问题,本文提出了基于分布式压缩感知的高分宽幅动目标成像技术,利用运动目标稀疏分布特性和杂波背景非稀疏特性构造分布式压缩感知模型,只需少量通道即可实现回波数据获取,通过分布式压缩感知稀疏重建获得动目标和杂波背景信息,同时实现动目标成对回波抑制和观测场景高分宽幅成像。该方法利用了动目标稀疏特性,大大降低了系统复杂度和信息冗余度,并在信号模型上考虑了动目标残余相位特性,抑制了成对回波,实现了无模糊高分宽幅成像。

    雷达观测场景如图1所示,整个场景包括动目标和杂波背景的回波表示如下

    sn(tr,ta)=iσ(xi,yi,zi)ωr(trrni+r0ic)ωa(tataci)e(j2πf0rni+r0ic)e(+jπKr(trrni+r0ic)2)+jσ(xj,yj,zj)ωr(trrnj+r0jc)ωa(tataci)e(j2πf0rnj+r0jc)e(+jπKr(trrnj+r0jc)2) (7)

    其中第1部分为杂波背景,第2部分为动目标。式(7)中的距离表达式如下

    r0i(xiVta)2+yi2+zi2 (8)
    rni(xixnVta)2+yi2+zi2 (9)
    r0j(xjVta)2+yj2+zj2+vrjta (10)
    rnj(xjxnVta)2+yj2+zj2+vrjta (11)

    将式(7)表示为矩阵形式

    sn=Θnσ=[Θn1Θn2][σ1σ2] (12)

    其中Θn1, σ1表示杂波背景部分(共同分量),Θn2, σ2表示运动目标部分(更新分量)。它们表达式如下

    sn=[sn(tr1,ta1)sn(tr1,ta2)sn(trK,taM)] (13)
    Θn1=[Θn1(tr1,ta1,σ1)···Θn1(tr1,ta1,σI)Θn1(tr1,ta2,σ1)···Θn1(tr1,ta2,σI)Θn1(trK,taM,σ1)···Θn1(trK,taM,σI)] (14)
    Θn1(tr,ta,σi)=ωr(trrni+r0ic)ωa(tataci)e(j2πf0rni+r0ic)e(+jπKr(trrni+r0ic)2) (15)
    Θn2=[Θn2(tr1,ta1,σr1)···Θn2(tr1,ta1,σrJ)Θn2(tr1,ta2,σr1)···Θn2(tr1,ta2,σrJ)Θn2(trK,taM,σr1)···Θn2(trK,taM,σrJ)] (16)
    Θn2(tr,ta,σj)=ωr(trrnj+r0jc)ωa(tatacj)e(j2πf0rnj+r0jc)e(+jπKr(trrnj+r0jc)2)Θn1(tr,ta,σj)e(j2π2vrjtaλ) (17)

    其中K, M分别表示距离向和方位向采样点数,I, J分别表示杂波背景目标数量和动目标数量。整合多个通道信号形成联合观测模型如下

    S=Θσ,S=[s1s2sN],Θ=[Θ1Θ2ΘN]=[Θ11Θ12Θ21Θ22ΘN1ΘN2] (18)

    根据分布式压缩感知理论[16],如果观测的数据量满足下面的条件,则观测场景可以很好的被恢复

    KMNc0(I+J) (19)

    其中c0表示一个常数。考虑高分宽幅极限情况下,参照式(4)可以得到杂波背景目标数量I2VBsinφρacKM,常数c0=1,于是可以得到

    N2VBsinφρac+JKM (20)

    由于运动目标一般为稀疏分布,因此式(20)中第2项通常很小,通过和式(4)比较可以发现基于分布式压缩感知的高分宽幅动目标成像技术相比传统技术所需通道数量约降低1倍。

    基于分布式压缩感知的高分宽幅数据录取可以采用多种构型,本文构建了一种顺轨多通道构型。该构型与图1中观测几何相似,与常规多通道高分宽幅SAR动目标成像原理相比,基于分布式压缩感知的高分宽幅动目标成像通道构型如图3所示,并给出了相邻PRT内接收天线和等效相位中心的相对位置关系,其中方框表示接收天线,相邻接收天线以不同颜色进行区分;由于雷达系统采用的是收发分置,需要进行双站到单站的等效处理,等效为每个通道自发自收,图3中圆形表示等效相位中心,相邻等效相位中心与上述接收天线依次相对应,并以不同颜色进行区分。区别在于基于分布式压缩感知的SAR系统通道数量更少,对应脉间方位多通道重叠度更低,系统通道数量越多,脉间方位通道重叠数量越少,则要求的通道数量越少,极限情况下本文构型通道数量相比常规高分宽幅动目标成像构型通道数量约降低1倍。

    图  3  基于分布式压缩感知的高分宽幅动目标成像通道构型
    Figure  3.  Channel configuration of high resolution wide swath target imaging based on distributed compressed sensing

    需要说明的是,当相邻PRF之间不存在完全重合的等效相位中心时,利用分布式压缩感知技术也可以实现高分宽幅动目标成像,本文不再进行详细讨论。

    由于基于分布式压缩感知的高分宽幅SAR动目标成像系统脉间方位多通道重叠度不足以支撑顺轨干涉处理,且常规高分宽幅动目标成像存在成对回波问题,因此需要结合动目标稀疏特性进行信号处理获得高分宽幅动目标图像。

    基于分布式压缩感知的高分宽幅动目标信号模型如式(18)所示,在信号重建过程中需要加入动目标稀疏性约束,表示如下

    minσ20,s.t.S=Θ[σ1σ2] (21)

    其中,σ1表示杂波背景部分,是非稀疏的,σ2表示运动目标部分,是稀疏的。理论上,式(21)的解可以通过优化方法获得,从而实现场景的重建。实际问题中,高分宽幅成像目标数量巨大,而且存在明显的距离方位耦合,难以实现单维度处理,因此直接求解该问题难以实现。

    针对上述问题,本文采用先方位1维分布式压缩感知重建再距离方位2维分布式压缩感知重建的过程。方位2维分布式压缩感知通过数据降维大大降低计算复杂度,并估计得到目标的速度和位置参数,但存在方位成对回波;距离方位2维分布式压缩感知根据运动目标速度和位置信息降低字典维度从而降低计算复杂度,完成成对回波抑制。算法的流程详见表1

    表  1  算法流程
    Table  1.  Algorithm flowchart
     (1) 对高分宽幅SAR动目标成像系统每个通道数据分别进行距离压缩处理,获得每个通道的1维距离图像;
     (2) 联合多通道数据转换到方位多普勒域进行距离徙动校正,之后转换回到方位时域,完成对静止目标距离徙动校正,而动目标由于相位
       误差存在距离徙动校正误差;
     (3) 对距离徙动校正后的多通道数据构造方位1维分布式压缩感知模型,利用优化方法进行信号重建,分别获得非稀疏背景杂波和稀疏动目
       标散射信息;
     (4) 根据稀疏动目标散射信息估计动目标的位置和速度参数;
     (5) 对距离徙动校正后的多通道数据根据运动目标位置和速度信息构造距离方位2维分布式压缩感知模型,利用优化方法进行信号重建,获
       得非稀疏背景杂波和稀疏动目标散射信息;
     (6) 将运动目标信息σ2和背景杂波图像σ1融合形成完整的高分宽幅图像。
    下载: 导出CSV 
    | 显示表格

    基于分布式压缩感知的多通道SAR高分宽幅动目标成像处理流程如图4所示。

    图  4  算法流程图
    Figure  4.  Flowchart of the algorithm

    为了对基于分布式压缩感知的高分宽幅SAR动目标成像技术有效性进行验证,开展了计算机数值仿真,以RADAR-SAT实测图像作为杂波背景,添加稀疏的动目标,仿真产生多通道SAR回波数据,通过本文成像处理过程获得最终SAR图像。仿真的参数如表2所示

    表  2  雷达系统主要参数
    Table  2.  Main parameters of radar system
    参数数值
    工作频率5.3 GHz
    带宽30 MHz
    采样率32.3 MHz
    PRF1256.98 Hz
    速度7062 m/s
    通道数3
    动目标速度2.5 m/s
    下载: 导出CSV 
    | 显示表格

    仿真中采用的实测图像如图5所示,在图中红色圆圈标示的道路位置添加1个运动目标,仿真产生杂波背景和运动目标的回波。

    图  5  仿真采用实测图像
    Figure  5.  Measured image used in simulation

    对单个通道进行2维成像处理,由于方位向欠采样的存在,单个通道图像存在明显的方位向模糊,图像质量变差,如图6所示。

    图  6  单通道成像结果
    Figure  6.  Imaging result of single channel

    对多通道距离压缩和距离徙动校正数据进行方位向1维分布式压缩感知建模,利用优化方法进行非稀疏背景杂波和稀疏运动目标重建,所得图像如图7所示。图7(a)表示非稀疏静止背景杂波重建结果,可以看到经过多通道融合之后图像模糊程度得到明显改善,并且运动目标得到了良好的抑制,同时运动目标的成对回波也得到了良好的抑制。图7(b)表示稀疏运动目标重建结果,可以看到杂波得到良好抑制,重建图像中有明显的运动目标和成对回波,动目标检测存在虚警,需要说明的是,当距离徙动现象显著时,成对回波和动目标会落在不同的距离分辨单元内。从图7(b)中可以估计出多个动目标信息,用于构建距离方位分布式压缩感知模型。图7(c)表示非稀疏静止背景杂波和稀疏运动目标融合结果,可以看到,由于目标径向速度影响,目标方位位置出现偏移,成像位置不在道路上。

    图  7  方位分布式压缩感知重建结果
    Figure  7.  Reconstructed results of azimuth distributed compressed sensing

    利用运动目标信息构建距离方位2维分布式压缩感知模型,利用优化方法进行信号重建,获得非稀疏背景杂波和稀疏动目标散射信息,如图8所示。图8(a)表示非稀疏静止背景杂波重建结果。图8(b)表示稀疏运动目标重建结果,可以看到运动目标的成对回波得到良好的抑制,同时估计得到运动目标径向速度为2.46 m/s,与仿真速度吻合。图8(c)表示非稀疏静止背景杂波和稀疏运动目标融合结果,可以看到运动目标得到了良好的重建,运动目标位置重新定位于道路上,同时成对回波得到了良好的抑制,验证了本文基于分布式压缩感知的高分宽幅SAR动目标成像技术有效性。

    图  8  距离方位分布式压缩感知重建结果
    Figure  8.  Reconstructed results of distributed compressed sensing in range-azimuth

    高分宽幅动目标成像是SAR技术发展的一个重要方向,然而传统多通道SAR实现高分宽幅动目标成像需要保障脉间方位多通道重叠度,系统复杂程度过高,而且动目标成像存在成对回波现象,造成动目标检测虚警。针对上述问题,本文提出了一种基于分布式压缩感知的高分宽幅SAR动目标成像技术,结合杂波背景非稀疏特性和运动目标稀疏特性建立分布式压缩感知信号模型,通过模型求解实现高分宽幅动目标成像。针对高分宽幅条件下分布式压缩感知信号模型难以直接求解的问题,本文采用先方位1维分布式压缩感知重建再距离方位2维分布式压缩感知重建的过程,方位1维分布式压缩感知通过数据降维大大降低计算复杂度,并估计得到目标的速度和位置参数,距离方位2维分布式压缩感知根据运动目标速度和位置信息降低字典维度从而降低计算复杂度。基于RADAR-SAT数据的仿真试验表明,本文技术方法能够良好实现运动目标成像和信息反演,验证了该技术的可行性和有效性。

  • [1]
    STOICA P, HE Hao, and LI Jian. Optimization of the receive filter and transmit sequence for active sensing[J]. IEEE Transactions on Signal Processing, 2012, 60(4): 1730–1740. doi: 10.1109/TSP.2011.2179652
    [2]
    STOICA P, LI Jian, and XUE Ming. Transmit codes and receive filters for radar[J]. IEEE Signal Processing Magazine, 2008, 25(6): 94–109. doi: 10.1109/MSP.2008.929231
    [3]
    余若峰, 杨威, 付耀文, 等. 面向不同雷达任务的认知波形优化综述[J]. 电子学报, 2022, 50(3): 726–752. doi: 10.12263/DZXB.20211068

    YU Ruofeng, YANG Wei, FU Yaowen, et al. A review on cognitive waveform optimization for different radar missions[J]. Acta Electronica Sinica, 2022, 50(3): 726–752. doi: 10.12263/DZXB.20211068
    [4]
    LEVANON N and MOZESON E. Radar Signals[M]. New York: John Wiley & Sons, 2004: 7–9.
    [5]
    CUI Guolong, FU Yue, YU Xianxiang, et al. Local ambiguity function shaping via uni-modular sequence design[J]. IEEE Signal Processing Letters, 2017, 24(7): 977–981. doi: 10.1109/lsp.2017.2700396
    [6]
    HAYKIN S. Cognitive radar: A way of the future[J]. IEEE Signal Processing Magazine, 2006, 23(1): 30–40. doi: 10.1109/msp.2006.1593335
    [7]
    ARLERY F, KASSAB R, TAN U, et al. Efficient gradient method for locally optimizing the periodic/aperiodic ambiguity function[C]. IEEE Radar Conference (RadarConf), Philadelphia, USA, 2016: 1–6
    [8]
    ARLERY F, KASSAB R, TAN U, et al. Efficient optimization of the ambiguity functions of multi-static radar waveforms[C]. 17th International Radar Symposium (IRS), Krakow, Poland, 2016: 1–6.
    [9]
    WANG Fulai, FENG Sijia, YIN Jiapeng, et al. Unimodular sequence and receiving filter design for local ambiguity function shaping[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5113012. doi: 10.1109/tgrs.2022.3171253
    [10]
    AUBRY A, DE MAIO A, JIANG Bo, et al. Ambiguity function shaping for cognitive radar via complex quartic optimization[J]. IEEE Transactions on Signal Processing, 2013, 61(22): 5603–5619. doi: 10.1109/TSP.2013.2273885
    [11]
    QIU Xiangfeng, JIANG Weidong, ZHANG Xinyu, et al. Quartic riemannian trust region algorithm for cognitive radar ambiguity function shaping[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4022005. doi: 10.1109/LGRS.2022.3151679
    [12]
    WU Linlong, BABU P, and PALOMAR D P. Cognitive radar-based sequence design via sinr maximization[J]. IEEE Transactions on Signal Processing, 2017, 65(3): 779–793. doi: 10.1109/tsp.2016.2621723
    [13]
    HE Hao, STOICA P, and LI Jian. On synthesizing cross ambiguity functions[C]. IEEE Internationl Conference on Acoustics, Speech and Signal Processing (ICASSP), Prague, Czech Republic, 2011: 3536–3539
    [14]
    CHEN Zihao, LIANG Junli, WANG Tao, et al. Generalized MBI algorithm for designing sequence set and mismatched filter bank with ambiguity function constraints[J]. IEEE Transactions on Signal Processing, 2022, 70: 2918–2933. doi: 10.1109/TSP.2022.3181346
    [15]
    HE Hao, LI Jian, and STOICA P. Waveform Design for Active Sensing Systems: A Computational Approach[M]. Cambridge: Cambridge University Press, 2012: 106–121.
    [16]
    SOLTANALIAN M, TANG Bo, LI Jian, et al. Joint design of the receive filter and transmit sequence for active sensing[J]. IEEE Signal Processing Letters, 2013, 20(5): 423–426. doi: 10.1109/lsp.2013.2250279
    [17]
    ESMAEILI-NAJAFABADI H, LEUNG H, and MOO P W. Unimodular waveform design with desired ambiguity function for cognitive radar[J]. IEEE Transactions on Aerospace and Electronic Systems, 2020, 56(3): 2489–2496. doi: 10.1109/taes.2019.2942411
    [18]
    付月, 崔国龙, 余显祥. 信号相关杂波背景下稳健的恒模序列与接收滤波器设计方法[J]. 雷达学报, 2017, 6(3): 292–299. doi: 10.12000/JR16158

    FU Yue, CUI Guolong, and YU Xianxiang. Robust design of constant modulus sequence and receiver filter in the presence of signal-dependent clutter[J]. Journal of Radars, 2017, 6(3): 292–299. doi: 10.12000/JR16158
    [19]
    LIU Tianjun, FAN Pingzhi, ZHOU Zhengchun, et al. Unimodular sequence design with good local auto- and cross-ambiguity function for MSPSR system[C], IEEE 89th Vehicular Technology Conference (VTC2019-Spring), Kuala Lumpur, Malaysia, 2019: 1–5.
    [20]
    WU Linlong, BABU P, and PALOMAR D P. Transmit waveform/receive filter design for MIMO radar with multiple waveform constraints[J]. IEEE Transactions on Signal Processing, 2018, 66(6): 1526–1540. doi: 10.1109/tsp.2017.2787115
    [21]
    邱祥风, 姜卫东, 张新禹, 等. 认知MIMO雷达发射波形与接收滤波器联合优化设计方法[J]. 系统工程与电子技术, 2023, 45(2): 386–393. doi: 10.12305/j.issn.1001-506X.2023.02.08

    QIU Xiangfeng, JIANG Weidong, ZHANG Xinyu, et al. Joint optimization design method for cognitive MIMO radar transmit waveform and receive filter[J]. Systems Engineering and Electronics, 2023, 45(2): 386–393. doi: 10.12305/j.issn.1001-506X.2023.02.08
    [22]
    AUBRY A, DEMAIO A, FARINA A, et al. Knowledge-aided (potentially cognitive) transmit signal and receive filter design in signal-dependent clutter[J]. IEEE Transactions on Aerospace and Electronic Systems, 2013, 49(1): 93–117. doi: 10.1109/TAES.2013.6404093
    [23]
    SOLTANALIAN M and STOICA P. Designing unimodular codes via quadratic optimization[J]. IEEE Transactions on Signal Processing, 2014, 62(5): 1221–1234. doi: 10.1109/tsp.2013.2296883
    [24]
    GHARANJIK A, SOLTANALIAN M, SHANKAR M R B, et al. Grab-n-Pull: A max-min fractional quadratic programming framework with applications in signal and information processing[J]. Signal Processing, 2019, 160: 1–12. doi: 10.1016/j.sigpro.2019.02.006
    [25]
    TROPP J A, DHILLON I S, HEATH R W, et al. Designing structured tight frames via an alternating projection method[J]. IEEE Transactions on Information Theory, 2005, 51(1): 188–209. doi: 10.1109/tit.2004.839492
    [26]
    张贤达. 矩阵分析与应用[M]. 2版. 北京: 清华大学出版社, 2013: 447–450.

    ZHANG Xianda. Matrix Analysis and Applications[M]. 2nd ed, Beijing: Tsinghua University Press, 2013: 447–450.
  • Relative Articles

    [1]ZHAO Xiang, WANG Wei, LI Chenyang, GUAN Jian, LI Gang. Diagnosis of Sleep Apnea Hypopnea Syndrome Using Fusion of Micro-motion Signals from Millimeter-wave Radar and Pulse Wave Data[J]. Journal of Radars, 2025, 14(1): 102-116. doi: 10.12000/JR24107
    [2]JIN Biao, SUN Kangsheng, WU Hao, LI Zixuan, ZHANG Zhenkai, CAI Yan, LI Rongmin, ZHANG Xiangqun, DU Genyuan. 3D Point Cloud from Millimeter-wave Radar for Human Action Recognition: Dataset and Method[J]. Journal of Radars, 2025, 14(1): 73-90. doi: 10.12000/JR24195
    [3]LIN Yuqing, QIU Xiaolan, PENG Lingxiao, LI Hang, DING Chibiao. Non-line-of-sight Target Relocation by Multipath Model in SAR 3D Urban Area Imaging[J]. Journal of Radars, 2024, 13(4): 777-790. doi: 10.12000/JR24057
    [4]YANG Lei, HUO Xin, SHEN Ruiyang, SONG Hao, HU Zhongwei. Credible Inference of Near-field Sparse Array Synthesis for Three-dimensional Millimeter-wave Imagery[J]. Journal of Radars, 2024, 13(5): 1092-1108. doi: 10.12000/JR24097
    [5]HU Xueyao, LIANG Can, LU Shanshan, WANG Zaiyang, ZHENG Le, LI Yang. Matrix Completion-based Range-Doppler Spectrum Estimation for Random Stepped-frequency Radars[J]. Journal of Radars, 2024, 13(1): 200-214. doi: 10.12000/JR23176
    [6]WANG Mou, WEI Shunjun, SHEN Rong, ZHOU Zichen, SHI Jun, ZHANG Xiaoling. 3D SAR Imaging Method Based on Learned Sparse Prior[J]. Journal of Radars, 2023, 12(1): 36-52. doi: 10.12000/JR22101
    [7]LI Yi, XIA Weijie, ZHOU Jianjiang, CHU Yongyan. A Range-angle Joint Imaging Algorithm for Automotive Radar Systems Based on Doppler Domain Compensation[J]. Journal of Radars, 2023, 12(5): 971-985. doi: 10.12000/JR23097
    [8]SHU Yue, FU Dongning, CHEN Zhanye, HUANG Yan, ZHANG Yanjun, TAN Xiaoheng, TAO Jun. Super-resolution DOA Estimation Method for a Moving Target Equipped with a Millimeter-wave Radar Based on RD-ANM[J]. Journal of Radars, 2023, 12(5): 986-999. doi: 10.12000/JR23040
    [9]TANG Junkui, LIU Zheng, RAN Lei, XIE Rong, QIN Jikai. Radar Forward-looking Super-resolution Imaging Method Based on Sparse and Low-rank Priors[J]. Journal of Radars, 2023, 12(2): 332-342. doi: 10.12000/JR22199
    [10]BI Hui, JIN Shuang, WANG Xiao, LI Yong, HAN Bing, HONG Wen. High-resolution High-dimensional Imaging of Urban Building Based on GaoFen-3 SAR Data(in English)[J]. Journal of Radars, 2022, 11(1): 40-51. doi: 10.12000/JR21113
    [11]ZHAO Yao, XU Juncong, QUAN Xiangyin, CUI Li, ZHANG Zhe. Tomographic SAR Imaging Method Based on Sparse and Low-rank Structures[J]. Journal of Radars, 2022, 11(1): 52-61. doi: 10.12000/JR21210
    [12]DANG Xiangwei, QIN Fei, BU Xiangxi, LIANG Xingdong. A Robust Perception Algorithm Based on a Radar and LiDAR for Intelligent Driving[J]. Journal of Radars, 2021, 10(4): 622-631. doi: 10.12000/JR21036
    [13]YUAN Zhian, ZHOU Xiaoyu, LIU Xinpu, LU Dawei, DENG Bin, MA Yanxin. Human Fall Detection Method Using Millimeter-wave Radar Based on RDSNet[J]. Journal of Radars, 2021, 10(4): 656-664. doi: 10.12000/JR21015
    [14]JIANG Yanwen, FAN Hongqi, LI Shuangxun. A Sparse Bayesian Learning Approach for Vortex Electromagnetic Wave Three-dimensional Imaging in the Terahertz Band[J]. Journal of Radars, 2021, 10(5): 718-724. doi: 10.12000/JR21151
    [15]TIAN Biao, LIU Yang, HU Pengjiang, WU Wenzhen, XU Shiyou, CHEN Zengping. Review of High-resolution Imaging Techniques of Wideband Inverse Synthetic Aperture Radar[J]. Journal of Radars, 2020, 9(5): 765-802. doi: 10.12000/JR20060
    [16]ZHENG Tong, JIANG Libing, WANG Zhuang. Three-dimensional Multiple-Input Multiple-Output Radar Imaging Method Based on Integration of Multi-snapshot Images[J]. Journal of Radars, 2020, 9(4): 739-752. doi: 10.12000/JR19069
    [17]SHI Jun, QUE Yujia, ZHOU Zenan, ZHOU Yuanyuan, ZHANG Xiaoling, SUN Mingfang. Near-field Millimeter Wave 3D Imaging and Object Detection Method[J]. Journal of Radars, 2019, 8(5): 578-588. doi: 10.12000/JR18089
    [18]Tian He, Li Daojing. Motion Compensation and 3-D Imaging Algorithm in Sparse Flight Based Airborne Array SAR[J]. Journal of Radars, 2018, 7(6): 717-729. doi: 10.12000/JR18101
    [19]Yan Min, Wei Shunjun, Tian Bokun, Zhang Xiaoling, Shi Jun. LASAR High-resolution 3D Imaging Algorithm Based on Sparse Bayesian Regularization[J]. Journal of Radars, 2018, 7(6): 705-716. doi: 10.12000/JR18067
    [20]Liu Xiangyang, Yang Jungang, Meng Jin, Zhang Xiao, Niu Dezhi. Sparse Three-dimensional Imaging Based on Hough Transform for Forward-looking Array SAR in Low SNR[J]. Journal of Radars, 2017, 6(3): 316-323. doi: 10.12000/JR17011
  • Cited by

    Periodical cited type(3)

    1. 王昕,张权,乔玲,叶啓. 双基地SAR动目标图像相位误差分析和二维稀疏重聚焦处理. 南京邮电大学学报(自然科学版). 2024(04): 54-67 .
    2. 刘潇文,原方,楚国锋,李凯,东晨. 基于量子算法的逆合成孔径雷达稀疏成像方法. 空军工程大学学报. 2023(01): 26-31+88 .
    3. 雷禹,冷祥光,孙忠镇,计科峰. 宽幅SAR海上大型运动舰船目标数据集构建及识别性能分析. 雷达学报. 2022(03): 347-362 . 本站查看

    Other cited types(5)

  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Figures(11)  / Tables(4)

    Article views(734) PDF downloads(195) Cited by(8)
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    • 表  1  算法流程
      Table  1.  Algorithm flowchart
       (1) 对高分宽幅SAR动目标成像系统每个通道数据分别进行距离压缩处理,获得每个通道的1维距离图像;
       (2) 联合多通道数据转换到方位多普勒域进行距离徙动校正,之后转换回到方位时域,完成对静止目标距离徙动校正,而动目标由于相位
         误差存在距离徙动校正误差;
       (3) 对距离徙动校正后的多通道数据构造方位1维分布式压缩感知模型,利用优化方法进行信号重建,分别获得非稀疏背景杂波和稀疏动目
         标散射信息;
       (4) 根据稀疏动目标散射信息估计动目标的位置和速度参数;
       (5) 对距离徙动校正后的多通道数据根据运动目标位置和速度信息构造距离方位2维分布式压缩感知模型,利用优化方法进行信号重建,获
         得非稀疏背景杂波和稀疏动目标散射信息;
       (6) 将运动目标信息σ2和背景杂波图像σ1融合形成完整的高分宽幅图像。
      下载: 导出CSV 
      | 显示表格
    • 表  2  雷达系统主要参数
      Table  2.  Main parameters of radar system
      参数数值
      工作频率5.3 GHz
      带宽30 MHz
      采样率32.3 MHz
      PRF1256.98 Hz
      速度7062 m/s
      通道数3
      动目标速度2.5 m/s
      下载: 导出CSV 
      | 显示表格