Processing math: 34%

动态电磁环境下多功能雷达一体化发射资源管理方案

张鹏 严俊坤 高畅 李康 刘宏伟

张鹏, 严俊坤, 高畅, 等. 动态电磁环境下多功能雷达一体化发射资源管理方案[J]. 雷达学报(中英文), 2025, 14(2): 456–469. doi: 10.12000/JR24230
引用本文: 张鹏, 严俊坤, 高畅, 等. 动态电磁环境下多功能雷达一体化发射资源管理方案[J]. 雷达学报(中英文), 2025, 14(2): 456–469. doi: 10.12000/JR24230
ZHANG Peng, YAN Junkun, GAO Chang, et al. Integrated transmission resource management scheme for multifunctional radars in dynamic electromagnetic environments[J]. Journal of Radars, 2025, 14(2): 456–469. doi: 10.12000/JR24230
Citation: ZHANG Peng, YAN Junkun, GAO Chang, et al. Integrated transmission resource management scheme for multifunctional radars in dynamic electromagnetic environments[J]. Journal of Radars, 2025, 14(2): 456–469. doi: 10.12000/JR24230

动态电磁环境下多功能雷达一体化发射资源管理方案

DOI: 10.12000/JR24230 CSTR: 32380.14.JR24230
基金项目: 国家自然科学基金(62471356, 62101350, 62192714),中国航天科工集团第八研究院产学研合作(SAST2023-068)
详细信息
    作者简介:

    张 鹏,博士生,主要研究方向为目标检测与跟踪、资源管理

    严俊坤,教授,主要研究方向为雷达智能信号处理、网络化协同探测

    高 畅,讲师,主要研究方向为网络化雷达协同探测、雷达智能化探测

    李 康,副教授,主要研究方向为雷达智能抗干扰、雷达信号处理、强化学习

    刘宏伟,教授,主要研究方向为雷达目标分类与识别、认知网络、网络协同探测

    通讯作者:

    严俊坤 jkyan@xidian.edu.cn

  • 责任主编:时晨光 Corresponding Editor: SHI Chenguang
  • 中图分类号: TN957.51

Integrated Transmission Resource Management Scheme for Multifunctional Radars in Dynamic Electromagnetic Environments

Funds: The National Natural Science Foundation of China (62471356, 62101350, 62192714), Industry University-Research Cooperation of the 8th Research Institute of China Aerospace Science and Technology Corporation (SAST2023-068)
More Information
  • 摘要: 传统多功能雷达仅面向目标特性优化发射资源,在动态电磁环境下面临干扰智能时变、优化模型失配的问题。因此,该文提出一种基于数据驱动的一体化发射资源管理方案,旨在通过对动态干扰信息在线感知与利用提升多功能雷达在动态电磁环境下的多目标跟踪(MTT)性能。该方案首先建立马尔可夫决策过程,数学化描述雷达被敌方截获和干扰的风险。而后将该马尔可夫决策过程感知的干扰信息耦合进MTT精度计算,一体化发射资源管理方法被设计为具有约束动作空间的优化问题。最后提出一种贪婪排序回溯算法对其进行求解。仿真结果表明,所提方法在面向动态干扰环境时不仅可以降低敌方截获概率,还能在被干扰时降低干扰对雷达的影响,改善MTT性能。

     

  • 多目标跟踪(Multiple Target Tracking, MTT)问题一直是各种商业和军事应用领域所关注的重点,其要求雷达可以同时估计多个目标的状态[14]。如果雷达对目标照射能量越大,对应的目标跟踪精度越高。然而,雷达的探测资源往往是有限的。为了提升MTT性能,实现资源管理是一种有效的方式。

    目前,大多资源管理方案通过预设优化模型来提升有效资源的利用效率[59],其大致可以分为两类。第1种在给定资源下最大化MTT性能。其中,文献[5]利用最差情况框架设计一种联合节点选择和功率分配框架来提升MTT性能。文献[6]以提升目标容量为目标建立一种资源管理模型,它的主要目的是通过协调雷达发射功率提升满足目标跟踪精度的数目。文献[7]针对相控阵雷达建立一种联合跟踪序列和停留时间优化模型,并设计两步去耦方法解决该优化问题以提高MTT性能。第2种则是在给定性能需求下最小化资源的消耗。其中,文献[8]在满足跟踪精度需求的情况下最小化时间资源的消耗。文献[9]提出了一种鲁棒的功率分配算法,该方法通过定义任务效用函数灵活评估不同功率分配策略的目标跟踪精度,解决了发射功率不充足时功率分配方案难求解的问题。

    尽管上述资源管理模型可以很好地处理有限资源与MTT问题之间存在的矛盾,但大多数工作尝试在纯净的电磁环境中依据目标特性建立资源管理模型,并未考虑干扰带来的影响。随着电子战技术的发展,目标通常利用自身的截获功能拦截雷达信号并针对性地释放干扰来削弱雷达性能。因此,干扰机可以根据雷达发射信号改变自身的干扰信号,这本质上也形成一种动态的电磁环境[10]。由于雷达缺乏这些目标的截获模式和干扰模式的先验信息,因而在这种动态电磁(干扰)环境下大多预设资源管理模型将失配,其跟踪性能常常下降。因此,文献[11]尝试将截获接收机的工作参数作为先验信息,建立优化模型来在保证目标跟踪性能的同时提高低截获性能。文献[12]则利用已知的干扰信息实现功率分配,从而提高目标跟踪性能。事实上,实际电子战中上述截获和干扰信息难以获取。为了处理这种未知且高动态电磁环境中的资源管理问题,文献[13]在目标未知截获模式下利用强化学习逐渐调整跳频时间间隔和平均发射功率来改善脉冲积累效率。文献[14]则利用类似的框架设计抗干扰策略提高雷达的检测性能。文献[15]调整发射频率和功率在减小干扰影响的同时提升MTT性能。

    由上述工作来看,利用强化学习实现低截获或者抗干扰都可以直接或间接减少干扰的影响来提升目标跟踪性能。但在MTT挑战下,目标的截获模式和干扰模式未知且存在差异,因而仅实现低截获或者抗干扰的单一设计很难适应复杂电磁环境下的MTT问题。考虑不同目标仍然会对有限系统资源存在竞争,现有资源管理模型失配会进一步加剧MTT性能的恶化,并且多任务的耦合同样会增加资源管理的求解空间,寻找优化发射方案也存在挑战。

    为此,本文构建数据驱动的一体化发射资源管理方案感知和利用干扰信息引导多功能雷达优化发射参数配置以提升动态电磁环境下的MTT性能。该方案首先设计一个主动抗干扰的马尔可夫决策过程(Markov Decision Process, MDP)来描述雷达可能遭遇的截获和干扰风险。然后结合该MDP感知的干扰信息,一体化发射资源管理方案被设计为整数规划问题,旨在提升雷达在最差情况下的MTT性能。最后,设计贪婪排序回溯算法快速求解形成的优化问题。仿真结果表明所生成的发射方案可以有效削弱干扰的影响并改善MTT性能。

    考虑一个位于坐标(x,y)的多功能雷达和Q个点目标在二维空间匀速运动。每一个目标可以通过截获功能获取雷达信息,并引导自身携带的干扰机发射针对性的干扰信号降低其跟踪性能。而雷达可以改变自身发射方案降低干扰的影响。目标的初始位置为(x0,y0),初速度为(˙x0,˙y0)。在kT时刻,目标的位置和速度分别表示为(xk,yk)(˙xk,˙yk),其中T是跟踪时间间隔。

    考虑目标正在匀速运动[16]

    xq,k=Fqxq,k1+uq,k1 (1)

    其中,xq,k=[xq,k,˙xq,k,yq,k,˙yq,k]T为目标状态。Fq是状态转移矩阵:

    Fq=I2[1T01] (2)

    其中,是克罗内克算子,I2表示 2 阶单位矩阵。项uq,k1为零均值,协方差为Qq,k1的高斯过程噪声[17]

    Qq,k1=q0I2[13T312T212T2T] (3)

    其中,q00描述目标运动的不确定性。

    为了有效获取雷达信息,干扰机通常配备接收机来感知其发射信号[13]。如图1所示,截获接收机频率扫描范围为[BqI,lo,BqI,up],但接收机每次只覆盖带宽BqI,min,并停留NP,q(NP,q>1)个脉冲时间以确保截获接收机能够接收到完整的脉冲信息。因此,干扰机需要NP,q(BqI,upBqI,lo)/BqI,min脉冲时间来覆盖整个带宽。如果目标在某次扫描中发射频率被覆盖,接收机就会在功率域进一步检测雷达信号,其检测概率为[13]

    图  1  不同帧的目标截获与干扰模式
    Figure  1.  Target interception and jamming modes in different frames
    pkd,q0.5×erfc(lnpfa,qDkI,q+0.5) (4)

    其中,pfa,q为预设的虚警率,DkI,q为接收机信噪比(Signal to Noise Ratio, SNR)[13]

    DkI,q=PqR,kGqR,Iλ2R,q(4π)2R2q,kηI,q (5)

    其中,PqR,k是雷达的发射功率。GqR,I是雷达与截获接收机之间的信道增益,其耦合雷达系统的发射增益与截获接收机的接收增益。λR,q为雷达信号波长,Rq,k为目标q与雷达之间的距离,ηI,q为截获接收机的噪声。

    在截获雷达信号后,图1表明干扰机通常会针对性地发射干扰信号以降低跟踪性能。考虑干扰机可以采用两种典型干扰模式:阻塞干扰和点频干扰[18]。在点频干扰模式下,干扰机发射窄带信号。对于阻塞干扰模式,干扰机发射宽带信号。由于发射峰值功率有限,阻塞干扰的功率密度通常低于点频干扰信号,对应的干扰效果也被削弱[12]。考虑目标q的干扰功率为PJ,q,干扰信号的功率密度为

    PqJ,d,k(BqJ,k)=PJ,q/BqJ,k (6)

    其中,BqJ,k为干扰信号的带宽。对于点频干扰模式,BqJ,k略大于雷达信号的带宽。对于阻塞干扰,BqJ,k取决于干扰机期望覆盖的载频数量。例如,第n个载频(1nN)为fn=f1+(n1)Δf,其中f1是雷达可选择的最小载波频率,Δf>0是两个连续载波之间的步长,N表示雷达可用的频率数量。如果干扰机想要干扰载波频率为fi的雷达,可以使用点频干扰,干扰频率为BqJ,kΔf。然而,如果干扰机想同时干扰fifj,则需要使用带宽为BqJ,k=MΔf的阻塞干扰,其中M=|ij|+1表示fifj之间的频率数。

    此外,为了提升干扰效果,干扰机利用截获的信息和某种规则交替使用点频和阻塞干扰模式,从而形成一种高动态的干扰环境。因而,雷达的跟踪性能将严重下降。

    在第k帧,目标q的测量如下形式[16]

    zq,k=h(xq,k)+wq,k (7)

    其中,h()是测量函数:

    h()=[hRq,k(),hθq,k(),hvq,k()]T (8)

    其中

    Rq,k=hRq,k(xq,k)=(xq,kx)2+(yq,ky)2θq,k=hθq,k(xq,k)=arctan[(yq,ky)/(xq,kx)]vq,k=hvq,k(xq,k)=˙xq,k(xq,kx)+˙yq,k(yq,ky)(xq,kx)2+(yq,ky)2

    其中,θq,k是目标q相对于雷达的角度信息,vq,k是对应的多普勒信息。wq,k是零均值高斯噪声,其协方差矩阵为Σ

    Σ=blkdiag(σ2Rq,k,σ2θq,k,σ2υq,k) (9)

    其中,σ2Rq,k, σ2θq,kσ2υq,k是目标距离、方位和多普勒估计均方误差的克拉美罗下界 [19]

    {σ2Rq,k(Dq,kB2R,r)1σ2θq,k(Dq,k/BR,NN)1σ2vq,k(Dq,kT2R,d)1 (10)

    其中,BR,r为有效信号带宽,TR,d为驻留时间,BR,NN为 3 dB 接收波束宽度。Dq,k是目标q在第k帧的信干噪比(Signal to Interference and Noise Ratio, SINR)[14]

    Dq,k=NqR,kPqR,kGR,Rσn,qλ2R,q(4π)3R4q,k(ηR+PqJ,R,k) (11)

    其中,NqR,k是脉冲数,σn,q是目标q在载波频率fn下的雷达散射截面(Radar Cross Section, RCS),GR,R是雷达回波的信道增益,其包括雷达系统的发射与接收增益。ηR是与雷达相关的噪声,PqJ,R,k是进入雷达的干扰功率:

    PqJ,R,k=PqJ,d,k(BqJ,k)GqJ,Rλ2J,qBR,r(4π)2R2q,k (12)

    其中,GqJ,R为干扰机与雷达间的信道增益,其主要包括干扰机的发射增益与雷达系统的接收增益。λJ,q为干扰信号波长,PqJ,d,k(BqJ,k)为与带宽BqJ,k相关的干扰功率密度。如果雷达能采取一些对抗措施,迫使接收机引导干扰机增加带宽甚至停止发射干扰信号,进入雷达的干扰功率就会减少,SINR就会增加。值得注意的是SINR可以由发射频率、脉冲数(驻留时间)和功率决定。因此,多功能雷达通过调整这些参数来改变SINR以减少Dq,k中的测量误差,从而提高目标跟踪性能。

    最后,考虑目标RCS起伏服从Swerling I型[20]。 对于目标q,其RCS在载波频率fi处起伏的均值是ˉσi,q。当相应的波长接近目标尺寸时,目标将处于Mie区域,其中目标在某些方向上的较低频率具有较大的RCS[21]。因此,RCS起伏均值随载频增加而减小同时满足以下关系:ˉσ1,q>ˉσ2,q>>ˉσn,q(f1>f2>>fn)

    在实际电子战中,目标可以利用截获接收机和干扰机创造未知且动态的干扰环境。对于这种复杂电磁环境下的MTT问题,雷达可以通过调整发射资源来实现低截获以避免干扰,但一味地实现低截获可能会影响目标跟踪性能。此外,雷达有时很难阻止干扰信号进入雷达,抗干扰方法可以减少干扰对雷达的直接影响。然而,现有的抗干扰方法可能会错过完全避免干扰的机会,而有限的系统资源进一步对MTT问题提出挑战。为此,开发一体化资源管理方案不仅可以实现低截获,还可以减少干扰对雷达的影响,同时最大限度提高MTT性能。

    为了解决未知和动态电磁环境中的MTT问题,资源管理方案考虑为一个与发射资源相关的决策问题。作为决策问题的经典形式, 马尔可夫决策过程(MDP)为智能体与环境交互最理想的数学模型。通常,一个MDP由以下4个元素定义[22]

    (1) S :状态sS的有限状态集合。

    (2) A :动作aA的有限动作集合。

    (3) P :执行动作a后,从当前状态s到下一状态s的状态转换概率P(s|s,a)

    (4) c() :当智能体在状态s执行动作a对应的成本c(s,a)

    通过利用MDP,智能体与环境之间的一般交互描述如下[23]:在每个时间步k,智能体以状态sk的形式接收环境信息,并根据策略π(sk)Δ(A)选择动作ak。执行动作ak后,状态转换到新状态sk+1,智能体对应的成本为ck(sk,ak)

    对于上述MDP,雷达作为智能体将与具备截获和干扰功能的目标所构成的动态电磁环境交互以学习对抗干扰。然而,目标是运动的。通过对比图1(a)图1(b),目标距离的变化使得其接收到的雷达发射功率有所差异,这使得雷达可能难以清晰理解当前的干扰环境。为了实现更有效的交互,我们从雷达视角定主动抗干扰MDP的关键元素。

    (1) 动作:第k帧,目标q雷达将采取的动作为

    aqk=[tdqk,fcqk,peqk]A={a1,a2,,aNA} (13)

    其中,NA是可用的发射方案数量,每个发射方案aqk由3个发射变量组成:

    tdqk=t1+(dqk1)Δt, (dqkD={1,2,,ND})fcqk=f1+(cqk1)Δf, (cqkC={1,2,,NC})pqeqk=p1+(eqk1)Δp, (eqkE={1,2,,NE}) PqR,k(eqk)=pqeqkR2q,k|k1/Rqref,q} (14)

    其中,tdqk表示发射脉冲数(驻留时间),t1是可供选择的最小脉冲数,Δt是两个连续脉冲数方案之间的步长,ND则为对应发射脉冲方案的个数。fcqk表示第cqk个载频,f1为初始载频,Δf是两个连续载频之间的步长,NC为可用载频数。p1是最小的脉冲发射功率,pqeqk为第eqk个发射功率,Δp为两个连续发射功率之间的步长,NE为可用脉冲功率数目。特别地,Rq,k|k1是雷达在第k帧预测的距离信息,PqR,k(eqk)为实际发射功率以保证目标截获概率可以在同一发射功率选择eqk下仅与参考距离信息Rqref相关。因此,Rqref为常数保证目标的截获概率不随跟踪时间变化,有利于截获模式的感知与学习。

    (2) 状态:一旦雷达信号被截获,干扰机将生成针对性的干扰信号。通常,雷达可以通过检测[24]或频谱感知[25]获得对应的干扰信息。因此,由雷达观测到的干扰动作定义为

    jqU,k,jqI,kJ={0,1,,NJ} (15)

    其中,jqU,kjqI,k是雷达观测到发射信号被截获前后干扰机采用的干扰动作,由于干扰动作可能发生改变,因此jqU,kjqI,k,否则jqU,k=jqI,kNJ+1表示可用的干扰动作数量(NJ=NC+1)。关于干扰模式,jqU,k=0jqI,k=0表示雷达观测到自身未被干扰。 jqU,k,jqI,kJ/{0,NJ}表示雷达观测到自身受到点频干扰,NJ表示雷达观测到自身受到阻塞干扰。此外,干扰机可以利用截获模式提供的雷达历史动作来确定干扰动作,其与雷达之间相互作用可以描述为一个交替序列[14]

    Yqk = aq1,jqU,1,jqI,1,aq2,jqU,2,jqI,2,,aqk,jqU,k,jqI,k, (16)

    其中,Yqk是雷达与目标q在第k帧观测到的交互历史。由于序列Yqk的大小随时间增长。因此,交互信息Yqk不能直接用作状态。因此,我们利用以下状态来近似交互历史:

    sqk=(aqkn,jqU,kn,jqI,kn,,aqk1,jqU,k1,jqI,k1)S={s1,s2,,sNS} (17)

    其中,sqk包括最近n个观测历史, NSJ=(NAN2J)n表示状态的数目。

    (3) 状态转移函数:通常,雷达最初对干扰环境没有先验知识。因此,雷达首先需要通过与环境的交互来学习潜在的环境动态[26]。作为参数估计问题,利用最大似然法来估计该转移概率[27]

    Pq(sqk+1|sqk,aqk)=Nq(sqk,aqk,sqk+1)Nq(sqk,aqk) (18)

    其中,Nq(sqk,aqk)=sqk+1SNq(sqk,aqk,sqk+1),并且Nq(sqk,aqk,sqk+1)表示雷达采取行动aqk时,其状态由sqk变为sqk+1的次数。若Nq(sqk,aqk)=0,则Pq(sqk+1|sqk,aqk)=1/|S|

    (4) 成本:在MDP中,一个成本函数可以量化在给定状态和动作下智能体消耗的成本。对于雷达,SINR通常可以有效反映干扰对雷达的影响[12]。然而,SINR并不能准确反映跟踪精度的变化,而预测的BCRLB (Bayesian Cramer-Rao Lower Bound)可以表征目标跟踪精度。为此,首先给出预测贝叶斯信息矩阵[28]

    J(ξq,k)= [Qq,k1+FqJ1(ξq,k1)(Fq)T]1+HTq,kΣ1q,kHq,k|ξq,k|k (19)

    其中,Hq,k表示雅可比矩阵,而协方差矩阵Σq,k与 SINR相关:

    Dq,k(sqk,aqk,sqk+1)=tdqkpqeqkGR,Rσcqk,qλ2R,qR2q,k|k1(4π)3R4q,kR2ref,q(ηR+PqJ,R,k(sqk,aqk,sqk+1)) (20)

    其中,PqJ,R,k(sqk,aqk,sqk+1)是雷达接收到的干扰功率。事实上,目标运动SINR和RCS起伏使得雷达难以直接量化Dq,k。因此,我们从回波中估计出一个稳定的成本函数。根据引起SINR动态变化不同因素,Dq,k可以被分解为3个变量:

    Dq,k(sqk,aqk,sqk+1)=ˆDq,k(sqk,aqk,sqk+1)σcqk,qU(sqk+1) (21)

    其中,σcqk,q为载频fcqk处的RCS,U(sqk+1)是由状态决定且与目标位置相关的指示函数:

    U(sqk+1)={1/R2q,kk,jqU,k=0jqI,k=0 1,  (22)

    其中,U(sqk+1)保证ˆDq,k(sqk,aqk,sqk+1)仅由固定的参考距离Rref,q决定,使干扰动态性与目标位置变化实现去耦,更易于评估干扰对雷达的影响以及计算后续不同目标位置下的成本函数。具体而言,当雷达没有被干扰时,jqU,k=0jqI,k=0U(sqk+1)=1/R2q,kk

    ˆDq,k(sqk,aqk,sqk+1)=Dq,k(sqk,aqk,sqk+1)σcqk,qU(sqk+1)=tdqkpqeqkGR,Rσcqk,qλ2R,qR2q,k|k1R2q,k|k(4π)3R4q,kR2ref,qηRσcqk,q=tdqkpqeqkGR,Rσcqk,qλ2R,q(4π)3R2ref,qηRσcqk,qR2q,k|k1R2q,k|kR4q,ktdqkpqeqkGR,Rσcqk,qλ2R,q(4π)3R2ref,qηRσcqk,q (23)

    其中,Rq,k|k是估计的距离信息,ˆDq,k(sqk,aqk,sqk+1)与雷达参数相关。当雷达被干扰时,jqU,k0jqI,k0U(sqk+1)=1

    ˆDq,k(sqk,aqk,sqk+1)=Dq,k(sqk,aqk,sqk+1)σcqk,qU(sqk+1)=tdqkpqeqkGR,Rσcqk,qλ2R,qR2q,k|k1(4π)3R4q,kR2ref,qPqJ,d,k(sqk,aqk,sqk+1)σcqk,q=tdqkpqeqkGR,Rλ2R,q(4π)2(4π)3R2ref,qPqJ,d,k(sqk,aqk,sqk+1)GqJ,Rλ2J,qBR,rσcqk,qR2q,k|k1R2q,kR4q,ktdqkpqeqkGR,Rλ2R,q4πR2ref,qPqJ,d,k(sqk,aqk,sqk+1)GqJ,Rλ2J,qBR,r (24)

    其中,ˆDq,k(sqk,aqk,sqk+1)与干扰功率密度PqJ,d,k(sqk,aqk,sqk+1)相关。从式(23)和式(24)可以看出ˆDq,k(sqk,aqk,sqk+1)主要由干扰特性决定,而σcqk,q与目标自身的起伏特性相关,U(sqk+1)代表目标位置信息的变化。因此,相关变量可以被当作相互独立的随机变量,在线感知可以进一步转换为3个平行的估计过程:

    ˉDq,k(sqk,aqk,sqk+1)=E(Dq,ksqk,aqk,sqk+1)E(ˆDq,ksqk,aqk,sqk+1)E(σcqk,qaqk)U(sqk+1) (25)

    其中, \mathbb{E}({\sigma }_{{c}_{k}^{q},q}\mid \cdot) 为载频 {f_{c_k^q}} 处RCS起伏的均值{\bar \sigma _{c_k^q,q}} \mathbb{E}({\hat{D}}_{q,k}\mid \cdot) 用于估计干扰对雷达的影响:

    \mathbb{E}({\hat{D}}_{q,k}\mid \cdot)=\frac{{\displaystyle \sum _{n=1}^{N({{\boldsymbol{s}}}_{k}^{q},{{\boldsymbol{a}}}_{k}^{q},{{\boldsymbol{s}}}_{k+1}^{q})}{\hat{D}}_{q,k}^{n}({{\boldsymbol{s}}}_{k}^{q},{{\boldsymbol{a}}}_{k}^{q},{{\boldsymbol{s}}}_{k+1}^{q})}}{N({{\boldsymbol{s}}}_{k}^{q},{{\boldsymbol{a}}}_{k}^{q},{{\boldsymbol{s}}}_{k+1}^{q})} (26)

    通过将上述估计的 {\overline{D}}_{q,k}(\cdot) 代入式(19), 预测贝叶斯信息矩阵将是({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q,{\boldsymbol{s}}_{k + 1}^q)的函数,对应的BCRLB是贝叶斯信息矩阵{\boldsymbol{J}}({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q,{\boldsymbol{s}}_{k + 1}^q)的逆[16]

    {{\boldsymbol{B}}_q}({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q,{\boldsymbol{s}}_{k + 1}^q) = {({\boldsymbol{J}}({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q,{\boldsymbol{s}}_{k + 1}^q))^{ - 1}} (27)

    其目标跟踪精度与对角线元素相关[11]

    {G_q}({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q,{\boldsymbol{s}}_{k + 1}^q) = \sqrt {{{\boldsymbol{B}}_q}(1,1) + {{\boldsymbol{B}}_q}(3,3)} (28)

    其中,{{\boldsymbol{B}}_q}(1,1){{\boldsymbol{B}}_q}(3,3)表示矩阵 {B}_{q}(\cdot) 的第1个和第3个对角元素,分别表示预测目标位置在x轴和y轴方向上的误差下界。根据跟踪性能指标,最终的成本函数定义如下:

    c({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q) = \sum\limits_{{\boldsymbol{s}}_{k + 1}^q \in {\mathcal{S}}} {{\mathbb{P}_q}({\boldsymbol{s}}_{k + 1}^q|{\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q){G_q}({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q,{\boldsymbol{s}}_{k + 1}^q)} (29)

    简而言之,所构建的主动抗干扰MDP使雷达能够捕获未知且动态的干扰环境信息。在解决模型估计问题后,如何利用这些感知信息来为MTT问题选择合适的方案仍不清楚。下面将介绍一体化发射资源管理方案。

    给定一个MDP,成本函数c({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q)隐含干扰的影响,可以用于评估动态干扰环境下雷达对目标q的跟踪性能。对于MTT,雷达的目的则是最大化 MTT性能。

    通过利用该主动抗干扰的MDP,一体化发射资源管理问题本质是一个针对多目标的决策问题。首先,假设所有目标处于联合状态{{\boldsymbol{s}}_k} = [ {{\boldsymbol{s}}_k^1,{\boldsymbol{s}}_k^2, \cdots ,{\boldsymbol{s}}_k^q, \cdots ,{\boldsymbol{s}}_k^Q} ],则雷达选择联合发射方案{{\boldsymbol{a}}_k} = [ {{\boldsymbol{a}}_k^1,{\boldsymbol{a}}_k^2, \cdots ,{\boldsymbol{a}}_k^q, \cdots ,{\boldsymbol{a}}_k^Q} ]。最差目标情况下的目标跟踪精度可以评估MTT性能[13]

    {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_k}) = \mathop {\max }\limits_q {\mkern 1mu} \{ c({\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q)\} (30)

    进一步考虑雷达系统有限的系统资源,通过利用上述MTT评估准则,一体化发射资源管理方案被建立为一个具有动作空间约束的整数优化问题:

    \begin{split} {\mathop {\min }\limits_{{{\boldsymbol{a}}_k}} {\mkern 1mu} }&{{\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_k})} \\ {{\text{ s}}{\text{.t}}{\text{. }}}&{{{\boldsymbol{a}}_k} \in {\boldsymbol{\varOmega}} } \end{split} (31)

    其中

    {\boldsymbol{\varOmega}} = \left\{ {{{\boldsymbol{a}}_k}\left| {\sum\limits_{q = 1}^Q {{t_{q,k}} = {t_{{\text{total}}}},\;\;{t_{\min }} \le {t_{q,k}} \le {t_{\max }}} } \right.} \right\}

    表明MTT的总时间资源受限于{t_{{\text{total}}}}{t_{{\text{min}}}}{t_{{\text{max}}}}分别表示驻留时间资源的上界和下界。

    对于所提优化问题,目标函数与状态{{\boldsymbol{s}}_k}和动作{{\boldsymbol{a}}_k}相关,其计算复杂度同时取决于状态空间与动作空间的维度。通常,状态{{\boldsymbol{s}}_k}包括多个观测历史。当观测历史增加时,状态空间的尺寸呈指数增长,对应的状态转移函数以及成本函数的维度也急剧增长,从而导致优化问题的复杂度显著上升。然而,所提优化问题核心目标在于最大化即时的MTT性能。因此,在每一帧状态{{\boldsymbol{s}}_k}已被给定,相应的状态转移函数和成本函数的维度得以大幅缩减。因此,该优化问题的复杂度主要取决于动作空间{\boldsymbol{\varOmega}} 。此外,由于动作空间{\boldsymbol{\varOmega}} 由离散的发射方案构成,一体化发射资源管理本质是一个整数优化问题。

    实际上,该整数优化问题很难找到对应的松弛问题。因此,一些借助松弛原始优化问题的整数优化方法很难直接用于求解该问题。相比之下,穷举搜索是一种有效方法。而分支定界方法可以通过分割整个动作空间来减少优化时间。然而,该方法仍然需要对整个动作空间进行一定的搜索。为了更快生成发射方案,提出一种贪婪排序回溯方法来求解该优化问题。从数学上讲,该方法首先根据成本函数对每个目标的候选动作进行排序。然后,雷达将从具有最小成本函数的动作开始寻找联合发射方案,确保每一次迭代的成本函数增长最小,最终收获一个可以满足有限资源约束的发射方案,并且考虑算法生成的发射方案可能跳过部分更优发射方案,进一步引入回溯技巧提升搜索效率。具体算法流程如算法1所示。

    1  贪婪排序回溯算法流程
    1.  The flow of greedy sort backtracking algorithm
     步骤1 输入在第k帧状态{{\boldsymbol{s}}_k}、动作空间\mathcal{A}。初始化 \mathcal{D}_{q}=\varnothing 、迭代次数j = 1以及动作索引{n_q} = 1, \forall q
     步骤2 评估每一个目标与动作空间\mathcal{A}相关的成本函数:
     {{\boldsymbol{C}}_q} = \left[ {c({\boldsymbol{s}}_k^q,{{\boldsymbol{a}}_1}), c({\boldsymbol{s}}_k^q,{{\boldsymbol{a}}_2}), \cdots ,c({\boldsymbol{s}}_k^q,{{\boldsymbol{a}}_{{N_\mathcal{A}}}})} \right], \forall q
     步骤3 将成本函数{{\boldsymbol{C}}_q}按升序排序,形成索引{\bf{I}}{{\bf{X}}_q}
      {{\boldsymbol{C}}_q}({\bf{I}}{{\bf{X}}_q}(1)) \lt{{\boldsymbol{C}}_q}({\bf{I}}{{\bf{X}}_q}(2)) \lt \cdots \lt {{\boldsymbol{C}}_q}({\bf{I}}{{\bf{X}}_q}({N_\mathcal{A}})) , \forall q
     步骤4 当至少存在一个目标的动作索引{n_q}{\text{ \lt }}{N_\mathcal{A}},进入步骤5。
     步骤5 形成一个联合发射方案并提取其中的驻留时间信息,进入步骤6。
     {{\boldsymbol{a}}_j} = \left[ {{\mathcal{A}_1}({\bf{I}}{{\bf{X}}_1}({n_1})),{\mathcal{A}_2}({\bf{I}}{{\bf{X}}_2}({n_2})), \cdots ,{\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_Q}({n_Q}))} \right] \Rightarrow {{\boldsymbol{t}}_j} = \left[ {{t_1},{t_2}, \cdots ,{t_Q}} \right]
     步骤6 计算联合发射方案{{\boldsymbol{a}}_j}对应的成本函数 {{\boldsymbol{c}}_j} = \left[ {{c_j}(1), {c_j}(2), \cdots ,{c_j}(Q)} \right]
      {c}_{j}\left(q\right)=\left\{\begin{aligned}& {{\boldsymbol{C}}}_{q}({\bf{IX}}_{q}({n}_{q}^{})),\quad{t}_{q}^{} \gt {t}_{\text{min}}\text{ }或者{n}_{q}\text{ \lt }{N}_{\mathcal{A}}\text{ }\\ & +\infty, \quad\qquad\quad \text{ }其他\end{aligned}\right.
     步骤7 如果\displaystyle\sum\nolimits_{q = 1}^Q {{t_q}} \le {t_{{\text{total}}}},进入到步骤9;否则进入到步骤8。
     步骤8 获得{{\boldsymbol{c}}_j}中具有最小成本函数的目标索引{\rm{I}}{{\rm{X}}_{\min }},将对应的驻留时间方案 {t_{{\rm{I}}{{\rm{X}}_{{\text{min}}}}}} 存储进 \mathcal{D}_{\mathrm{IX}_{\mathrm{min}}} (目标{\rm{I}}{{\rm{X}}_{\min }}已遍历过的动作,
      \left|{\mathcal{D}}_{{\text{IX}}_{\mathrm{min}}}\right|={n}_{{\text{IX}}_{\mathrm{min}}} )。然后执行 j = j + 1 {n_{{\rm{I}}{{\rm{X}}_{{\text{min}}}}}} = {n_{{\rm{I}}{{\rm{X}}_{{\text{min}}}}}} + 1,进入到步骤4。
     步骤9 在 \mathcal{D}_{q} 中回溯寻找具有相同驻留时间参数( {t}_{q}\in {\mathcal{D}}_{q} )的最小索引 {\text{IX}}_{{\mathcal{D}}_{q}} ,同时更新动作索引:
      {n}_{q}^{*}=\left\{\begin{array}{llllllllllllll}{\text{IX}}_{{\mathcal{D}}_{q}},& {\text{ IX}}_{{\mathcal{D}}_{q}}\ne \varnothing \text{ }\\ {n}_{q},& 其他\end{array} \right.
     然后形成最优发射方案 {\boldsymbol{a}}_k^* = \left[ {{\mathcal{A}_1}({\bf{I}}{{\bf{X}}_1}(n_1^*)),{\mathcal{A}_2}({\bf{I}}{{\bf{X}}_2}(n_2^*)), \cdots ,{\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_Q}(n_Q^*))} \right] ,进入步骤10。
     步骤10 输出最终的发射方案 {\boldsymbol{a}}_k^*
    下载: 导出CSV 
    | 显示表格

    此外,引理1引理2从理论上保证该搜索算法可以更快地协助雷达找到更好的发射方案。

    引理1:对于i{\text{ \lt }}j,贪婪排序回溯方法使目标函数值递增: {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_i}) \lt {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_j})

    证明:在排序搜索过程中,假设第i次迭代形成的联合发射方案为{{\boldsymbol{a}}_i} = \left[ {\mathcal{A}_1}({\bf{I}}{{\bf{X}}_1}(n_1^i)),{\mathcal{A}_2}({\bf{I}}{{\bf{X}}_2}(n_2^i)), \cdots , {\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_Q}(n_Q^i)) \right],其对应的目标函数为

    {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_i}) = \max {{\boldsymbol{c}}_i} = {{\boldsymbol{C}}_{{q_1}}}({\bf{I}}{{\bf{X}}_{{q_1}}}(n_{{q_1}}^i))

    其中,{q_1}为方案{{\boldsymbol{a}}_i}下跟踪精度最差的目标指标。在第j次迭代中,发射方案为{{\boldsymbol{a}}_j} = \left[ {\mathcal{A}_1}({\bf{I}}{{\bf{X}}_1}(n_1^j)), {\mathcal{A}_2}({\bf{I}}{{\bf{X}}_2}(n_2^j)), \cdots , {\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_Q}(n_Q^j)) \right],对应的目标函数为

    {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_j}) = \max {{\boldsymbol{c}}_j} = {{\boldsymbol{C}}_{{q_2}}}({\bf{I}}{{\bf{X}}_{{q_2}}}(n_{{q_2}}^j))

    其中,{q_2}为方案{{\boldsymbol{a}}_j}下跟踪精度最差的目标指标。对于整个搜索过程,若i \lt j,则n_{{q_1}}^i \le n_{{q_1}}^j,目标函数满足如下关系:

    \begin{split} {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_i}) =\;& {{\boldsymbol{C}}_{{q_1}}}({\bf{I}}{{\bf{X}}_{{q_1}}}(n_{{q_1}}^i)) \le {{\boldsymbol{C}}_{{q_1}}}({\bf{I}}{{\bf{X}}_{{q_1}}}(n_{{q_1}}^j)) \le {{\boldsymbol{C}}_{{q_2}}}\\ & ({\bf{I}}{{\bf{X}}_{{q_2}}}(n_{{q_2}}^j)) = {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_j}) \end{split}

    因此,目标的函数值是递增的。证毕

    引理2:当为目标分配了最小驻留时间资源{t_{{\text{min}}}}时,停止搜索其剩余行动可以提高贪婪排序搜索回溯算法的效率。

    证明:假设第i次迭代的发射方案{{\boldsymbol{a}}_i} = \left[ {\mathcal{A}_1}({\bf{I}}{{\bf{X}}_1}(n_1^i)),{\mathcal{A}_2}({\bf{I}}{{\bf{X}}_2}(n_1^i)), \cdots , {\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_Q}(n_Q^i)) \right]不满足约束条件,且目标q获得最少时间资源(t_q^i = {t_{{\text{min}}}})。雷达将继续进行搜索过程,并在第j次形成满足约束的发射方案{{\boldsymbol{a}}_j} = \left[ {\mathcal{A}_1}({\bf{I}}{{\bf{X}}_{{{\boldsymbol{C}}_1}}}(n_1^j)),{\mathcal{A}_2}({\bf{I}}{{\bf{X}}_{{{\boldsymbol{C}}_2}}}(n_1^j)), \cdots , {\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_{{{\boldsymbol{C}}_Q}}}(n_Q^j)) \right] (i \lt j)。同时,混合方案{{\boldsymbol{a}}_h}也满足约束:{{\boldsymbol{a}}_h} \;=\; \left[ {\mathcal{A}_1}({\bf{I}}{{\bf{X}}_1}(n_1^j)),\;{\mathcal{A}_2}({\bf{I}}{{\bf{X}}_2}(n_2^j)), \cdots , {\mathcal{A}_q}({\bf{I}}{{\bf{X}}_q}(n_q^i)), \cdots , {\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_Q}(n_Q^j)) \right]证毕

    基于搜索规则,我们可以得到n_q^i \le n_q^j。因此,贪婪排序搜索法可以在更短的时间内找到{{\boldsymbol{a}}_h},即h \le j。根据引理1 {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_h}) \le {\boldsymbol{c}}({{\boldsymbol{s}}_k},{{\boldsymbol{a}}_j}) 。因此当t_q^i = {t_{{\text{min}}}}时,至少有一个选项{{\boldsymbol{a}}_h}{{\boldsymbol{a}}_j}更好,对剩余动作的探索不仅增加了目标函数值,而且延长了搜索时间。因此,当为某个目标分配了最小驻留时间资源{t_{{\text{min}}}}时,停止搜索其剩余行动可以提高贪婪排序搜索算法的效率。

    雷达与环境的交互通常是在线的。在该过程中,雷达不仅需要通过与环境的交互来收集新的交互经验,还需要利用获取的知识形成一体化发射资源管理方案来提升MTT性能。因此,雷达需要面临在线过程中探索和利用的平衡问题[23]。假设雷达在第k帧处于状态{{\boldsymbol{s}}_k}

    (1) {{\boldsymbol{s}}_k} 为第1次观测到的状态:至少存在一个目标的干扰环境状态{\boldsymbol{s}}_k^q是被雷达首次观测到的。在新的干扰状态下,其状态转移是未知的,即 \mathbb{P}({\boldsymbol{s}}_{k + 1}^q|{\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q) = 1/|\mathcal{S}|,\forall {\boldsymbol{a}}_k^q \in \mathcal{A},\exists q 。因此,雷达需要选择随机发射方案{\boldsymbol{a}}_k^{{\text{rnd}}} \in {\boldsymbol{\varOmega}} 来探索当前动态的电磁环境。

    (2) {{\boldsymbol{s}}_k}为已访问过的状态:每一个目标的干扰环境状态{\boldsymbol{s}}_k^q在过去的交互过程中至少被雷达观测到一次,即\exists {\boldsymbol{a}}_k^q \in \mathcal{A},\mathbb{P}({\boldsymbol{s}}_{k + 1}^q|{\boldsymbol{s}}_k^q,{\boldsymbol{a}}_k^q) \ne 1/|\mathcal{S}|,\forall q。此时,雷达需要考虑最大化收益还是继续通过选择随机发射方案来探索环境。因此,尝试引入\varepsilon -贪婪策略[29]。根据贪婪方法,雷达将以概率\varepsilon 采用随机方案{\boldsymbol{a}}_k^{{\text{rnd}}} \in {\boldsymbol{\varOmega}} 来探索环境,并以概率{\text{1}} - \varepsilon 采取与一体化发射资源管理方案相关的贪婪方案{\boldsymbol{a}}_k^* \in {\boldsymbol{\varOmega}} 来改善MTT性能:

    {\boldsymbol{a}}_k^{} = \left\{ \begin{aligned} & {{\boldsymbol{a}}_k^{{\text{rnd}}}},\;{\;\;\varepsilon } \\ &{{\boldsymbol{a}}_k^*},\;\;\quad {1 - \varepsilon } \end{aligned} \right. (32)

    其中,\varepsilon 是贪婪率。如果\varepsilon 设置为0,则雷达将始终选择最优方案。如果\varepsilon 为1,则雷达将一直探索环境。

    事实上,雷达起初并不具备任何环境信息,贪婪率的设置需保证雷达收集环境信息。随着交互时间提升,雷达逐步收集到充足的干扰信息。此时,贪婪率的设置需提高感知信息的利用率改进MTT性能。因此,贪婪率\varepsilon 将随时间变化。具体而言,\varepsilon 初始化为1,并随着跟踪时间的增加逐渐减小到0来确保雷达在跟踪过程开始时主动探索环境以获得足够的经验。随着\varepsilon 的减小,雷达将逐渐增加一体化方案的利用率以提高MTT性能。此外,由于所提方法为在线过程,当发现环境信息不充足导致多功能雷达不能选择合适的发射方案时,适当提升贪婪率可保证雷达收集更多的交互经验以补充不充足的环境信息。

    为了证明所提出算法的有效性,考虑多功能雷达位于坐标(0,0) km处,其与驻留时间相关的方案个数为{N_\mathcal{D}} = 4,最小脉冲数为{t_1} = 32,步长\Delta d为32,有效总脉冲数为192。可采用的发射频率的数量为{N_\mathcal{C}} = 3,初始载频被设置为 {f_1}{\text{ = }}1.2\;{\text{GHz}} 。两个连续载频之间的步长\Delta f设置为400 MHz以降低目标回波之间的相关性,同时减小阻塞干扰的功率密度。有效脉冲功率的数量为{N_\mathcal{E}} = 2,初始发射功率为{p_1} = 100 W,步长\Delta p为1.9 kW。此外,每个目标的参考距离信息R_{{\text{ref}}}^q由初始化的距离信息{R_{q,1|1}}决定,其他与雷达相关的参数可以在表1中找到。

    表  1  雷达参数
    Table  1.  Radar parameters
    参数 设定值
    {G_{{\text{R,R}}}} 80 dB
    {B_{{\text{R,r}}}} 1 MHz
    {\eta _{\text{R}}} –141 dBW
    {B_{{\text{R,r}}}} 0.5°
    下载: 导出CSV 
    | 显示表格

    整个雷达的探测区域共有Q = 3个目标,并且每个目标的RCS随发射频率而变化,表2显示目标的初始信息以及不同发射频率下RCS起伏的均值。所有目标相对于雷达的位置如图2所示。考虑在动态电磁环境中每个目标都具备不同的截获模式:

    表  2  目标参数
    Table  2.  Target parameters
    目标索引 位置(km) 速度(m/s) {\bar \sigma _q}({{\text{m}}^2})
    1 (–8, –10) (10, 20) [9, 6, 3]
    2 (0, 25) (–25, 10) [7, 4, 2]
    3 (15, 12) (–25, 15) [8, 5, 2]
    下载: 导出CSV 
    | 显示表格
    图  2  雷达与目标的空间位置分布
    Figure  2.  Spatial position distribution of radar and targets

    (1) 强截获模式:截获接收机具有快速扫频速率和强信号检测能力,可以在频域和功率域上成功拦截雷达信号。

    (2) 弱截获模式:截获接收机扫频速率慢,信号检测能力弱。因此,其可能无法截获雷达信号。

    当雷达信号被截获后,获得的信息将作为干扰机的感知信息,形成不同的干扰策略:

    (1) 干扰策略1:当目标在第k帧处获取频率信息c_k^q时,干扰机利用感知信息c_k^q和上一帧载频信息c_{k - 1}^q共同确定当前干扰信号。否则,干扰机将不会释放任何干扰信号。当c_k^q = c_{k - 1}^q时,干扰机以载频c_k^q发送点频干扰信号;当c_k^q \ne c_{k - 1}^q时,干扰机释放阻塞干扰,其中干扰信号的带宽为 (\left| {c_k^q - c_{k - 1}^q} \right| + 1)\Delta f 。特别地,如果c_{k - 1}^q = \varnothing ,干扰机释放载频为c_k^q的点频干扰信号。

    (2) 干扰策略2:当目标在第k帧截获载频为c_k^q的雷达信号时,干扰机将释放具有相同载波频率的点频干扰信号。否则,干扰机释放固定带宽的阻塞干扰信号来覆盖整个扫频范围。

    为了测试一体化发射资源管理方案的适应性,仿真实验还结合不同的拦截模式和干扰策略设置一个动态电磁环境,其参数如表3所示。此外,该方案也将与不同基准方案进行比较:

    表  3  动态电磁环境参数
    Table  3.  Target parameters
    目标索引 截获模式 \left[ {B_{{\text{I,lo}}}^q,B_{{\text{I,up}}}^q} \right] G_{{\text{R,I}}}^q {N_{{\text{P,}}q}} B_{{\text{I,min}}}^q 干扰策略 {P_{{\text{J}},q}} G_{{\text{J,R}}}^q B_{{\text{J,k}}}^q
    1 \left[ {0.5,6.5} \right] GHz –3 dB 5 0.2 GHz 2 30 W 43 dB 2 MHz
    2 \left[ {0.5,3.5} \right] GHz 0 dB 7 0.1 GHz 1 30 W 43 dB 2 MHz
    3 \left[ {0.5,4.5} \right] GHz 14 dB 5 0.3 GHz 1 30 W 43 dB 2 MHz
    下载: 导出CSV 
    | 显示表格

    (1) 随机发射资源管理方案:雷达随机选择发射方案。

    (2) 传统发射资源管理方案:雷达利用目标状态信息来调整驻留时间和发射功率,发射频率被随机选择[5]

    (3) 低截获发射资源管理方案:截获接收机的参数作为先验信息指导雷达选择合适的驻留时间和发射功率以实现低截获,发射频率被随机选择[11]

    (4) 抗干扰发射资源管理方案:雷达逐渐学习各种干扰策略选择合适的发射频率对抗干扰,同时调整驻留时间和发射功率以提高MTT性能[15]

    在线学习过程中,雷达通过与环境交互获取足够的知识至关重要。因此,仿真实验中雷达以T{\text{ = }}0.001\;{\mathrm{s}}为跟踪时间间隔与环境进行总共1.8 \times {10^5}次交互以获取充足的知识,对应的过程噪声强度设置为{q_0} = {10^{ - 4}}。然而,展示这种在线学习过程的结果极具挑战性。因此,从在线学习过程中均匀采样100帧数据以评估和展示不同方法的性能。通常,初始采样数据包含的环境信息不足,交互时间的增加使感知信息更加准确,随着在线学习过程的进行,雷达应更多地利用环境信息来生成发射方案。为了保持这种在线学习的特性,所提权衡框架可用于上述具有学习特征的一体化发射资源管理方案和抗干扰发射资源管理方案。通常,贪婪率初始化为1以感知环境,然后每16帧降低0.2,直到达到0,从而提高发射资源管理方案利用率。值得注意的是,随机发射资源管理方案的贪婪率为1,而传统发射资源管理和低截获发射资源管理方案仅依赖跟踪器提供的目标状态信息,其贪婪率设置为0,以确保这两个方案在整个在线过程中始终被执行。

    对于动态的电磁环境,雷达利用最近两次观测来近似交互历史。为了更好地展示一体化发射资源管理方案的优势,将所提方法所获得的最差情况均方根误差(Root Mean Square Error, RMSE)与其他基准进行比较。

    图3展示了不同方法的最差情况RMSE,可以发现低截获发射资源管理方案的MTT精度最差。这表明仅仅关注低截获反而使得MTT性能变得糟糕。而传统发射资源管理发射方案基于多目标状态分配发射资源。相较于抗干扰发射资源管理方案和一体化发射资源管理在初始阶段设置贪婪率为1来随机设置发射方案来感知环境信息,传统发射资源管理方法一直利用目标状态信息引导雷达分配发射资源。因而,利用一定先验信息的传统发射资源管理方法在初始阶段会具备优势。随着交互时间的增加,所提方法的优势更加明显,而仅仅利用干扰信息的抗干扰发射资源管理方案和利用目标状态信息的传统发射资源管理方案由于缺乏完整的环境信息而导致跟踪性能恶化,甚至不如随机发射资源管理方案。

    图  3  不同方案的多目标跟踪性能
    Figure  3.  MTT performance of different schemes

    为了研究一体化发射资源管理方案可以最大限度提升MTT精度的原因,图4图5分别展示一体化和抗干扰两种方法生成的发射方案(脉冲数d_k^q、实际发射功率 P_{{\text{R}},k}^q 以及载频c_k^q)和目标生成的干扰动作j_{{\text{I}},k}^q。结合MTT性能以及发射方案,可以看出两者起初都随机选择发射方案来探索环境。因此,这两种方法的跟踪性能几乎相同。随着贪婪率降低,一体化方法和抗干扰都提高对动态环境信息的利用率,最终在贪婪率为0时收敛到较为规律的发射模式。但具体资源分配结果存在显著差异。

    图  4  一体化发射资源管理方案的发射方案以及目标干扰动作
    Figure  4.  Transmit scheme of the integrated transmit resource management scheme and jamming actions of targets
    图  5  抗干扰发射资源管理方案的发射方案以及目标干扰动作
    Figure  5.  Transmit scheme of the anti-jamming transmit resource management scheme and jamming actions of targets

    图4指出目标1在功率域应该具有相对较弱的拦截能力。因而图4(b)的功率选择结果表明一体化发射资源管理方案最终为雷达雷达选择了较低的发射功率(e_k^q = 1, {p_{e_k^q}} = 100\;{\text{W}}),可以避免目标1在功率域拦截雷达信号,从而使目标1尽可能释放阻塞干扰信号j_{{\text{I}},k}^q = 0。特别地,图4(b)展示同步的实际发射功率 P_{{\text{R}},k}^q 。由于目标1整体是靠近雷达的。因此,目标1在功率域的截获概率增加。然而,参考距离R_{{\text{ref}}}^q与初始的目标距离{R_{q,1|1}}相关,同步的实际发射功率 P_{{\text{R}},k}^q 随着目标距离的靠近而降低,使得实际发射功率 P_{{\text{R}},k}^q \lt 100\;{\text{W}} 来保证目标1在功率域的截获能力保持较弱的水平。而对于截获能力弱的目标2,图4(a)表明所提方法仍然选择最小的驻留时间(d_k^q = 1,32个脉冲)和频率1(c_k^q = 1)避免目标2在频域截获雷达信号并释放干扰(j_{{\text{I}},k}^q = 0),同时提供最大RCS。在频域完全避开干扰后,雷达为目标2进一步选择最大的发射功率(e_k^q = 2{p_{e_k^q}} = 2000\;{\text{W}})。实际上,目标2在远离雷达,其实际发射功率在 P_{{\text{R}},k}^q \gt 2000\;{\text{W}} ,这本质上可以在利用感知环境信息完全规避干扰的基础上变相增加发射功率,对于提升目标跟踪性能带来好处。类似地,由于频率1和频率2可以提供更大的RCS均值,图4(c)表明一体化发射资源管理方案对于截获能力强的目标3,选择了最大的发射功率(e_k^q = 2{p_{e_k^q}} = 2000\;{\text{W}}),使雷达最终在频率1和频率2之间跳变在降低干扰影响的同时,最大限度地提高当前帧的MTT跟踪性能。而且目标3实际也在靠近雷达,其实际功率也在缩小来保持目标3在功率域的截获能力保持不随目标位置变化而出现剧烈变化。

    表  4  不同优化算法运行时间
    Table  4.  Running time of different optimization algorithms
    优化算法 运行时间(s)
    贪婪排序回溯算法 0.00074
    穷举法 0.01790
    分支定界法 0.01660
    下载: 导出CSV 
    | 显示表格

    相比之下,图5(b)表示抗干扰发射资源管理方案为所有目标选择较高的发射功率(e_k^q = 2, {p_{e_k^q}} = 2000\;{\text{W}})。由于缺乏同步手段,所有目标的实际发射功率为 P_{{\text{R}},k}^q = 2000\;{\text{W}} ,这使得目标已经很难在功率域避免干扰。因此,图5(d)显示抗干扰发射资源管理方案选择使雷达持续接收到目标1的点频干扰( {j}_{\text{I},k}^{q}=1, 2, 3 )。对于目标2,抗干扰发射资源管理方案同样使雷达选择最小的驻留时间(d_k^q = 1,32个脉冲)以避免干扰的进入,但相比于一体化发射资源管理方案选择频率1(c_k^q = 1),抗干扰资源管理方案最终选择频率3(c_k^q = 3)并不能提供最大的RCS。而对于一直可以产生干扰的目标3,抗干扰资源管理方案可以感知到干扰策略,并做出与一体化发射资源管理方案相似的跳频方案。

    此外,考虑目标的发射脉冲数是有限的,目标1的阻塞干扰需要覆盖整个扫频范围,因而其干扰功率密度低于目标3,并且其距离雷达更近。因此, 从图4(a)展示的整体资源分配结果来看,目标3大多数时刻在d_k^q = 3(96个脉冲)和d_k^q = 4(128个脉冲)中跳变以得到更多的驻留时间资源。相应地,一体化发射资源管理方案对目标1在大部分时刻会选择d_k^q = 1(32个脉冲)和d_k^q = 2(64个脉冲),偶尔选择d_k^q = 3(96个脉冲)提升照射目标1的脉冲数来平衡整体的MTT性能。特别地,图4(d)表明目标1在第96帧形成点频干扰。这是因为雷达可以通过选择较低的发射功率来降低拦截的概率。然而,它并不能完全消除雷达信号被截获的风险。同样96帧的点频干扰使得97帧的预测MTT性能下降。相较于96帧选择提供d_k^q = 1(32个脉冲)。一体化发射资源管理方案在97帧之后一直选择d_k^q = 2(64个脉冲)为目标1分配更多的驻留时间资源,这也证明了所提方案对于动态干扰环境的适应性。

    相比较之下,抗干扰发射资源管理方案使目标1始终受到点频干扰。考虑目标1受到的点频干扰明显强于目标3的阻塞干扰。为了平衡MTT性能,目标1理应需要被分配更多的时间资源。但图5(a)表明抗干扰发射资源管理方案最终使目标1一直得到最少的驻留时间资源(d_k^q = 1,32个脉冲)。由此可以推断抗干扰资源管理方案不能感知完整的环境信息,生成不合理的资源分配结果。

    总的来说,通过上述仿真结果可以到一体化发射资源管理方案相较于其他基准表现出更好的MTT性能和适应性。因此,一体化发射资源管理方案是动态电磁环境中处理MTT问题的首选。

    本文构建的优化问题本质为纯整数规划问题,并且很难找到对应的松弛问题。因此,一些借助松弛原始优化问题的整数优化方法很难直接用于求解该问题。相应的穷举搜索方法需要对{\left( {{N_\mathcal{A}}} \right)^Q}个联合动作进行计算与判断,进而决定最优发射方案。

    此外,分支定界方法具有较强的适应性,可以通过将{({N_\mathcal{A}})^Q}个联合动作按照不同资源类型(脉冲数、频率以及功率)进行分割来减少纯整数优化问题的求解时间。然而该方法需要对整个动作空间进行一定的搜索,其计算复杂度仍然较高。而所提贪婪排序回溯方法仅仅对每个目标的动作进行排序组合,并最终对Q{N_\mathcal{A}}个动作进行计算和分析,这将有效提高算法的运行效率。

    为了进一步展示不同优化算法的计算复杂度分析,我们展示不同优化算法的跟踪性能,并对每帧的平均优化时间进行统计。正如图6所示,不同优化算法具有类似的跟踪性能。但表4表明所提优化方法可以提高优化时间一个数量级,这充分证明所提方法的优势。

    图  6  不同优化算法的多目标跟踪性能
    Figure  6.  MTT performance of different optimization algorithms

    本文针对 MTT 问题提出数据驱动的一体化发射资源管理方案,旨在通过在线感知和利用干扰信息引导多功能雷达调整发射方案提高动态电磁环境中的MTT性能。在所提一体化发射资源管理的框架中,我们建立一个主动抗干扰的MDP来描述雷达被敌方拦截和干扰的风险。 然后通过利用该主动抗干扰MDP感知的干扰信息,一体化发射资源管理方案被设计为一个具有受限动作空间的整数规划问题。最后,一种贪婪排序回溯算法来实现优化雷达发射方案的高效搜索。实验结果也表明相较于其他基准方案,所提的一体化发射资源管理方案可以有效提升MTT性能。

    相较于单雷达,多雷达系统展示巨大的潜力。为了提升多雷达系统在动态电磁环境的对抗能力,资源管理方案不仅需要考虑单雷达系统受限的资源,还需探索多雷达探测资源之间存在的潜在联系,这也是未来工作的重点。

  • 图  1  不同帧的目标截获与干扰模式

    Figure  1.  Target interception and jamming modes in different frames

    图  2  雷达与目标的空间位置分布

    Figure  2.  Spatial position distribution of radar and targets

    图  3  不同方案的多目标跟踪性能

    Figure  3.  MTT performance of different schemes

    图  4  一体化发射资源管理方案的发射方案以及目标干扰动作

    Figure  4.  Transmit scheme of the integrated transmit resource management scheme and jamming actions of targets

    图  5  抗干扰发射资源管理方案的发射方案以及目标干扰动作

    Figure  5.  Transmit scheme of the anti-jamming transmit resource management scheme and jamming actions of targets

    图  6  不同优化算法的多目标跟踪性能

    Figure  6.  MTT performance of different optimization algorithms

    1  贪婪排序回溯算法流程

    1.   The flow of greedy sort backtracking algorithm

     步骤1 输入在第k帧状态{{\boldsymbol{s}}_k}、动作空间\mathcal{A}。初始化 \mathcal{D}_{q}=\varnothing 、迭代次数j = 1以及动作索引{n_q} = 1, \forall q
     步骤2 评估每一个目标与动作空间\mathcal{A}相关的成本函数:
     {{\boldsymbol{C}}_q} = \left[ {c({\boldsymbol{s}}_k^q,{{\boldsymbol{a}}_1}), c({\boldsymbol{s}}_k^q,{{\boldsymbol{a}}_2}), \cdots ,c({\boldsymbol{s}}_k^q,{{\boldsymbol{a}}_{{N_\mathcal{A}}}})} \right], \forall q
     步骤3 将成本函数{{\boldsymbol{C}}_q}按升序排序,形成索引{\bf{I}}{{\bf{X}}_q}
      {{\boldsymbol{C}}_q}({\bf{I}}{{\bf{X}}_q}(1)) \lt{{\boldsymbol{C}}_q}({\bf{I}}{{\bf{X}}_q}(2)) \lt \cdots \lt {{\boldsymbol{C}}_q}({\bf{I}}{{\bf{X}}_q}({N_\mathcal{A}})) , \forall q
     步骤4 当至少存在一个目标的动作索引{n_q}{\text{ \lt }}{N_\mathcal{A}},进入步骤5。
     步骤5 形成一个联合发射方案并提取其中的驻留时间信息,进入步骤6。
     {{\boldsymbol{a}}_j} = \left[ {{\mathcal{A}_1}({\bf{I}}{{\bf{X}}_1}({n_1})),{\mathcal{A}_2}({\bf{I}}{{\bf{X}}_2}({n_2})), \cdots ,{\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_Q}({n_Q}))} \right] \Rightarrow {{\boldsymbol{t}}_j} = \left[ {{t_1},{t_2}, \cdots ,{t_Q}} \right]
     步骤6 计算联合发射方案{{\boldsymbol{a}}_j}对应的成本函数 {{\boldsymbol{c}}_j} = \left[ {{c_j}(1), {c_j}(2), \cdots ,{c_j}(Q)} \right]
      {c}_{j}\left(q\right)=\left\{\begin{aligned}& {{\boldsymbol{C}}}_{q}({\bf{IX}}_{q}({n}_{q}^{})),\quad{t}_{q}^{} \gt {t}_{\text{min}}\text{ }或者{n}_{q}\text{ \lt }{N}_{\mathcal{A}}\text{ }\\ & +\infty, \quad\qquad\quad \text{ }其他\end{aligned}\right.
     步骤7 如果\displaystyle\sum\nolimits_{q = 1}^Q {{t_q}} \le {t_{{\text{total}}}},进入到步骤9;否则进入到步骤8。
     步骤8 获得{{\boldsymbol{c}}_j}中具有最小成本函数的目标索引{\rm{I}}{{\rm{X}}_{\min }},将对应的驻留时间方案 {t_{{\rm{I}}{{\rm{X}}_{{\text{min}}}}}} 存储进 \mathcal{D}_{\mathrm{IX}_{\mathrm{min}}} (目标{\rm{I}}{{\rm{X}}_{\min }}已遍历过的动作,
      \left|{\mathcal{D}}_{{\text{IX}}_{\mathrm{min}}}\right|={n}_{{\text{IX}}_{\mathrm{min}}} )。然后执行 j = j + 1 {n_{{\rm{I}}{{\rm{X}}_{{\text{min}}}}}} = {n_{{\rm{I}}{{\rm{X}}_{{\text{min}}}}}} + 1,进入到步骤4。
     步骤9 在 \mathcal{D}_{q} 中回溯寻找具有相同驻留时间参数( {t}_{q}\in {\mathcal{D}}_{q} )的最小索引 {\text{IX}}_{{\mathcal{D}}_{q}} ,同时更新动作索引:
      {n}_{q}^{*}=\left\{\begin{array}{llllllllllllll}{\text{IX}}_{{\mathcal{D}}_{q}},& {\text{ IX}}_{{\mathcal{D}}_{q}}\ne \varnothing \text{ }\\ {n}_{q},& 其他\end{array} \right.
     然后形成最优发射方案 {\boldsymbol{a}}_k^* = \left[ {{\mathcal{A}_1}({\bf{I}}{{\bf{X}}_1}(n_1^*)),{\mathcal{A}_2}({\bf{I}}{{\bf{X}}_2}(n_2^*)), \cdots ,{\mathcal{A}_Q}({\bf{I}}{{\bf{X}}_Q}(n_Q^*))} \right] ,进入步骤10。
     步骤10 输出最终的发射方案 {\boldsymbol{a}}_k^*
    下载: 导出CSV

    表  1  雷达参数

    Table  1.   Radar parameters

    参数 设定值
    {G_{{\text{R,R}}}} 80 dB
    {B_{{\text{R,r}}}} 1 MHz
    {\eta _{\text{R}}} –141 dBW
    {B_{{\text{R,r}}}} 0.5°
    下载: 导出CSV

    表  2  目标参数

    Table  2.   Target parameters

    目标索引 位置(km) 速度(m/s) {\bar \sigma _q}({{\text{m}}^2})
    1 (–8, –10) (10, 20) [9, 6, 3]
    2 (0, 25) (–25, 10) [7, 4, 2]
    3 (15, 12) (–25, 15) [8, 5, 2]
    下载: 导出CSV

    表  3  动态电磁环境参数

    Table  3.   Target parameters

    目标索引 截获模式 \left[ {B_{{\text{I,lo}}}^q,B_{{\text{I,up}}}^q} \right] G_{{\text{R,I}}}^q {N_{{\text{P,}}q}} B_{{\text{I,min}}}^q 干扰策略 {P_{{\text{J}},q}} G_{{\text{J,R}}}^q B_{{\text{J,k}}}^q
    1 \left[ {0.5,6.5} \right] GHz –3 dB 5 0.2 GHz 2 30 W 43 dB 2 MHz
    2 \left[ {0.5,3.5} \right] GHz 0 dB 7 0.1 GHz 1 30 W 43 dB 2 MHz
    3 \left[ {0.5,4.5} \right] GHz 14 dB 5 0.3 GHz 1 30 W 43 dB 2 MHz
    下载: 导出CSV

    表  4  不同优化算法运行时间

    Table  4.   Running time of different optimization algorithms

    优化算法 运行时间(s)
    贪婪排序回溯算法 0.00074
    穷举法 0.01790
    分支定界法 0.01660
    下载: 导出CSV
  • [1] MORELANDE M R, KREUCHER C M, and KASTELLA K. A Bayesian approach to multiple target detection and tracking[J]. IEEE Transactions on Signal Processing, 2007, 55(5): 1589–1604. doi: 10.1109/TSP.2006.889470.
    [2] BLACKMAN S S. Multiple-Target Tracking with Radar Applications[M]. Dedham: Artech House, 1986: 1–449.
    [3] STONE L D, STREIT R L, CORWIN T L, et al. Bayesian Multiple Target Tracking[M]. 2nd ed. Boston: Artech House, 2014: 107–160.
    [4] HUE C, LE CADRE J P, and PÉREZ P. Sequential Monte Carlo methods for multiple target tracking and data fusion[J]. IEEE Transactions on Signal Processing, 2002, 50(2): 309–325. doi: 10.1109/78.978386.
    [5] WANG Xiangli, YI Wei, XIE Mingchi, et al. A joint beam and dwell time allocation strategy for multiple target tracking based on phase array radar system[C]. 2017 20th International Conference on Information Fusion (Fusion), Xi’an, China, 2017: 1–5. doi: 10.23919/ICIF.2017.8009856.
    [6] 戴金辉, 严俊坤, 王鹏辉, 等. 基于目标容量的网络化雷达功率分配方案[J]. 电子与信息学报, 2021, 43(9): 2688–2694. doi: 10.11999/JEIT200873.

    DAI Jinhui, YAN Junkun, WANG Penghui, et al. Target capacity based power allocation scheme in radar network[J]. Journal of Electronics & Information Technology, 2021, 43(9): 2688–2694. doi: 10.11999/JEIT200873.
    [7] YUAN Ye, YI Wei, and KONG Lingjiang. Joint tracking sequence and dwell time allocation for multi-target tracking with phased array radar[J]. Signal Processing, 2022, 192: 108374. doi: 10.1016/j.sigpro.2021.108374.
    [8] NARYKOV A S, KRASNOV O A, and YAROVOY A. Algorithm for resource management of multiple phased array radars for target tracking[C]. 2013 16th International Conference on Information Fusion, Istanbul, Turkey, 2013: 1258–1264.
    [9] YUAN Ye, YI Wei, HOSEINNEZHAD R, et al. Robust power allocation for resource-aware multi-target tracking with colocated MIMO radars[J]. IEEE Transactions on Signal Processing, 2021, 69: 443–458. doi: 10.1109/TSP.2020.3047519.
    [10] SCHLEHER D C. Electronic Warfare in the Information Age[M]. Boston: Artech House, 1999: 1–60.
    [11] SHI Chenguang, WANG Yijie, SALOUS S, et al. Joint transmit resource management and waveform selection strategy for target tracking in distributed phased array radar network[J]. IEEE Transactions on Aerospace and Electronic Systems, 2022, 58(4): 2762–2778. doi: 10.1109/TAES.2021.3138869.
    [12] ZHANG Haowei, LIU Weijian, ZHANG Qiliang, et al. Joint resource optimization for a distributed MIMO radar when tracking multiple targets in the presence of deception jamming[J]. Signal Processing, 2022, 200: 108641. doi: 10.1016/j.sigpro.2022.108641.
    [13] AILIYA, YI Wei, and VARSHNEY P K. Adaptation of frequency hopping interval for radar anti-jamming based on reinforcement learning[J]. IEEE Transactions on Vehicular Technology, 2022, 71(12): 12434–12449. doi: 10.1109/TVT.2022.3197425.
    [14] LI Kang, JIU Bo, WANG Penghui, et al. Radar active antagonism through deep reinforcement learning: A way to address the challenge of mainlobe jamming[J]. Signal Processing, 2021, 186: 108130. doi: 10.1016/j.sigpro.2021.108130.
    [15] ZHANG Peng, YAN Junkun, PU Wenqiang, et al. Multi-dimensional resource management scheme for multiple target tracking under dynamic electromagnetic environment[J]. IEEE Transactions on Signal Processing, 2024, 72: 2377–2393. doi: 10.1109/TSP.2024.3390119.
    [16] YAN Junkun, LIU Hongwei, JIU Bo, et al. Simultaneous multibeam resource allocation scheme for multiple target tracking[J]. IEEE Transactions on Signal Processing, 2015, 63(12): 3110–3122. doi: 10.1109/TSP.2015.2417504.
    [17] YAN Junkun, LIU Hongwei, PU Wenqiang, et al. Joint beam selection and power allocation for multiple target tracking in netted colocated MIMO radar system[J]. IEEE Transactions on Signal Processing, 2016, 64(24): 6417–6427. doi: 10.1109/TSP.2016.2607147.
    [18] LI Nengjing and ZHANG Yiting. A survey of radar ECM and ECCM[J]. IEEE Transactions on Aerospace and Electronic Systems, 1995, 31(3): 1110–1120. doi: 10.1109/7.395232.
    [19] VAN TREES H L. Detection, Estimation, and Modulation Theory, Part III: Radar-Sonar Signal Processing and Gaussian Signals in Noise[M]. New York: John Wiley & Sons, 2001: 294–307.
    [20] SKOLNIK M I. Radar Handbook[M]. New York: McGraw-Hill, 2008: 313–370.
    [21] SUKHAREVSKY O I, VASILETS V A, and ZALEVSKY G S. Electromagnetic wave scattering by aerial and ground radar objects[C]. 2015 IEEE Radar Conference (RadarCon), Arlington, USA, 2015: 162–167. DOI: 10.1109/RADAR.2015.7130989.
    [22] BERTSEKAS D P. Reinforcement Learning and Optimal Control[M]. Nashua: Athena Scientific, 2019: 1–40.
    [23] SUTTON R S and BARTO A G. Reinforcement Learning: An Introduction[M]. 2nd ed. Cambridge: MIT Press, 2018: 37–58.
    [24] NERI F. Introduction to Electronic Defense Systems[M]. 2nd ed. Henderson: SciTech Publishing, 2006: 259–368.
    [25] STINCO P, GRECO M, GINI F, et al. Cognitive radars in spectrally dense environments[J]. IEEE Aerospace and Electronic Systems Magazine, 2016, 31(10): 20–27. doi: 10.1109/MAES.2016.150193.
    [26] SELVI E, BUEHRER R M, MARTONE A, et al. Reinforcement learning for adaptable bandwidth tracking radars[J]. IEEE Transactions on Aerospace and Electronic Systems, 2020, 56(5): 3904–3921. doi: 10.1109/TAES.2020.2987443.
    [27] KOCHENDERFER M J, WHEELER T A, and WRAY K H. Algorithms for Decision Making[M]. Cambridge: MIT Press, 2022: 311–326.
    [28] 严俊坤, 纠博, 刘宏伟, 等. 一种针对多目标跟踪的多基雷达系统聚类与功率联合分配算法[J]. 电子与信息学报, 2013, 35(8): 1875–1881. doi: 10.3724/SP.J.1146.2012.01470.

    YAN Junkun, JIU Bo, LIU Hongwei, et al. Joint cluster and power allocation algorithm for multiple targets tracking in multistatic radar systems[J]. Journal of Electronics & Information Technology, 2013, 35(8): 1875–1881. doi: 10.3724/SP.J.1146.2012.01470.
    [29] LISI F, FORTUNATI S, GRECO M S, et al. Enhancement of a state-of-the-art RL-based detection algorithm for massive MIMO radars[J]. IEEE Transactions on Aerospace and Electronic Systems, 2022, 58(6): 5925–5931. doi: 10.1109/TAES.2022.3168033.
  • 加载中
图(6) / 表(5)
计量
  • 文章访问数: 16
  • HTML全文浏览量: 8
  • PDF下载量: 6
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-11-19
  • 修回日期:  2025-03-10

目录

/

返回文章
返回