Loading [MathJax]/jax/output/SVG/jax.js

基于直方图分析和自适应遗传的雷达道路目标识别特征优选方法

瓦其日体 李刚 赵志纯 则正华

葛建军, 李春霞. 一种基于信息熵的雷达动态自适应选择跟踪方法[J]. 雷达学报, 2017, 6(6): 587-593. doi: 10.12000/JR17081
引用本文: 瓦其日体, 李刚, 赵志纯, 等. 基于直方图分析和自适应遗传的雷达道路目标识别特征优选方法[J]. 雷达学报, 2023, 12(5): 1014–1030. doi: 10.12000/JR22245
Ge Jianjun, Li Chunxia. A Dynamic and Adaptive Selection Radar Tracking Method Based on Information Entropy[J]. Journal of Radars, 2017, 6(6): 587-593. doi: 10.12000/JR17081
Citation: WAQI Riti, LI Gang, ZHAO Zhichun, et al. Feature selection method of radar-based road target recognition via histogram analysis and adaptive genetics[J]. Journal of Radars, 2023, 12(5): 1014–1030. doi: 10.12000/JR22245

基于直方图分析和自适应遗传的雷达道路目标识别特征优选方法

DOI: 10.12000/JR22245
基金项目: 国家自然科学基金(62101304, 61925106),华为技术有限公司委托研发项目
详细信息
    作者简介:

    瓦其日体,硕士生,主要研究方向为毫米波雷达目标识别

    李 刚,博士,教授,博士生导师,主要研究方向为雷达信号处理、遥感、多源信息融合、数据驱动医疗健康等

    赵志纯,博士,副教授,主要研究方向为雷达信号处理、时频分析、微动特征分析、雷达目标识别技术等

    则正华,硕士生,主要研究方向为毫米波雷达信号处理

    通讯作者:

    赵志纯 zzc@smbu.edu.cn

  • 责任主编:唐世阳 Corresponding Editor: TANG Shiyang
  • 中图分类号: TN959.1

Feature Selection Method of Radar-based Road Target Recognition via Histogram Analysis and Adaptive Genetics

Funds: The National Natural Science Foundation of China (62101304, 61925106), Research and development project commissioned by Huawei Technologies Co. LTD
More Information
  • 摘要: 在雷达道路目标识别领域,目标类别多变且特性相近时增加目标特征维数是一种提高识别性能常用的手段。然而特征维数的增多会导致特征冗余和维数灾难,因此需对提取的高维特征集进行优选,基于随机搜索的自适应遗传算法(AGA)是一种有效的特征优选方法。为提升AGA算法的特征优选效率和精度,现有方法通常通过引入特征与目标种类的先验相关度对高维特征集进行预降维,然而此类算法仅考虑了单个特征与目标的相关性,忽略了特征组合与目标类别的匹配度,使得优选出的特征集不一定是目标的最佳识别组合。针对该问题,该文通过引入直方图分析对不同特征组合与目标类别的匹配度加以研究,提出了一种新的改进自适应遗传(HA-AGA)特征优选方法,在提升特征优选效率和精度的同时提升目标的识别性能。基于毫米波雷达实测数据集的对比实验表明,所提出的HA-AGA方法的目标识别平均精确率可达到95.7%,分别比IG-GA, ReliefF-IAGA和改进RetinaNet方法提升了1.9%, 2.4%和10.1%。基于公共数据集CARRADA的对比实验表明,所提出的HA-AGA方法的目标识别平均精确率达到93.0%,分别比IG-GA和ReliefF-IAGA方法提升了1.2%和1.5%,验证了所提方法的有效性和优越性。此外,还进行了不同特征优选方法分别结合集成装袋树、精细树和K-最邻近(KNN)分类器的性能对比,实验结果表明所提方法结合不同分类器均具有明显优势,具有一定的广泛适用性。

     

  • 分布式多雷达系统节点多、分布广,为了适应复杂战场动态作战需求,需要根据作战任务动态组织各个站点的工作,提高整个系统抗干扰、抗截获、抗摧毁等能力。实际中,受各雷达节点工作参数及相对目标的位置等因素的影响,不同节点观测目标获得的信息量不同,为此,如何根据战场态势,动态优化选择雷达站点“匹配”目标跟踪,是一个重要问题。

    目标跟踪理论是基于状态空间模型的递推结构,利用所有已知信息来求得目标状态变量的后验概率密度。即使用目标运动状态方程预测目标状态的先验概率,再利用最新时刻的雷达观测值来修正,得到状态的后验概率密度。传统多雷达跟踪通常使用所有雷达进行目标跟踪[1,2],研究的重点在于融合结构和融合算法[1,2],在传感器优化选取方面研究较少,目前,主要有基于目标预测的误差协方差矩阵[3,4]和信息增益[5]这两类优化准则的方法。第1类方法主要思想是依据目标跟踪的实际误差协方差矩阵与预设的期望协方差矩阵之间的差别进行雷达节点选择,使实际协方差矩阵在某种意义上逼近期望协方差矩阵;第2类方法主要思想是通过一个测量行为执行前后信息熵的减少求得信息增量,然后根据使信息增量最大的准则对传感器资源进行科学合理的分配。然而,第1类方法,实际中目标跟踪误差协方差矩阵的变化是相对缓慢的,灵敏度并不高,因此选择标准的精度不高;第2类方法仅是基于单部雷达的跟踪效果进行雷达的选取,并不能适用于雷达组合的选择。

    本文提出了使用信息熵定量度量由多雷达联合观测获得的目标的信息量,并给出了该信息量的下界。以此为基础,本文提出基于信息熵的雷达动态自适应选择跟踪方法,该方法通过最小化观测信息熵下界,实时选择信息量高的多个雷达节点进行目标跟踪,从而避免使用信息量低或无信息量的雷达量测。最后,仿真结果表明提出方法的跟踪效果优于任意选择雷达跟踪的平均效果。

    本文结构如下。第2节建立了多雷达跟踪目标的状态空间模型。第3节给出了多雷达观测信息熵的定量度量方法及其下界,进而理论推导了雷达动态自适应选择跟踪方法。第4节仿真对比了不同跟踪方法的效果。第5节为结束语。

    在目标跟踪中,通常使用动态空间模型对目标的运动状态进行描述,包括状态方程和量测方程。其中,状态方程描述了目标运动状态随时间演变的过程,量测方程描述了雷达观测与目标状态的关系。其中,目标运动的状态方程为:

    X(k)=f(X(k1))+V(k) (1)

    其中,X(k)为k时刻目标的状态,f为状态转移函数,V(k)为零均值、协方差矩阵为Q(k)的白色高斯过程噪声序列。

    雷达通常在2维或3维极坐标系中获得观测值,而目标运动则是在直角坐标系中描述[3,4]。假设目标运动在2维平面,雷达在极坐标系下获得探测目标的观测值。针对任意的多雷达探测系统构型,并且不失一般性,考虑各雷达自发自收的情况,k时刻第n部雷达的观测向量记为Zn(k)=[rn(k) an(k)]T。其中,rn(k)为第n部雷达与目标之间的径向距离,an(k)为第n部雷达与目标之间的方位角。由N部雷达组成的多雷达系统形成的观测集合Z(k)={Z1(k) Z2(k) ··· ZN(k)},对应的观测方程为:

    Zn(k)=hn(X(k))+Wn(k),n=1,2,···,N (2)

    其中,hn(X(k))为观测函数,具体计算方程为:

    hn(X(k))=[(x(k)xr,n)2+(y(k)yr,n)2arctan[(y(k)yr,n)/(x(k)xr,n)]] (3)

    其中,(x(k) y(k))为k时刻目标在直角坐标系中的位置,( xr,n , yr,n )为第n部接收雷达的直角坐标位置。并且, xr,n 为位置的横坐标, yr,n 为位置的纵坐标。Wn(k)为与过程噪声不相关的测量噪声, Wn(k)= [wrn(k) wan(k)]T ,测距噪声 wrn(k) 和方位角测角噪声 wan(k) 是均值为零、标准差分别为 σrn σan 的统计独立的高斯白噪声,其中 σrn 表征了第n部雷达径向距离测量值误差的波动大小, σan 表征了第n部雷达方位角测量值误差的波动大小。

    相应的观测协方差矩阵 Rn(k) 为:

    Rn(k)=E(Wn(k)Wn(k)T)=[(σrn)200(σan)2] (4)

    基于上述目标状态方程和观测方法,通常使用所有雷达进行目标跟踪,然而实际中不同雷达观测目标获得的信息量不同,有高有低,甚至有些雷达没有观测到任何目标信息,为此,需要从这些雷达中选择出信息含量高的雷达进行目标跟踪,提高目标跟踪效果。

    N部雷达组成的多雷达系统的观测量可以表示为 r=[rn]1×N , a=[an]1×N ,每个观测量为:

    rn=Rn+wrn (5)
    an=An+wan (6)

    其中, Rn , An分别为目标相对于第n部雷达的真实距离和角度,并且雷达n的目标距离观测噪声 wrnN(0,(σrn)2) ,测角噪声 wanN(0,(σan)2)

    N部雷达构成的多雷达系统极坐标观测的条件下,目标直角坐标位置估计协方差矩阵记为:

    RN,xy=E[(xˆx)(xˆx)(xˆx)(yˆy)(xˆx)(yˆy)(yˆy)(yˆy)] (7)

    多雷达观测是为了更多更准确地获得目标位置信息,将由多雷达的极坐标系观测获得目标直角坐标位置的信息量,定义为多雷达联合观测信息熵,根据信息论原理,推导得N部雷达观测信息熵为:

    HN(x,y|r,a)=12ln((2πe)N|RN,xy|) (8)

    根据参数估计理论[6],由式(8)可知,多雷达联合观测信息熵下界为:

    HN(x,y|r,a)12ln((2πe)N|I1N(x,y|r,a)|) (9)

    其中, IN(x,y|r,a) 为Fisher信息矩阵。根据参数估计理论[6],式(9)中Fisher信息矩阵可以写为:

    \begin{align} &\!\!\!{{{{I}}}\!_N}\left( {x,y|{{{r}}},{{{a}}}} \right) \!\\[ &\!\!\! =\!\! \left[\!\!\!\! {\begin{array}{*{20}{c}} { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {x^2}}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial y\partial x}}} \right]}\\ { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial x\partial y}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {y^2}}}} \right]} \end{array}} \!\!\!\right] \end{align} (10)

    其中,fN(r, a)为由N部自发自收雷达组成的多雷达系统观测的联合概率密度函数。假设各个观测值独立不相关,那么根据式(5),式(6)中各个雷达观测服从的概率分布可知,联合概率密度函数fN(r, a)为:

    fN(r,a)=Nn=112πσrnexp(|rnRn|22(σrn)2)12πσanexp(|anAn|22(σan)2) (11)

    由式(9)、式(10)及式(11)可知,在目标距离雷达站较远时,影响多雷达极坐标量测的信息熵下界的因素包括各雷达站与目标距离、方位角,以及各雷达站的测距精度和测角精度。

    根据贝叶斯理论可知目标跟踪主要过程为,首先使用目标运动状态方程进行预测,获得目标状态的先验信息,然后再结合最新时刻的观测值来更新预测值,获得目标状态的后验概率密度,这样后验概率密度就包含了先验信息和观测在内的所有可利用信息,获得目标状态估计结果。因而,目标跟踪过程可理解为:后验=先验+观测,这表示调节观测会影响目标状态估计结果。

    本文提出的基于信息熵的雷达节点自适应选择跟踪方法通过使用信息含量高的雷达节点而不是全部雷达节点进行目标跟踪,从而避免使用信息含量少甚至没有目标信息的雷达,有效提高目标跟踪效果。本文提出的方法在确定要选择的雷达站数目的情况下,通过最小化多雷达观测信息熵下界对每个时刻的雷达编号进行选择,然后使用所选取的信息量高的雷达对目标进行联合跟踪,从而获得较高的目标跟踪精度。

    不失一般性,假设多雷达系统中共N部雷达,并且自发自收,在目标k时刻多雷达联合跟踪获得的目标状态估计值为 ˆX(k|k) , P(k|k) ,那么由k时刻递推到k+1时刻目标状态估计的过程描述如下。

    •多雷达的选择

    k+1时刻的多个观测量中找出那些具有大的信息量的观测,利用这些观测量来更有效地提高目标跟踪精度。本文以信息熵下界最小,每个时刻自适应从多雷达观测信息熵中选出数值最小的两部(或多部)雷达编号,然后用于目标跟踪。

    假设所选雷达站个数为N0(N0<N),那么计算N部雷达中任意N0部雷达的观测信息熵下界,形成 CN0N 个观测信息熵结果,进而选取具有最小观测信息熵下界的N0部雷达的编号集 ˆΘ ,用这一编号集中的雷达进行多雷达站联合跟踪。为此,由式(9)可得雷达编号集为:

    ˆΘ=argminΘ12ln((2πe)N0|I1N0(x,y|r,a)|) (12)

    由于函数ln(·)单调递增,式(12)中 ˆΘ 的求解等价为:

    ˆΘ=argmaxΘ|IN0(x,y|r,a)| (13)

    其中, IN0 (x, y|r, a)为N0部雷达观测获得目标位置状态估计的Fisher信息矩阵,其求解过程与3.1节中的求N部雷达的类似,仅需要将式(11)中的N部雷达观测的联合概率密度函数替换为N0部雷达观测的联合概率密度函数,其表示为:

    fN0(rN0,aN0)=nΘ12πσrne(|rnRn|22(σrn)2)12πσane(|anAn|22(σan)2) (14)

    式中, rN0,aN0 分别为N0部雷达距离和方位角观测集, Θ N部雷达中任意N0部雷达组成的集合,共有 CN0N 个。其余参数含义同3.1节。

    目前的多雷达融合跟踪算法都与融合结构密切相关,融合结构大致分成3大类:集中式、分布式和混合式[7]。集中式融合也称为中心式融合(centralized fusion)或量测融合(measurement fusion)。分布式融合(distributed fusion)是各传感器都具有自己的局部处理器,能够形成局部航迹,所以在融合中心也主要是对各局部航迹进行融合,所以这种融合方法通常也称为航迹融合(track fusion)。混合式融合(hybrid fusion)是集中式结构和分布式结构的一种综合,融合中心得到的可能是原始量测数据,也可能是局部节点处理过的数据。

    在选择完所用的雷达编号后,可采用这3种融合结构的任何一种进行目标融合跟踪,本文以航迹级融合为例,主要步骤包括使用上一时刻目标融合的位置状态估计对时刻k+1目标状态进行预测,然后使用所选择雷达分别对k+1时刻目标状态进行更新,最后对所选取的雷达的k+1时刻目标状态估计进行融合,获得目标k+1时刻状态估计结果。更为具体的算法描述如下。

    •目标状态预测

    从最优贝叶斯跟踪滤波的角度来看,在获得k时刻的观测值之前,根据目标运动状态转移模型,目标状态预测实现先验概率 p(X(k)|Z1:k) p(X(k+1)|Z1:k) 的求解[8]。假设在k–1时刻, p(X(k)|Z1:k) 是已知的,那么,对于1阶马尔可夫过程(即该时刻的状态仅与上一时刻的状态值有关,而与之前所有时刻的状态值无关),由Chapman- Kolmogorov方程可知

    p(X(k+1)|Z1:k)=p(X(k+1)|X(k))p(X(k)|Z1:k)dX(k) (15)

    其中, p(X(k+1)|X(k)) 为目标状态转移概率, Z1:k 表示从1到k时刻观测量的集合,即 Z1:k= {Z(1),Z(2),···,Z(k)} 。根据目标运动方程,可得式(15)中的目标状态转移概率为:

    p(X(k+1)|X(k))=N(X(k+1);f(X(k)),Q(k)) (16)

    式中, N(X(k+1);f(X(k)),Q(k)) 表示均值为 f(X(k)) ,协方差矩阵为 Q(k) 的高斯分布。

    上述最优贝叶斯跟踪下的目标状态预测过程的具体实现可以采用转换量测卡尔曼滤波(CMKF)、基于泰勒展开式的扩展卡尔曼滤波[911](Extended Kalman Filter, EKF),不敏卡尔曼滤波[12](Unscented Kalman Filter, UKF),粒子滤波[13](PF)等滤波方法中的目标状态预测过程。以EKF预测方法为例,目标状态的一步预测为:

    ˆX(k+1|k)=f(ˆX(k|k)) (17)

    相应地,状态误差协方差矩阵的一步预测为:

    P(k+1|k)=fX(k)P(k|k)fTX(k)+Q(k) (18)

    其中,fX(k)为目标状态转移函数关于 ˆXn (k|k)的雅可比矩阵,Q(k)为白色高斯过程噪声序列的协方差矩阵。

    •目标状态更新

    从最优贝叶斯跟踪滤波的角度来看,目标状态更新是在获得k+1时刻的观测值后,实现先验概率 p(X(k+1)|Z1:k) 至后验概率 p(X(k+1)|Z1:k+1) 的推导。根据贝叶斯定理可知

    p(X(k+1)|Z1:k+1)=p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)dX(k+1) (19)

    其中,根据跟踪滤波的雷达观测模型,式(19)中的似然函数 p(Z(k+1)|X(k+1)) 表达式为:

    p(Z(k+1)|X(k+1))=N(Z(k+1);h(X(k+1)),R(k+1)) (20)

    式中,N(Z(k+1); h(X(k+1)), R(k+1))表示均值为h(X(k+1)),协方差矩阵为R(k+1)的高斯分布。

    同样地,上述最优贝叶斯跟踪下的目标状态更新过程的具体实现可以采用CMKF, EKF, UKF, PF等滤波方法中的目标状态更新过程。本文以EKF目标状态更新过程为例进行描述。

    k+1时刻多雷达观测中的每部雷达观测分别代入滤波中的状态更新,得到对应每部雷达观测的多个目标状态更新值,并将使用第n部雷达观测得到的k+1时刻目标状态更新值记作 ˆX n(k+1|k+1), Pn(k+1|k+1)。具体过程如下:

    由目标跟踪的状态空间方程中的观测方程,可得观测值和观测新息协方差矩阵预测为:

    ˆZn(k+1|k)=hn(ˆX(k+1|k)) (21)
    Sn(k+1|k)=hn,X(k+1)Pn(k+1|k)hTn,X(k+1)+Rn(k+1) (22)

    其中, hn,X(k+1) 为量测函数关于 ˆX n(k+1|k)的雅可比矩阵,即

    hn,X(k+1)=[XhTn(X(k+1))]TX=ˆX(k+1|k)=[x(k+1|k)r(k+1|k)0y(k+1|k)r(k+1|k)0y(k+1|k)(r(k+1|k))20x(k+1|k)(r(k+1|k))20]X=ˆX(k+1|k) (23)

    EKF滤波方法的增益为:

    Pn,XZ=Pn(k+1|k)hn,X(k+1) (24)
    Kn(k+1)=Pn,XZSn(k+1|k)1 (25)

    空间目标状态和协方差矩阵的更新值分别为:

    ˆXn(k+1|k+1)=ˆX(k+1|k)+Kn(k+1)[Zn(k+1)ˆZn(k+1|k)] (26)
    Pn(k+1|k+1)=[IKn(k+1)hn,X(k+1)]P(k+1|k)[I+Kn(k+1)hn,X(k+1)]TKn(k+1)Rn(k+1)KTn(k+1) (27)

    其中,I为4阶单位矩阵,其余变量的含义如上。经由以上步骤,得到了目标在k+1时刻的使用雷达n观测的状态估计 ˆXn (k+1|k+1)及状态协方差矩阵Pn(k+1|k+1)。

    •多雷达跟踪航迹融合

    将选出的N0部雷达的目标状态更新结果进行融合,得到最后的目标状态融合结果作为k+1时刻目标状态估计值。设选择的融合雷达编号集合为 Ω ,并且采用广义凸组合融合1(Generalized Convex Combination 1, GCC1),有时也称为简单凸组合融合(Simple Convex Combination, SCC)[1,2,14],得到的融合结果为:

    ˆX(k+1|k+1)=P(k+1|k+1)nΩP1n(k+1|k+1)ˆXn(k+1|k+1) (28)
    P(k+1|k+1)=(nΩP1n(k+1|k+1))1 (29)

    重复以上步骤直至跟踪结束,便可得到利用雷达观测信息熵下界自适应选择雷达节点,实现目标跟踪的整个过程。

    在目标跟踪中,航迹精度是对跟踪滤波算法性能进行评估的重要指标。航迹精度体现了不同滤波方法对雷达测量误差的平滑程度。概括来讲,航迹精度包括位置精度和速度精度,航迹的位置精度定义为航迹位置估计的均方根误差。目标状态估计的均方根误差越小,滤波器的滤波值与真实值越接近,航迹精度则越高[8]

    m次蒙特卡诺仿真得到滤波估计误差为:

    em(k)=ˆXm(k|k)X(k) (30)

    其中, ˆX m (k+1|k+1)和X(k)分别为k时刻目标状态的跟踪结果和真实值。

    目标跟踪位置和速度估计的均方根误差分别为:

      RMSEPOS(k)=(1MCMCm=1[ˆxm(k|k)x(k)]2+[ˆym(k|k)y(k)]2)1/2 (31)
    \begin{align} {\rm RMSE}_{\rm VEL}\left( k \right) =& \left( \frac{1}{{\rm MC}}\sum\limits_{m = 1}^{\rm MC} {{\left[ {v{{\hat x}_m}\left( {k|k} \right) - vx\left( k \right)} \right]}^2} \right. \\ & + \left. {{\left[ {v{{\hat y}_m}\left( {k|k} \right) - vy\left( k \right)} \right]}^2} \Biggr\right)^{1/2} \end{align} (32)

    其中,向量 (ˆxm ˆym ˆzm) (x y z) 分别为目标在k时刻的位置估计值和真实值,向量 (vˆxm vˆym vˆzm) (vx vy vz) 分别为目标在k时刻的速度估计值和真实值,下标m表示第m次蒙特卡诺仿真,MC为总的蒙特卡诺仿真次数,本文设置为200,并且各部雷达的测距和测角误差方差分别为 σ2r=25 m2 , σ2θ= 0.0003 rad2

    假设在多雷达系统中共有4部雷达,它们在直角坐标系中的位置为:雷达1为(0, 0)、雷达2为(20000, 0) m、雷达3为(20000, 0) m和雷达4为(1000, 20000) m。设置的4部雷达站位置与目标航迹如图1所示。其中,目标运动时间为40 s,运动间隔为1 s,并在前26 s时间内目标做匀速直线运动,在26 s时目标进行了转弯,然后进行匀速直线运动,目标运动方向如图中箭头所示。

    图  1  4部雷达位置与目标航迹图
    Figure  1.  Radars locations and target trajectory

    为了仿真验证提出的方法,需要从场景中的4部雷达选择信息含量高的N0部雷达进行跟踪,而此个数在实际的多目标多任务复杂跟踪场景,需要进行合理设置。本文从验证提出的方法的角度出发,可以将N0进行人为设置。不失一般性,设计N0=2,即从4部雷达选出联合信息量最多的2部雷达进行联合跟踪。根据3.2节中雷达优化选择方法,可知不同时刻跟踪选择的雷达站编号如图2所示。

    图  2  不同时刻选择的信息量高的雷达编号
    Figure  2.  Radars indexes selected by fusion entropy model

    将基于联合信息量最大选出的两部雷达进行融合跟踪的方法记为“基于信息熵的联合跟踪”;将不采用信息量最大选择出的任意两部雷达跟踪的效果的平均记为“传统联合跟踪”。对比单部雷达跟踪、不采用和采用信息熵的联合跟踪效果,结果如图3图4所示。

    图  3  目标位置跟踪精度对比
    Figure  3.  Comparison of target position RMSE
    图  4  目标速度跟踪精度对比
    Figure  4.  Comparison of target velocity RMSE

    图3图4可知,采用基于两部联合信息量最大选出的雷达进行融合跟踪,得到的位置精度和速度精度最好,其次是不采用基于信息熵的任意两部雷达融合跟踪的平均效果,而单雷达跟踪效果最差。

    为了满足现代复杂战场动态作战需求,针对单雷达站信息量少跟踪精度不高,而多雷达系统中不同雷达、不同时刻获得目标信息量的多少不同的问题,提出一种基于信息熵的雷达动态自适应选择跟踪方法。该方法使用信息熵定量刻画了由多雷达极坐标观测获得目标直角坐标位置的信息量,并给出了其下界。进而,通过最小化雷达观测目标的信息熵下界,理论推导了每个时刻实时最优化选取目标信息含量高的雷达站进行跟踪的方法,具有良好的目标跟踪效果。

  • 图  1  数据预处理流程图

    Figure  1.  Data preprocessing flow chart

    图  2  基于直方图分析的特征优选流程图

    Figure  2.  Flow chart of feature optimization via histogram analysis

    图  3  数据预处理各步骤实验结果

    Figure  3.  Experimental results of each step of data preprocessing

    4  各类目标及其对应的RD谱

    4.  All kinds of targets and their corresponding RD spectrum

    图  5  各算法特征预降维结果

    Figure  5.  Pre-dimensionality reduction results of different algorithms

    图  6  各算法特征优选结果

    Figure  6.  Feature optimization results of different algorithms

    图  7  由PCA降维得到的实测数据集特征优选前后可视化分布图

    Figure  7.  Visual distribution of real data set features before and after optimization obtained by PCA dimension reduction

    图  8  不同信噪比条件下各特征选择算法识别结果

    Figure  8.  The recognition results of feature selection algorithm in different SNR

    图  9  数据预处理各步骤实验结果

    Figure  9.  Experimental results of each step of data preprocessing

    图  10  不同算法特征预降维结果

    Figure  10.  Pre-dimensionality reduction results of different algorithms

    图  11  不同算法特征优选结果

    Figure  11.  Feature optimization results of different algorithms

    图  12  由PCA降维得到的CARRADA数据集特征优选前后可视化分布图

    Figure  12.  Visual distribution of CARRADA data set features before and after optimization obtained by PCA dimension reduction

    表  1  特征及其公式

    Table  1.   Features and formulas

    序号特征公式序号特征公式
    1峰值点距离f1=rt16最大距离点速度与
    峰值点速度差
    f16=f14f11
    2平均距离f2=1ssi=1ri17速度宽f17=max(vi)min(vi)
    3最小距离点距离f3=min(ri)18速度维中值f18=max(vi)+min(vi)2
    4最大距离点距离f4=max(ri)19速度维方差f19=1GGg=1(AgˉAG)2
    5峰值点距离与最小距离差f5=f1f320速度维熵f20=Gg=1pglg(pg)
    6最大距离与峰值点距离差f6=f4f121散射点个数f21=s
    7距离宽f7=max(ri)min(ri)22距离宽比速度宽f22=f7f17
    8距离维中值f8=max(ri)+min(ri)223能量密度f23=1ssi=1A2i
    9距离维方差f9=1GGg=1(AgˉAG)224波形熵f24=N1n=0M1m=0pn,mlg(pn,m)
    10距离维熵f10=Gg=1pglg(pg)252阶中心矩f25=N1n=0M1m=0(nˉn)(mˉm)A(n,m)
    11峰值点速度f11=vt264阶中心矩f26=N1n=0M1m=0(nˉn)2(mˉm)2A(n,m)
    12平均速度f12=1ssi=1vi27信号幅值方差f27=1ssi=1(AiˉA)2
    13最小距离点速度f13=vrmin28主分量能量f28=nj=1main\_energyj
    14最大距离点速度f14=vrmax29副分量能量f29=si=1A2inj=1main\_energyj
    15峰值点速度与最小
    距离点速度差
    f15=f11f1330主副能量比f30=f28f29
    下载: 导出CSV

    表  2  实测数据集描述

    Table  2.   The real radar dataset description

    类别标签训练集(帧)测试集(帧)
    行人129811278
    电动车227271169
    自行车311148
    小汽车41756753
    货车51162499
    公交车61486637
    下载: 导出CSV

    表  3  雷达参数

    Table  3.   Radar parameters

    参数数值
    载频(GHz)24
    带宽(MHz)207.32
    波形斜率(MHz/μs)0.80986
    采样率(MHz)1
    每个脉冲采样点数256
    帧脉冲数128
    接收通道数4
    帧持续时长(ms)32.768
    下载: 导出CSV

    表  4  各算法优选后的特征组合

    Table  4.   Feature combination of different algorithms after optimization

    特征选择算法优选后特征组合
    IG-GAf2, f8, f10, f11, f12, f22, f24, f26, f27, f28, f29
    ReliefF-IAGAf1, f2, f3, f4, f5, f6, f8, f10, f12, f17, f18, f20, f22, f25
    HA-AGAf1, f3, f5, f7, f8, f10, f11, f12, f14, f17, f20, f22, f23, f24
    下载: 导出CSV

    表  5  各算法结合集成装袋树优选后识别结果(实测数据集)(%)

    Table  5.   Recognition result of different algorithms combined with integrated bagging tree after optimization (Real radar dataset) (%)

    类别未优选IG-GAReliefF-IAGAHA-AGA
    精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度
    行人99.0/95.7/97.398.3/96.7/97.598.4/96.6/97.599.0/96.8/97.9
    电动车94.3/99.1/96.695.3/98.2/96.795.5/98.1/96.895.5/98.8/97.1
    自行车87.2/70.8/78.292.5/77.1/84.185.7/75.0/80.095.0/79.2/86.4
    小汽车97.6/98.3/98.096.1/97.3/96.797.8/98.9/98.398.1/98.5/98.3
    货车94.8/85.4/90.091.2/84.1/87.591.4/84.3/87.793.5/89.5/91.5
    公交车90.4/95.9/93.189.1/92.2/90.789.2/93.2/91.292.9/94.9/93.9
    平均值93.9/91.1/92.293.8/90.9/92.293.3/91.0/91.995.7/93.0/94.2
    下载: 导出CSV

    表  6  各算法结合精细树优选后识别结果(实测数据集)(%)

    Table  6.   Recognition result of different algorithms combined with fine tree after optimization (Real radar dataset) (%)

    类别未优选IG-GAReliefF-IAGAHA-AGA
    精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度
    行人99.1/94.3/96.699.1/94.2/96.699.5/94.0/96.799.3/94.7/97.0
    电动车92.3/98.9/95.692.5/99.0/95.692.5/98.9/95.792.7/99.0/95.7
    自行车75.6/64.6/70.084.6/68.8/75.988.4/70.2/78.289.5/70.8/79.1
    小汽车96.5/97.4/96.895.9/93.5/94.797.5/97.0/97.196.4/97.5/97.0
    货车86.2/76.7/81.283.7/84.9/84.388.6/78.6/83.389.6/80.4/84.8
    公交车82.9/90.0/86.388.4/89.2/88.885.3/91.6/88.386.8/91.4/89.0
    平均值88.7/87.0/87.890.7/88.3/89.392.0/88.3/89.992.4/89.0/90.4
    下载: 导出CSV

    表  7  各算法结合KNN优选后识别结果(实测数据集)(%)

    Table  7.   Recognition result of different algorithms combined with KNN after optimization (Real radar dataset) (%)

    类别未优选IG-GAReliefF-IAGAHA-AGA
    精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度
    行人94.6/93.6/94.196.0/94.8/95.596.0/94.3/95.196.3/94.6/95.5
    电动车91.9/94.3/93.192.7/96.1/94.392.2/95.2/93.792.7/95.7/94.2
    自行车70.7/60.4/65.287.5/72.9/79.684.7/75.0/79.586.0/77.1/81.3
    小汽车96.7/96.6/96.796.7/95.8/96.396.1/97.0/96.596.7/97.1/97.0
    货车88.6/83.3/85.985.7/82.5/84.587.2/82.8/84.989.6/83.3/86.3
    公交车87.8/91.0/89.387.9/89.4/88.690.0/90.0/90.088.4/91.6/90.0
    平均值88.4/86.4/87.491.1/88.6/89.891.0/89.0/89.991.6/89.9/91.0
    下载: 导出CSV

    表  8  HA-AGA与改进的RetinaNet方法的识别结果(%)

    Table  8.   Recognition results of HA-AGA and the improved RetinaNet method (%)

    类别改进的RetinaNetHA-AGA
    精确率/召回率/F测度精确率/召回率/F测度
    行人98.1/95.6/96.899.0/96.8/97.9
    电动车87.4/92.0/89.695.5/98.8/97.1
    自行车81.8/56.3/66.795.0/79.2/86.4
    小汽车80.2/84.5/82.398.1/98.5/98.3
    货车82.3/67.1/73.993.5/89.5/91.5
    公交车83.8/88.7/86.292.9/94.9/93.9
    平均值85.6/80.7/82.695.7/93.0/94.2
    下载: 导出CSV

    表  9  CARRADA数据集雷达参数[30]

    Table  9.   Radar parameters of CARRADA dataset[30]

    参数数值
    载频(GHz)77
    带宽(GHz)4
    最大距离(m)50
    FFT距离分辨率(m)0.20
    最大径向速度(m/s)13.43
    FFT径向速度分辨率(m/s)0.42
    每个脉冲采样点数256
    帧脉冲数64
    下载: 导出CSV

    表  10  CARRADA数据集描述

    Table  10.   CARRADA dataset description

    类别标签训练集(帧)测试集(帧)
    行人123831021
    自行车21309561
    小汽车323931026
    下载: 导出CSV

    表  11  不同算法优选后的特征组合

    Table  11.   Feature combination of different algorithms after optimization

    特征选择算法优选后特征组合
    IG-GAf2,f4,f7,f8,f12,f13,f18,f20,f22,f23,f26
    ReliefF-IAGAf1,f4,f5,f7,f8,f12,f13,f18,f23,f26,f27,f30
    HA-AGAf1,f2,f3,f4,f6,f7,f8,f12,f13,f17,f18,f21,f23,f28
    下载: 导出CSV

    表  12  各算法结合集成装袋树优选后识别结果(CARRADA)(%)

    Table  12.   Recognition result of different algorithms combined with integrated bagging tree after optimization (CARRADA) (%)

    类别未优选IG-GAReliefF-IAGAHA-AGA
    精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度
    行人90.3/93.3/91.890.5/94.4/92.489.8/94.4/92.191.7/95.2/93.4
    自行车85.1/83.4/84.387.2/83.6/85.487.2/82.4/84.789.5/85.4/87.4
    小汽车97.6/95.4/96.597.6/95.6/96.697.4/95.4/96.497.7/96.5/97.1
    平均值91.0/90.7/90.991.8/91.2/91.591.5/90.7/91.193.0/92.4/92.7
    下载: 导出CSV

    表  13  各算法结合精细树优选后识别结果(CARRADA)(%)

    Table  13.   Recognition result of different algorithms combined with fine tree after optimization (CARRADA) (%)

    类别未优选IG-GAReliefF-IAGAHA-AGA
    精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度
    行人87.5/86.7/87.186.9/86.6/86.884.0/88.0/86.088.0/87.3/87.7
    自行车74.8/80.6/77.671.4/80.4/75.673.5/76.3/74.972.8/83.1/77.6
    小汽车95.5/92.4/93.996.5/90.2/93.296.2/89.8/92.997.6/90.9/94.2
    平均值85.9/86.6/86.284.9/85.7/85.284.5/84.7/84.686.0/87.1/86.5
    下载: 导出CSV

    表  14  各算法结合KNN优选后识别结果(CARRADA)(%)

    Table  14.   Recognition result of different algorithms combined with KNN after optimization (CARRADA) (%)


    类别
    未优选IG-GAReliefF-IAGAHA-AGA
    精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度精确率/召回率/F测度
    行人84.9/86.2/85.588.1/87.5/87.886.5/84.4/85.588.7/88.7/88.7
    自行车76.4/75.4/75.976.7/75.6/76.274.1/75.9/75.076.9/79.1/78.0
    小汽车93.0/92.2/92.693.4/94.7/94.192.4/93.4/92.993.1/91.6/92.3
    平均值84.8/84.6/84.786.1/85.9/86.084.3/84.6/84.586.2/86.5/86.4
    下载: 导出CSV
  • [1] PATOLE S M, TORLAK M, WANG Dan, et al. Automotive radars: A review of signal processing techniques[J]. IEEE Signal Processing Magazine, 2017, 34(2): 22–35. doi: 10.1109/MSP.2016.2628914
    [2] 周刚, 吴杰. 汽车防撞毫米波雷达系统参数优化设计[J]. 电讯技术, 2011, 51(7): 77–80. doi: 10.3969/j.issn.1001-893x.2011.07.016

    ZHOU Gang and WU Jie. Parameters optimized design of automobile anti-collision millimeter wave radar system[J]. Telecommunication Engineering, 2011, 51(7): 77–80. doi: 10.3969/j.issn.1001-893x.2011.07.016
    [3] 元志安, 周笑宇, 刘心溥, 等. 基于RDSNet的毫米波雷达人体跌倒检测方法[J]. 雷达学报, 2021, 10(4): 656–664. doi: 10.12000/JR21015

    YUAN Zhian, ZHOU Xiaoyu, LIU Xinpu, et al. Human fall detection method using millimeter-wave radar based on RDSNet[J]. Journal of Radars, 2021, 10(4): 656–664. doi: 10.12000/JR21015
    [4] ZHAO Yan, ZHAO Lingjun, XIONG Boli, et al. Attention receptive pyramid network for ship detection in SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 2738–2756. doi: 10.1109/JSTARS.2020.2997081
    [5] MIAO Tian, ZENG Hongcheng, YANG Wei, et al. An improved lightweight RetinaNet for ship detection in SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15: 4667–4679. doi: 10.1109/JSTARS.2022.3180159
    [6] WANG Chenxi, CHEN Zhichao, CHEN Xin, et al. Detection of MMW radar target based on Doppler characteristics and deep learning[C]. IEEE International Conference on Artificial Intelligence and Industrial Design, Guangzhou, China, 2021: 266–271.
    [7] ZHANG Tianwen, ZHANG Xiaoling, KE Xiao, et al. HOG-ShipCLSNet: A novel deep learning network with HOG feature fusion for SAR ship classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5210322. doi: 10.1109/TGRS.2021.3082759
    [8] SOROWKA P and ROHLING H. Pedestrian classification with 24 GHz chirp sequence radar[C]. 2015 16th International Radar Symposium, Munich, Germany, 2015: 167–173.
    [9] 余月琴. 车载毫米波雷达行人识别算法研究[D]. [硕士论文], 电子科技大学, 2020: 11–15.

    YU Yueqin. Research on pedestrian recognition algorithm of automobile millimeter wave radar[D]. [Master dissertation], University of Electronic Science and Technology of China, 2020: 11–15.
    [10] HEUEL S and ROHLING H. Pedestrian classification in automotive radar systems[C]. 2012 13th International Radar Symposium, Warsaw, Poland, 2012: 39–44.
    [11] LANDGREBE D A. Signal Theory Methods in Multispectral Remote Sensing[M]. Hoboken, USA: Wiley, 2003.
    [12] EL AKADI A, AMINE A, EL OUARDIGHI A E, et al. A two-stage gene selection scheme utilizing MRMR filter and GA wrapper[J]. Knowledge and Information Systems, 2011, 26(3): 487–500. doi: 10.1007/s10115-010-0288-x
    [13] TEKELI B, GURBUZ S Z, and YUKSEL M. Information-theoretic feature selection for human Micro-Doppler signature classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(5): 2749–2762. doi: 10.1109/TGRS.2015.2505409
    [14] JOLLIFFE I T. Principal Component Analysis[M]. 2nd ed. New York, USA: Springer, 2002: 1–9.
    [15] WANG Zigeng, XIAO Xia, and RAJASEKARAN S. Novel and efficient randomized algorithms for feature selection[J]. Big Data Mining and Analytics, 2020, 3(3): 208–224. doi: 10.26599/BDMA.2020.9020005
    [16] GÜRBÜZ S Z, TEKELI B, KARABACAK C, et al. Feature selection for classification of human Micro-Doppler[C]. IEEE International Conference on Microwaves, Communications, Antennas and Electronic Systems, Tel Aviv, Israel, 2013: 1–5.
    [17] WU Yanwei, JIANG Mian, PEI Xiaoshuai, et al. Feature selection and decision fusion methods in target recognition[C]. IET International Radar Conference, Chongqing, China, 2021: 687–690.
    [18] XIAO Peng, WANG Zigeng, and RAJASEKARAN S. Novel speedup techniques for parallel singular value decomposition[C]. 2018 IEEE 20th International Conference on High Performance Computing and Communications; IEEE 16th International Conference on Smart City; IEEE 4th International Conference on Data Science and Systems, Exeter, UK, 2018: 188–195.
    [19] CHANDRASHEKAR G and SAHIN F. A survey on feature selection methods[J]. Computers & Electrical Engineering, 2014, 40(1): 16–28. doi: 10.1016/j.compeleceng.2013.11.024
    [20] WANG Yunyan, ZHUO Tong, ZHANG Yu, et al. Hierarchical polarimetric SAR image classification based on feature selection and Genetic algorithm[C]. 2014 12th International Conference on Signal Processing (ICSP), Hangzhou, China, 2014: 764–768.
    [21] BHANU B and LIN Yingqiang. Genetic algorithm based feature selection for target detection in SAR images[J]. Image and Vision Computing, 2003, 21(7): 591–608. doi: 10.1016/S0262-8856(03)00057-X
    [22] SENTHILNATH J, OMKAR S N, MANI V, et al. Multi-sensor satellite remote sensing images for flood assessment using swarm intelligence[C]. 2015 International Conference on Cognitive Computing and Information Processing, Noida, India, 2015: 1–5.
    [23] LIANG Kui, DAI Wei, and DU Rui. A feature selection method based on improved genetic algorithm[C]. 2020 Global Reliability and Prognostics and Health Management (PHM-Shanghai), Shanghai, China, 2020: 1–5.
    [24] LI Yinghao, SHI Kai, QIAO Fuqiang, et al. A feature subset selection method based on the combination of PCA and improved GA[C]. 2020 2nd International Conference on Machine Learning, Big Data and Business Intelligence (MLBDBI), Taiyuan, China, 2020: 191–194.
    [25] YANG B S, HAN Tian, and YIN Zhongjun. Fault diagnosis system of induction motors using feature extraction, feature selection and classification algorithm[J]. JSME International Journal Series C:Mechanical Systems, Machine Elements and Manufacturing, 2006, 49(3): 734–741. doi: 10.1299/jsmec.49.734
    [26] LIU Ming, DING Xiangqian, YU Shusong, et al. Research on feature selection in near-infrared spectroscopy classification based on improved adaptive genetic algorithm combined with ReliefF[C]. 2017 9th International Conference on Intelligent Human-Machine Systems and Cybernetics (IHMSC), Hangzhou, China, 2017: 403–406.
    [27] YANG Jianyong and YAN Ruqiang. A multidimensional feature extraction and selection method for ECG arrhythmias classification[J]. IEEE Sensors Journal, 2021, 21(13): 14180–14190. doi: 10.1109/JSEN.2020.3047962
    [28] THEJASWEE M, SRILAKSHMI P, KARUNA G, et al. Hybrid IG and GA based feature selection approach for text categorization[C]. 2020 4th International Conference on Electronics, Communication and Aerospace Technology (ICECA), Coimbatore, India, 2020, 1606–1613.
    [29] DELON J, DESOLNEUX A, LISANI J L, et al. A nonparametric approach for histogram segmentation[J]. IEEE Transactions on Image Processing, 2007, 16(1): 253–261. doi: 10.1109/TIP.2006.884951
    [30] OUAKNINE A, NEWSON A, REBUT J, et al. CARRADA dataset: Camera and automotive Radar with range- angle- Doppler annotations[C]. 2020 25th International Conference on Pattern Recognition (ICPR), Milan, Italy, 2021: 5068–5075.
    [31] WHITLEY D. A genetic algorithm tutorial[J]. Statistics and Computing, 1994, 4(2): 65–85. doi: 10.1007/BF00175354
    [32] SAITO T and REHMSMEIER M. The precision-recall plot is more informative than the ROC plot when evaluating binary classifiers on imbalanced datasets[J]. PLoS One, 2015, 10(3): e0118432. doi: 10.1371/journal.pone.0118432
  • 加载中
图(13) / 表(14)
计量
  • 文章访问数: 
  • HTML全文浏览量: 
  • PDF下载量: 
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-12-31
  • 修回日期:  2023-02-22
  • 网络出版日期:  2023-03-13
  • 刊出日期:  2023-10-28

目录

/

返回文章
返回