Feature Selection Method of Radar-based Road Target Recognition via Histogram Analysis and Adaptive Genetics
-
摘要: 在雷达道路目标识别领域,目标类别多变且特性相近时增加目标特征维数是一种提高识别性能常用的手段。然而特征维数的增多会导致特征冗余和维数灾难,因此需对提取的高维特征集进行优选,基于随机搜索的自适应遗传算法(AGA)是一种有效的特征优选方法。为提升AGA算法的特征优选效率和精度,现有方法通常通过引入特征与目标种类的先验相关度对高维特征集进行预降维,然而此类算法仅考虑了单个特征与目标的相关性,忽略了特征组合与目标类别的匹配度,使得优选出的特征集不一定是目标的最佳识别组合。针对该问题,该文通过引入直方图分析对不同特征组合与目标类别的匹配度加以研究,提出了一种新的改进自适应遗传(HA-AGA)特征优选方法,在提升特征优选效率和精度的同时提升目标的识别性能。基于毫米波雷达实测数据集的对比实验表明,所提出的HA-AGA方法的目标识别平均精确率可达到95.7%,分别比IG-GA, ReliefF-IAGA和改进RetinaNet方法提升了1.9%, 2.4%和10.1%。基于公共数据集CARRADA的对比实验表明,所提出的HA-AGA方法的目标识别平均精确率达到93.0%,分别比IG-GA和ReliefF-IAGA方法提升了1.2%和1.5%,验证了所提方法的有效性和优越性。此外,还进行了不同特征优选方法分别结合集成装袋树、精细树和K-最邻近(KNN)分类器的性能对比,实验结果表明所提方法结合不同分类器均具有明显优势,具有一定的广泛适用性。Abstract: In radar-based road target recognition, the increase in target feature dimension is a common technique to improve recognition performance when targets become diverse, but their characteristics are similar. However, the increase in feature dimension leads to feature redundancy and dimension disasters. Therefore, it is necessary to optimize the extracted high-dimensional feature set. The Adaptive Genetic Algorithm (AGA) based on random search is an effective feature optimization method. To improve the efficiency and accuracy of the AGA, the existing improved AGA methods generally utilize the prior correlation between features and targets for pre-dimensionality reduction of high-dimensional feature sets. However, such algorithms only consider the correlation between a single feature and a target, neglecting the correlation between feature combinations and targets. The selected feature set may not be the best recognition combination for the target. Thus, to address this issue, this study proposes an improved AGA via pre-dimensionality reduction based on Histogram Analysis (HA) of the correlation between different feature combinations and targets. The proposed method can simultaneously improve the efficiency and accuracy of feature selection and target recognition performance. Comparative experiments based on a real dataset of the millimeter-wave radar showed that the average accuracy of target recognition of the proposed HA-AGA method could reach 95.7%, which is 1.9%, 2.4%, and 10.1% higher than that of IG-GA, ReliefF-IAGA, and improved RetinaNet methods, respectively. Comparative experiments based on the CARRADA dataset showed that the average accuracy of target recognition of the proposed HA-AGA method could reach 93.0%, which is 1.2% and 1.5% higher than that of IG-GA and ReliefF-IAGA methods, respectively. These results verify the effectiveness and superiority of the proposed method compared with existing methods. In addition, the performance of different feature optimization methods coupled with the integrated bagging tree, fine tree, and K-Nearest Neighbor (KNN) classifier was compared. The experimental results showed that the proposed method exhibits evident advantages when coupled with different classifiers and has broad applicability.
-
1. 引言
分布式多雷达系统节点多、分布广,为了适应复杂战场动态作战需求,需要根据作战任务动态组织各个站点的工作,提高整个系统抗干扰、抗截获、抗摧毁等能力。实际中,受各雷达节点工作参数及相对目标的位置等因素的影响,不同节点观测目标获得的信息量不同,为此,如何根据战场态势,动态优化选择雷达站点“匹配”目标跟踪,是一个重要问题。
目标跟踪理论是基于状态空间模型的递推结构,利用所有已知信息来求得目标状态变量的后验概率密度。即使用目标运动状态方程预测目标状态的先验概率,再利用最新时刻的雷达观测值来修正,得到状态的后验概率密度。传统多雷达跟踪通常使用所有雷达进行目标跟踪[1,2],研究的重点在于融合结构和融合算法[1,2],在传感器优化选取方面研究较少,目前,主要有基于目标预测的误差协方差矩阵[3,4]和信息增益[5]这两类优化准则的方法。第1类方法主要思想是依据目标跟踪的实际误差协方差矩阵与预设的期望协方差矩阵之间的差别进行雷达节点选择,使实际协方差矩阵在某种意义上逼近期望协方差矩阵;第2类方法主要思想是通过一个测量行为执行前后信息熵的减少求得信息增量,然后根据使信息增量最大的准则对传感器资源进行科学合理的分配。然而,第1类方法,实际中目标跟踪误差协方差矩阵的变化是相对缓慢的,灵敏度并不高,因此选择标准的精度不高;第2类方法仅是基于单部雷达的跟踪效果进行雷达的选取,并不能适用于雷达组合的选择。
本文提出了使用信息熵定量度量由多雷达联合观测获得的目标的信息量,并给出了该信息量的下界。以此为基础,本文提出基于信息熵的雷达动态自适应选择跟踪方法,该方法通过最小化观测信息熵下界,实时选择信息量高的多个雷达节点进行目标跟踪,从而避免使用信息量低或无信息量的雷达量测。最后,仿真结果表明提出方法的跟踪效果优于任意选择雷达跟踪的平均效果。
本文结构如下。第2节建立了多雷达跟踪目标的状态空间模型。第3节给出了多雷达观测信息熵的定量度量方法及其下界,进而理论推导了雷达动态自适应选择跟踪方法。第4节仿真对比了不同跟踪方法的效果。第5节为结束语。
2. 问题描述
在目标跟踪中,通常使用动态空间模型对目标的运动状态进行描述,包括状态方程和量测方程。其中,状态方程描述了目标运动状态随时间演变的过程,量测方程描述了雷达观测与目标状态的关系。其中,目标运动的状态方程为:
X(k)=f(X(k−1))+V(k) (1) 其中,X(k)为k时刻目标的状态,f为状态转移函数,V(k)为零均值、协方差矩阵为Q(k)的白色高斯过程噪声序列。
雷达通常在2维或3维极坐标系中获得观测值,而目标运动则是在直角坐标系中描述[3,4]。假设目标运动在2维平面,雷达在极坐标系下获得探测目标的观测值。针对任意的多雷达探测系统构型,并且不失一般性,考虑各雷达自发自收的情况,k时刻第n部雷达的观测向量记为Zn(k)=[rn(k) an(k)]T。其中,rn(k)为第n部雷达与目标之间的径向距离,an(k)为第n部雷达与目标之间的方位角。由N部雷达组成的多雷达系统形成的观测集合Z(k)={Z1(k) Z2(k) ··· ZN(k)},对应的观测方程为:
Zn(k)=hn(X(k))+Wn(k),n=1,2,···,N (2) 其中,hn(X(k))为观测函数,具体计算方程为:
hn(X(k))=[√(x(k)−xr,n)2+(y(k)−yr,n)2arctan[(y(k)−yr,n)/(x(k)−xr,n)]] (3) 其中,(x(k) y(k))为k时刻目标在直角坐标系中的位置,(
xr,n ,yr,n )为第n部接收雷达的直角坐标位置。并且,xr,n 为位置的横坐标,yr,n 为位置的纵坐标。Wn(k)为与过程噪声不相关的测量噪声,Wn(k)= [wrn(k) wan(k)]T ,测距噪声wrn(k) 和方位角测角噪声wan(k) 是均值为零、标准差分别为σrn 和σan 的统计独立的高斯白噪声,其中σrn 表征了第n部雷达径向距离测量值误差的波动大小,σan 表征了第n部雷达方位角测量值误差的波动大小。相应的观测协方差矩阵
Rn(k) 为:Rn(k)=E(Wn(k)Wn(k)T)=[(σrn)200(σan)2] (4) 基于上述目标状态方程和观测方法,通常使用所有雷达进行目标跟踪,然而实际中不同雷达观测目标获得的信息量不同,有高有低,甚至有些雷达没有观测到任何目标信息,为此,需要从这些雷达中选择出信息含量高的雷达进行目标跟踪,提高目标跟踪效果。
3. 基于信息熵的多雷达节点自适应选择跟踪
3.1 多雷达联合观测信息熵及其下界
由N部雷达组成的多雷达系统的观测量可以表示为
r=[rn]1×N ,a=[an]1×N ,每个观测量为:rn=Rn+wrn (5) an=An+wan (6) 其中,
Rn , An分别为目标相对于第n部雷达的真实距离和角度,并且雷达n的目标距离观测噪声wrn∼N(0,(σrn)2) ,测角噪声wan∼N(0,(σan)2) 。在N部雷达构成的多雷达系统极坐标观测的条件下,目标直角坐标位置估计协方差矩阵记为:
RN,xy=E[(x−ˆx)(x−ˆx)(x−ˆx)(y−ˆy)(x−ˆx)(y−ˆy)(y−ˆy)(y−ˆy)] (7) 多雷达观测是为了更多更准确地获得目标位置信息,将由多雷达的极坐标系观测获得目标直角坐标位置的信息量,定义为多雷达联合观测信息熵,根据信息论原理,推导得N部雷达观测信息熵为:
HN(x,y|r,a)=12ln((2πe)N|RN,xy|) (8) 根据参数估计理论[6],由式(8)可知,多雷达联合观测信息熵下界为:
HN(x,y|r,a)≥12ln((2πe)N|I−1N(x,y|r,a)|) (9) 其中,
IN(x,y|r,a) 为Fisher信息矩阵。根据参数估计理论[6],式(9)中Fisher信息矩阵可以写为:\begin{align} &\!\!\!{{{{I}}}\!_N}\left( {x,y|{{{r}}},{{{a}}}} \right) \!\\[ &\!\!\! =\!\! \left[\!\!\!\! {\begin{array}{*{20}{c}} { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {x^2}}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial y\partial x}}} \right]}\\ { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial x\partial y}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {y^2}}}} \right]} \end{array}} \!\!\!\right] \end{align} (10) 其中,fN(r, a)为由N部自发自收雷达组成的多雷达系统观测的联合概率密度函数。假设各个观测值独立不相关,那么根据式(5),式(6)中各个雷达观测服从的概率分布可知,联合概率密度函数fN(r, a)为:
fN(r,a)=N∏n=11√2πσrnexp(−|rn−Rn|22(σrn)2)⋅1√2πσanexp(−|an−An|22(σan)2) (11) 由式(9)、式(10)及式(11)可知,在目标距离雷达站较远时,影响多雷达极坐标量测的信息熵下界的因素包括各雷达站与目标距离、方位角,以及各雷达站的测距精度和测角精度。
3.2 基于信息熵的多雷达联合跟踪方法描述
根据贝叶斯理论可知目标跟踪主要过程为,首先使用目标运动状态方程进行预测,获得目标状态的先验信息,然后再结合最新时刻的观测值来更新预测值,获得目标状态的后验概率密度,这样后验概率密度就包含了先验信息和观测在内的所有可利用信息,获得目标状态估计结果。因而,目标跟踪过程可理解为:后验=先验+观测,这表示调节观测会影响目标状态估计结果。
本文提出的基于信息熵的雷达节点自适应选择跟踪方法通过使用信息含量高的雷达节点而不是全部雷达节点进行目标跟踪,从而避免使用信息含量少甚至没有目标信息的雷达,有效提高目标跟踪效果。本文提出的方法在确定要选择的雷达站数目的情况下,通过最小化多雷达观测信息熵下界对每个时刻的雷达编号进行选择,然后使用所选取的信息量高的雷达对目标进行联合跟踪,从而获得较高的目标跟踪精度。
不失一般性,假设多雷达系统中共N部雷达,并且自发自收,在目标k时刻多雷达联合跟踪获得的目标状态估计值为
ˆX(k|k) ,P(k|k) ,那么由k时刻递推到k+1时刻目标状态估计的过程描述如下。•多雷达的选择
在k+1时刻的多个观测量中找出那些具有大的信息量的观测,利用这些观测量来更有效地提高目标跟踪精度。本文以信息熵下界最小,每个时刻自适应从多雷达观测信息熵中选出数值最小的两部(或多部)雷达编号,然后用于目标跟踪。
假设所选雷达站个数为N0(N0<N),那么计算N部雷达中任意N0部雷达的观测信息熵下界,形成
CN0N 个观测信息熵结果,进而选取具有最小观测信息熵下界的N0部雷达的编号集ˆΘ ,用这一编号集中的雷达进行多雷达站联合跟踪。为此,由式(9)可得雷达编号集为:ˆΘ=argminΘ12ln((2πe)N0|I−1N0(x,y|r,a)|) (12) 由于函数ln(·)单调递增,式(12)中
ˆΘ 的求解等价为:ˆΘ=argmaxΘ|IN0(x,y|r,a)| (13) 其中,
IN0 (x, y|r, a)为N0部雷达观测获得目标位置状态估计的Fisher信息矩阵,其求解过程与3.1节中的求N部雷达的类似,仅需要将式(11)中的N部雷达观测的联合概率密度函数替换为N0部雷达观测的联合概率密度函数,其表示为:fN0(rN0,aN0)=∏n∈Θ1√2πσrne(−|rn−Rn|22(σrn)2)⋅1√2πσane(−|an−An|22(σan)2) (14) 式中,
rN0,aN0 分别为N0部雷达距离和方位角观测集,Θ 为N部雷达中任意N0部雷达组成的集合,共有CN0N 个。其余参数含义同3.1节。目前的多雷达融合跟踪算法都与融合结构密切相关,融合结构大致分成3大类:集中式、分布式和混合式[7]。集中式融合也称为中心式融合(centralized fusion)或量测融合(measurement fusion)。分布式融合(distributed fusion)是各传感器都具有自己的局部处理器,能够形成局部航迹,所以在融合中心也主要是对各局部航迹进行融合,所以这种融合方法通常也称为航迹融合(track fusion)。混合式融合(hybrid fusion)是集中式结构和分布式结构的一种综合,融合中心得到的可能是原始量测数据,也可能是局部节点处理过的数据。
在选择完所用的雷达编号后,可采用这3种融合结构的任何一种进行目标融合跟踪,本文以航迹级融合为例,主要步骤包括使用上一时刻目标融合的位置状态估计对时刻k+1目标状态进行预测,然后使用所选择雷达分别对k+1时刻目标状态进行更新,最后对所选取的雷达的k+1时刻目标状态估计进行融合,获得目标k+1时刻状态估计结果。更为具体的算法描述如下。
•目标状态预测
从最优贝叶斯跟踪滤波的角度来看,在获得k时刻的观测值之前,根据目标运动状态转移模型,目标状态预测实现先验概率
p(X(k)|Z1:k) 到p(X(k+1)|Z1:k) 的求解[8]。假设在k–1时刻,p(X(k)|Z1:k) 是已知的,那么,对于1阶马尔可夫过程(即该时刻的状态仅与上一时刻的状态值有关,而与之前所有时刻的状态值无关),由Chapman- Kolmogorov方程可知p(X(k+1)|Z1:k)=∫p(X(k+1)|X(k))⋅p(X(k)|Z1:k)dX(k) (15) 其中,
p(X(k+1)|X(k)) 为目标状态转移概率,Z1:k 表示从1到k时刻观测量的集合,即Z1:k= {Z(1),Z(2),···,Z(k)} 。根据目标运动方程,可得式(15)中的目标状态转移概率为:p(X(k+1)|X(k))=N(X(k+1);f(X(k)),Q(k)) (16) 式中,
N(X(k+1);f(X(k)),Q(k)) 表示均值为f(X(k)) ,协方差矩阵为Q(k) 的高斯分布。上述最优贝叶斯跟踪下的目标状态预测过程的具体实现可以采用转换量测卡尔曼滤波(CMKF)、基于泰勒展开式的扩展卡尔曼滤波[9–11](Extended Kalman Filter, EKF),不敏卡尔曼滤波[12](Unscented Kalman Filter, UKF),粒子滤波[13](PF)等滤波方法中的目标状态预测过程。以EKF预测方法为例,目标状态的一步预测为:
ˆX(k+1|k)=f(ˆX(k|k)) (17) 相应地,状态误差协方差矩阵的一步预测为:
P(k+1|k)=fX(k)P(k|k)fTX(k)+Q(k) (18) 其中,fX(k)为目标状态转移函数关于
ˆXn (k|k)的雅可比矩阵,Q(k)为白色高斯过程噪声序列的协方差矩阵。•目标状态更新
从最优贝叶斯跟踪滤波的角度来看,目标状态更新是在获得k+1时刻的观测值后,实现先验概率
p(X(k+1)|Z1:k) 至后验概率p(X(k+1)|Z1:k+1) 的推导。根据贝叶斯定理可知p(X(k+1)|Z1:k+1)=p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)∫p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)dX(k+1) (19) 其中,根据跟踪滤波的雷达观测模型,式(19)中的似然函数
p(Z(k+1)|X(k+1)) 表达式为:p(Z(k+1)|X(k+1))=N(Z(k+1);h(X(k+1)),R(k+1)) (20) 式中,N(Z(k+1); h(X(k+1)), R(k+1))表示均值为h(X(k+1)),协方差矩阵为R(k+1)的高斯分布。
同样地,上述最优贝叶斯跟踪下的目标状态更新过程的具体实现可以采用CMKF, EKF, UKF, PF等滤波方法中的目标状态更新过程。本文以EKF目标状态更新过程为例进行描述。
将k+1时刻多雷达观测中的每部雷达观测分别代入滤波中的状态更新,得到对应每部雷达观测的多个目标状态更新值,并将使用第n部雷达观测得到的k+1时刻目标状态更新值记作
ˆX n(k+1|k+1), Pn(k+1|k+1)。具体过程如下:由目标跟踪的状态空间方程中的观测方程,可得观测值和观测新息协方差矩阵预测为:
ˆZn(k+1|k)=hn(ˆX(k+1|k)) (21) Sn(k+1|k)=hn,X(k+1)Pn(k+1|k)⋅hTn,X(k+1)+Rn(k+1) (22) 其中,
hn,X(k+1) 为量测函数关于ˆX n(k+1|k)的雅可比矩阵,即hn,X(k+1)=[∇XhTn(X(k+1))]TX=ˆX(k+1|k)=[x(k+1|k)r(k+1|k)0y(k+1|k)r(k+1|k)0y(k+1|k)(r(k+1|k))20x(k+1|k)(r(k+1|k))20]X=ˆX(k+1|k) (23) EKF滤波方法的增益为:
Pn,XZ=Pn(k+1|k)hn,X(k+1) (24) Kn(k+1)=Pn,XZSn(k+1|k)−1 (25) 空间目标状态和协方差矩阵的更新值分别为:
ˆXn(k+1|k+1)=ˆX(k+1|k)+Kn(k+1)⋅[Zn(k+1)−ˆZn(k+1|k)] (26) Pn(k+1|k+1)=[I−Kn(k+1)hn,X(k+1)]⋅P(k+1|k)[I+Kn(k+1)hn,X(k+1)]T−Kn(k+1)Rn(k+1)KTn(k+1) (27) 其中,I为4阶单位矩阵,其余变量的含义如上。经由以上步骤,得到了目标在k+1时刻的使用雷达n观测的状态估计
ˆXn (k+1|k+1)及状态协方差矩阵Pn(k+1|k+1)。•多雷达跟踪航迹融合
将选出的N0部雷达的目标状态更新结果进行融合,得到最后的目标状态融合结果作为k+1时刻目标状态估计值。设选择的融合雷达编号集合为
Ω ,并且采用广义凸组合融合1(Generalized Convex Combination 1, GCC1),有时也称为简单凸组合融合(Simple Convex Combination, SCC)[1,2,14],得到的融合结果为:ˆX(k+1|k+1)=P(k+1|k+1)⋅∑n∈ΩP−1n(k+1|k+1)ˆXn(k+1|k+1) (28) P(k+1|k+1)=(∑n∈ΩP−1n(k+1|k+1))−1 (29) 重复以上步骤直至跟踪结束,便可得到利用雷达观测信息熵下界自适应选择雷达节点,实现目标跟踪的整个过程。
4. 仿真分析
4.1 参数设置
在目标跟踪中,航迹精度是对跟踪滤波算法性能进行评估的重要指标。航迹精度体现了不同滤波方法对雷达测量误差的平滑程度。概括来讲,航迹精度包括位置精度和速度精度,航迹的位置精度定义为航迹位置估计的均方根误差。目标状态估计的均方根误差越小,滤波器的滤波值与真实值越接近,航迹精度则越高[8]。
第m次蒙特卡诺仿真得到滤波估计误差为:
em(k)=ˆXm(k|k)−X(k) (30) 其中,
ˆX m (k+1|k+1)和X(k)分别为k时刻目标状态的跟踪结果和真实值。目标跟踪位置和速度估计的均方根误差分别为:
RMSEPOS(k)=(1MCMC∑m=1[ˆxm(k|k)−x(k)]2+[ˆym(k|k)−y(k)]2)1/2 (31) \begin{align} {\rm RMSE}_{\rm VEL}\left( k \right) =& \left( \frac{1}{{\rm MC}}\sum\limits_{m = 1}^{\rm MC} {{\left[ {v{{\hat x}_m}\left( {k|k} \right) - vx\left( k \right)} \right]}^2} \right. \\ & + \left. {{\left[ {v{{\hat y}_m}\left( {k|k} \right) - vy\left( k \right)} \right]}^2} \Biggr\right)^{1/2} \end{align} (32) 其中,向量
(ˆxm ˆym ˆzm) 和(x y z) 分别为目标在k时刻的位置估计值和真实值,向量(vˆxm vˆym vˆzm) 和(vx vy vz) 分别为目标在k时刻的速度估计值和真实值,下标m表示第m次蒙特卡诺仿真,MC为总的蒙特卡诺仿真次数,本文设置为200,并且各部雷达的测距和测角误差方差分别为σ2r=25 m2 ,σ2θ= 0.0003 rad2。假设在多雷达系统中共有4部雷达,它们在直角坐标系中的位置为:雷达1为(0, 0)、雷达2为(20000, 0) m、雷达3为(20000, 0) m和雷达4为(1000, 20000) m。设置的4部雷达站位置与目标航迹如图1所示。其中,目标运动时间为40 s,运动间隔为1 s,并在前26 s时间内目标做匀速直线运动,在26 s时目标进行了转弯,然后进行匀速直线运动,目标运动方向如图中箭头所示。
4.2 仿真与分析
为了仿真验证提出的方法,需要从场景中的4部雷达选择信息含量高的N0部雷达进行跟踪,而此个数在实际的多目标多任务复杂跟踪场景,需要进行合理设置。本文从验证提出的方法的角度出发,可以将N0进行人为设置。不失一般性,设计N0=2,即从4部雷达选出联合信息量最多的2部雷达进行联合跟踪。根据3.2节中雷达优化选择方法,可知不同时刻跟踪选择的雷达站编号如图2所示。
将基于联合信息量最大选出的两部雷达进行融合跟踪的方法记为“基于信息熵的联合跟踪”;将不采用信息量最大选择出的任意两部雷达跟踪的效果的平均记为“传统联合跟踪”。对比单部雷达跟踪、不采用和采用信息熵的联合跟踪效果,结果如图3和图4所示。
由图3和图4可知,采用基于两部联合信息量最大选出的雷达进行融合跟踪,得到的位置精度和速度精度最好,其次是不采用基于信息熵的任意两部雷达融合跟踪的平均效果,而单雷达跟踪效果最差。
5. 结束语
为了满足现代复杂战场动态作战需求,针对单雷达站信息量少跟踪精度不高,而多雷达系统中不同雷达、不同时刻获得目标信息量的多少不同的问题,提出一种基于信息熵的雷达动态自适应选择跟踪方法。该方法使用信息熵定量刻画了由多雷达极坐标观测获得目标直角坐标位置的信息量,并给出了其下界。进而,通过最小化雷达观测目标的信息熵下界,理论推导了每个时刻实时最优化选取目标信息含量高的雷达站进行跟踪的方法,具有良好的目标跟踪效果。
-
表 1 特征及其公式
Table 1. Features and formulas
序号 特征 公式 序号 特征 公式 1 峰值点距离 f1=rt 16 最大距离点速度与
峰值点速度差f16=f14−f11 2 平均距离 f2=1ss∑i=1ri 17 速度宽 f17=max(vi)−min(vi) 3 最小距离点距离 f3=min(ri) 18 速度维中值 f18=max(vi)+min(vi)2 4 最大距离点距离 f4=max(ri) 19 速度维方差 f19=1GG∑g=1(Ag−ˉAG)2 5 峰值点距离与最小距离差 f5=f1−f3 20 速度维熵 f20=−G∑g=1pglg(pg) 6 最大距离与峰值点距离差 f6=f4−f1 21 散射点个数 f21=s 7 距离宽 f7=max(ri)−min(ri) 22 距离宽比速度宽 f22=f7f17 8 距离维中值 f8=max(ri)+min(ri)2 23 能量密度 f23=1ss∑i=1A2i 9 距离维方差 f9=1GG∑g=1(Ag−ˉAG)2 24 波形熵 f24=−N−1∑n=0M−1∑m=0pn,mlg(pn,m) 10 距离维熵 f10=−G∑g=1pglg(pg) 25 2阶中心矩 f25=N−1∑n=0M−1∑m=0(n−ˉn)(m−ˉm)A(n,m) 11 峰值点速度 f11=vt 26 4阶中心矩 f26=N−1∑n=0M−1∑m=0(n−ˉn)2(m−ˉm)2A(n,m) 12 平均速度 f12=1ss∑i=1vi 27 信号幅值方差 f27=1ss∑i=1(Ai−ˉA)2 13 最小距离点速度 f13=vrmin 28 主分量能量 f28=n∑j=1main\_energyj 14 最大距离点速度 f14=vrmax 29 副分量能量 f29=s∑i=1A2i−n∑j=1main\_energyj 15 峰值点速度与最小
距离点速度差f15=f11−f13 30 主副能量比 f30=f28f29 表 2 实测数据集描述
Table 2. The real radar dataset description
类别 标签 训练集(帧) 测试集(帧) 行人 1 2981 1278 电动车 2 2727 1169 自行车 3 111 48 小汽车 4 1756 753 货车 5 1162 499 公交车 6 1486 637 表 3 雷达参数
Table 3. Radar parameters
参数 数值 载频(GHz) 24 带宽(MHz) 207.32 波形斜率(MHz/μs) 0.80986 采样率(MHz) 1 每个脉冲采样点数 256 帧脉冲数 128 接收通道数 4 帧持续时长(ms) 32.768 表 4 各算法优选后的特征组合
Table 4. Feature combination of different algorithms after optimization
特征选择算法 优选后特征组合 IG-GA f2, f8, f10, f11, f12, f22, f24, f26, f27, f28, f29 ReliefF-IAGA f1, f2, f3, f4, f5, f6, f8, f10, f12, f17, f18, f20, f22, f25 HA-AGA f1, f3, f5, f7, f8, f10, f11, f12, f14, f17, f20, f22, f23, f24 表 5 各算法结合集成装袋树优选后识别结果(实测数据集)(%)
Table 5. Recognition result of different algorithms combined with integrated bagging tree after optimization (Real radar dataset) (%)
类别 未优选 IG-GA ReliefF-IAGA HA-AGA 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 行人 99.0/95.7/97.3 98.3/96.7/97.5 98.4/96.6/97.5 99.0/96.8/97.9 电动车 94.3/99.1/96.6 95.3/98.2/96.7 95.5/98.1/96.8 95.5/98.8/97.1 自行车 87.2/70.8/78.2 92.5/77.1/84.1 85.7/75.0/80.0 95.0/79.2/86.4 小汽车 97.6/98.3/98.0 96.1/97.3/96.7 97.8/98.9/98.3 98.1/98.5/98.3 货车 94.8/85.4/90.0 91.2/84.1/87.5 91.4/84.3/87.7 93.5/89.5/91.5 公交车 90.4/95.9/93.1 89.1/92.2/90.7 89.2/93.2/91.2 92.9/94.9/93.9 平均值 93.9/91.1/92.2 93.8/90.9/92.2 93.3/91.0/91.9 95.7/93.0/94.2 表 6 各算法结合精细树优选后识别结果(实测数据集)(%)
Table 6. Recognition result of different algorithms combined with fine tree after optimization (Real radar dataset) (%)
类别 未优选 IG-GA ReliefF-IAGA HA-AGA 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 行人 99.1/94.3/96.6 99.1/94.2/96.6 99.5/94.0/96.7 99.3/94.7/97.0 电动车 92.3/98.9/95.6 92.5/99.0/95.6 92.5/98.9/95.7 92.7/99.0/95.7 自行车 75.6/64.6/70.0 84.6/68.8/75.9 88.4/70.2/78.2 89.5/70.8/79.1 小汽车 96.5/97.4/96.8 95.9/93.5/94.7 97.5/97.0/97.1 96.4/97.5/97.0 货车 86.2/76.7/81.2 83.7/84.9/84.3 88.6/78.6/83.3 89.6/80.4/84.8 公交车 82.9/90.0/86.3 88.4/89.2/88.8 85.3/91.6/88.3 86.8/91.4/89.0 平均值 88.7/87.0/87.8 90.7/88.3/89.3 92.0/88.3/89.9 92.4/89.0/90.4 表 7 各算法结合KNN优选后识别结果(实测数据集)(%)
Table 7. Recognition result of different algorithms combined with KNN after optimization (Real radar dataset) (%)
类别 未优选 IG-GA ReliefF-IAGA HA-AGA 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 行人 94.6/93.6/94.1 96.0/94.8/95.5 96.0/94.3/95.1 96.3/94.6/95.5 电动车 91.9/94.3/93.1 92.7/96.1/94.3 92.2/95.2/93.7 92.7/95.7/94.2 自行车 70.7/60.4/65.2 87.5/72.9/79.6 84.7/75.0/79.5 86.0/77.1/81.3 小汽车 96.7/96.6/96.7 96.7/95.8/96.3 96.1/97.0/96.5 96.7/97.1/97.0 货车 88.6/83.3/85.9 85.7/82.5/84.5 87.2/82.8/84.9 89.6/83.3/86.3 公交车 87.8/91.0/89.3 87.9/89.4/88.6 90.0/90.0/90.0 88.4/91.6/90.0 平均值 88.4/86.4/87.4 91.1/88.6/89.8 91.0/89.0/89.9 91.6/89.9/91.0 表 8 HA-AGA与改进的RetinaNet方法的识别结果(%)
Table 8. Recognition results of HA-AGA and the improved RetinaNet method (%)
类别 改进的RetinaNet HA-AGA 精确率/召回率/F测度 精确率/召回率/F测度 行人 98.1/95.6/96.8 99.0/96.8/97.9 电动车 87.4/92.0/89.6 95.5/98.8/97.1 自行车 81.8/56.3/66.7 95.0/79.2/86.4 小汽车 80.2/84.5/82.3 98.1/98.5/98.3 货车 82.3/67.1/73.9 93.5/89.5/91.5 公交车 83.8/88.7/86.2 92.9/94.9/93.9 平均值 85.6/80.7/82.6 95.7/93.0/94.2 参数 数值 载频(GHz) 77 带宽(GHz) 4 最大距离(m) 50 FFT距离分辨率(m) 0.20 最大径向速度(m/s) 13.43 FFT径向速度分辨率(m/s) 0.42 每个脉冲采样点数 256 帧脉冲数 64 表 10 CARRADA数据集描述
Table 10. CARRADA dataset description
类别 标签 训练集(帧) 测试集(帧) 行人 1 2383 1021 自行车 2 1309 561 小汽车 3 2393 1026 表 11 不同算法优选后的特征组合
Table 11. Feature combination of different algorithms after optimization
特征选择算法 优选后特征组合 IG-GA f2,f4,f7,f8,f12,f13,f18,f20,f22,f23,f26 ReliefF-IAGA f1,f4,f5,f7,f8,f12,f13,f18,f23,f26,f27,f30 HA-AGA f1,f2,f3,f4,f6,f7,f8,f12,f13,f17,f18,f21,f23,f28 表 12 各算法结合集成装袋树优选后识别结果(CARRADA)(%)
Table 12. Recognition result of different algorithms combined with integrated bagging tree after optimization (CARRADA) (%)
类别 未优选 IG-GA ReliefF-IAGA HA-AGA 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 行人 90.3/93.3/91.8 90.5/94.4/92.4 89.8/94.4/92.1 91.7/95.2/93.4 自行车 85.1/83.4/84.3 87.2/83.6/85.4 87.2/82.4/84.7 89.5/85.4/87.4 小汽车 97.6/95.4/96.5 97.6/95.6/96.6 97.4/95.4/96.4 97.7/96.5/97.1 平均值 91.0/90.7/90.9 91.8/91.2/91.5 91.5/90.7/91.1 93.0/92.4/92.7 表 13 各算法结合精细树优选后识别结果(CARRADA)(%)
Table 13. Recognition result of different algorithms combined with fine tree after optimization (CARRADA) (%)
类别 未优选 IG-GA ReliefF-IAGA HA-AGA 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 行人 87.5/86.7/87.1 86.9/86.6/86.8 84.0/88.0/86.0 88.0/87.3/87.7 自行车 74.8/80.6/77.6 71.4/80.4/75.6 73.5/76.3/74.9 72.8/83.1/77.6 小汽车 95.5/92.4/93.9 96.5/90.2/93.2 96.2/89.8/92.9 97.6/90.9/94.2 平均值 85.9/86.6/86.2 84.9/85.7/85.2 84.5/84.7/84.6 86.0/87.1/86.5 表 14 各算法结合KNN优选后识别结果(CARRADA)(%)
Table 14. Recognition result of different algorithms combined with KNN after optimization (CARRADA) (%)
类别未优选 IG-GA ReliefF-IAGA HA-AGA 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 精确率/召回率/F测度 行人 84.9/86.2/85.5 88.1/87.5/87.8 86.5/84.4/85.5 88.7/88.7/88.7 自行车 76.4/75.4/75.9 76.7/75.6/76.2 74.1/75.9/75.0 76.9/79.1/78.0 小汽车 93.0/92.2/92.6 93.4/94.7/94.1 92.4/93.4/92.9 93.1/91.6/92.3 平均值 84.8/84.6/84.7 86.1/85.9/86.0 84.3/84.6/84.5 86.2/86.5/86.4 -
[1] PATOLE S M, TORLAK M, WANG Dan, et al. Automotive radars: A review of signal processing techniques[J]. IEEE Signal Processing Magazine, 2017, 34(2): 22–35. doi: 10.1109/MSP.2016.2628914 [2] 周刚, 吴杰. 汽车防撞毫米波雷达系统参数优化设计[J]. 电讯技术, 2011, 51(7): 77–80. doi: 10.3969/j.issn.1001-893x.2011.07.016ZHOU Gang and WU Jie. Parameters optimized design of automobile anti-collision millimeter wave radar system[J]. Telecommunication Engineering, 2011, 51(7): 77–80. doi: 10.3969/j.issn.1001-893x.2011.07.016 [3] 元志安, 周笑宇, 刘心溥, 等. 基于RDSNet的毫米波雷达人体跌倒检测方法[J]. 雷达学报, 2021, 10(4): 656–664. doi: 10.12000/JR21015YUAN Zhian, ZHOU Xiaoyu, LIU Xinpu, et al. Human fall detection method using millimeter-wave radar based on RDSNet[J]. Journal of Radars, 2021, 10(4): 656–664. doi: 10.12000/JR21015 [4] ZHAO Yan, ZHAO Lingjun, XIONG Boli, et al. Attention receptive pyramid network for ship detection in SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 2738–2756. doi: 10.1109/JSTARS.2020.2997081 [5] MIAO Tian, ZENG Hongcheng, YANG Wei, et al. An improved lightweight RetinaNet for ship detection in SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15: 4667–4679. doi: 10.1109/JSTARS.2022.3180159 [6] WANG Chenxi, CHEN Zhichao, CHEN Xin, et al. Detection of MMW radar target based on Doppler characteristics and deep learning[C]. IEEE International Conference on Artificial Intelligence and Industrial Design, Guangzhou, China, 2021: 266–271. [7] ZHANG Tianwen, ZHANG Xiaoling, KE Xiao, et al. HOG-ShipCLSNet: A novel deep learning network with HOG feature fusion for SAR ship classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5210322. doi: 10.1109/TGRS.2021.3082759 [8] SOROWKA P and ROHLING H. Pedestrian classification with 24 GHz chirp sequence radar[C]. 2015 16th International Radar Symposium, Munich, Germany, 2015: 167–173. [9] 余月琴. 车载毫米波雷达行人识别算法研究[D]. [硕士论文], 电子科技大学, 2020: 11–15.YU Yueqin. Research on pedestrian recognition algorithm of automobile millimeter wave radar[D]. [Master dissertation], University of Electronic Science and Technology of China, 2020: 11–15. [10] HEUEL S and ROHLING H. Pedestrian classification in automotive radar systems[C]. 2012 13th International Radar Symposium, Warsaw, Poland, 2012: 39–44. [11] LANDGREBE D A. Signal Theory Methods in Multispectral Remote Sensing[M]. Hoboken, USA: Wiley, 2003. [12] EL AKADI A, AMINE A, EL OUARDIGHI A E, et al. A two-stage gene selection scheme utilizing MRMR filter and GA wrapper[J]. Knowledge and Information Systems, 2011, 26(3): 487–500. doi: 10.1007/s10115-010-0288-x [13] TEKELI B, GURBUZ S Z, and YUKSEL M. Information-theoretic feature selection for human Micro-Doppler signature classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(5): 2749–2762. doi: 10.1109/TGRS.2015.2505409 [14] JOLLIFFE I T. Principal Component Analysis[M]. 2nd ed. New York, USA: Springer, 2002: 1–9. [15] WANG Zigeng, XIAO Xia, and RAJASEKARAN S. Novel and efficient randomized algorithms for feature selection[J]. Big Data Mining and Analytics, 2020, 3(3): 208–224. doi: 10.26599/BDMA.2020.9020005 [16] GÜRBÜZ S Z, TEKELI B, KARABACAK C, et al. Feature selection for classification of human Micro-Doppler[C]. IEEE International Conference on Microwaves, Communications, Antennas and Electronic Systems, Tel Aviv, Israel, 2013: 1–5. [17] WU Yanwei, JIANG Mian, PEI Xiaoshuai, et al. Feature selection and decision fusion methods in target recognition[C]. IET International Radar Conference, Chongqing, China, 2021: 687–690. [18] XIAO Peng, WANG Zigeng, and RAJASEKARAN S. Novel speedup techniques for parallel singular value decomposition[C]. 2018 IEEE 20th International Conference on High Performance Computing and Communications; IEEE 16th International Conference on Smart City; IEEE 4th International Conference on Data Science and Systems, Exeter, UK, 2018: 188–195. [19] CHANDRASHEKAR G and SAHIN F. A survey on feature selection methods[J]. Computers & Electrical Engineering, 2014, 40(1): 16–28. doi: 10.1016/j.compeleceng.2013.11.024 [20] WANG Yunyan, ZHUO Tong, ZHANG Yu, et al. Hierarchical polarimetric SAR image classification based on feature selection and Genetic algorithm[C]. 2014 12th International Conference on Signal Processing (ICSP), Hangzhou, China, 2014: 764–768. [21] BHANU B and LIN Yingqiang. Genetic algorithm based feature selection for target detection in SAR images[J]. Image and Vision Computing, 2003, 21(7): 591–608. doi: 10.1016/S0262-8856(03)00057-X [22] SENTHILNATH J, OMKAR S N, MANI V, et al. Multi-sensor satellite remote sensing images for flood assessment using swarm intelligence[C]. 2015 International Conference on Cognitive Computing and Information Processing, Noida, India, 2015: 1–5. [23] LIANG Kui, DAI Wei, and DU Rui. A feature selection method based on improved genetic algorithm[C]. 2020 Global Reliability and Prognostics and Health Management (PHM-Shanghai), Shanghai, China, 2020: 1–5. [24] LI Yinghao, SHI Kai, QIAO Fuqiang, et al. A feature subset selection method based on the combination of PCA and improved GA[C]. 2020 2nd International Conference on Machine Learning, Big Data and Business Intelligence (MLBDBI), Taiyuan, China, 2020: 191–194. [25] YANG B S, HAN Tian, and YIN Zhongjun. Fault diagnosis system of induction motors using feature extraction, feature selection and classification algorithm[J]. JSME International Journal Series C:Mechanical Systems, Machine Elements and Manufacturing, 2006, 49(3): 734–741. doi: 10.1299/jsmec.49.734 [26] LIU Ming, DING Xiangqian, YU Shusong, et al. Research on feature selection in near-infrared spectroscopy classification based on improved adaptive genetic algorithm combined with ReliefF[C]. 2017 9th International Conference on Intelligent Human-Machine Systems and Cybernetics (IHMSC), Hangzhou, China, 2017: 403–406. [27] YANG Jianyong and YAN Ruqiang. A multidimensional feature extraction and selection method for ECG arrhythmias classification[J]. IEEE Sensors Journal, 2021, 21(13): 14180–14190. doi: 10.1109/JSEN.2020.3047962 [28] THEJASWEE M, SRILAKSHMI P, KARUNA G, et al. Hybrid IG and GA based feature selection approach for text categorization[C]. 2020 4th International Conference on Electronics, Communication and Aerospace Technology (ICECA), Coimbatore, India, 2020, 1606–1613. [29] DELON J, DESOLNEUX A, LISANI J L, et al. A nonparametric approach for histogram segmentation[J]. IEEE Transactions on Image Processing, 2007, 16(1): 253–261. doi: 10.1109/TIP.2006.884951 [30] OUAKNINE A, NEWSON A, REBUT J, et al. CARRADA dataset: Camera and automotive Radar with range- angle- Doppler annotations[C]. 2020 25th International Conference on Pattern Recognition (ICPR), Milan, Italy, 2021: 5068–5075. [31] WHITLEY D. A genetic algorithm tutorial[J]. Statistics and Computing, 1994, 4(2): 65–85. doi: 10.1007/BF00175354 [32] SAITO T and REHMSMEIER M. The precision-recall plot is more informative than the ROC plot when evaluating binary classifiers on imbalanced datasets[J]. PLoS One, 2015, 10(3): e0118432. doi: 10.1371/journal.pone.0118432 -