Loading [MathJax]/jax/element/mml/optable/GreekAndCoptic.js
Kang Miao, Ji Kefeng, Leng Xiangguang, Xing Xiangwei, Zou Huanxin. SAR Target Recognition with Feature Fusion Based on Stacked Autoencoder[J]. Journal of Radars, 2017, 6(2): 167-176. doi: 10.12000/JR16112
Citation: MA Yuxin, HAI Yu, LI Zhongyu, et al. 3D high-resolution imaging algorithm with sparse trajectory for millimeter-wave radar[J]. Journal of Radars, 2023, 12(5): 1000–1013. doi: 10.12000/JR23001

3D High-resolution Imaging Algorithm with Sparse Trajectory for Millimeter-wave Radar

DOI: 10.12000/JR23001
Funds:  The National Natural Science Foundation of China (62171084, 61922023, 62101096), Science and Technology on Electronic Information Control Laboratory Foundation
More Information
  • In recent years, millimeter-wave radar has been widely used in safety detection, nondestructive detection of parts, and medical diagnosis because of its strong penetration ability, small size, and high detection accuracy. However, due to the limitation of hardware transmission bandwidth, achieving ultra-high two-dimensional resolution using millimeter-wave radar is challenging. Two-dimensional high-resolution imaging of altitude and azimuth can be realized using radar platform scanning to form a two-dimensional aperture. However, during the scanning process, the millimeter-wave radar produces sparse tracks in the height dimension, resulting in a sparse sampling of the altitude echo, thus reducing the imaging quality. In this paper, a high-resolution three-dimensional imaging algorithm for millimeter-wave radar based on Hankel transformation matrix filling is proposed to solve this problem. The matrix filling algorithm restores the sparse sampling echo, which guarantees the imaging accuracy of the millimeter-wave radar in the scanning plane. First, the low-rank prior characteristics of the millimeter-wave radar's elevation-range section were analyzed. To solve the problem of missing whole rows and columns of data during sparse trajectory sampling, the echo data matrix was reconstructed using the Hankel transform, and the sparse low-rank prior characteristics of the constructed matrix were analyzed. Furthermore, a matrix filling algorithm based on truncated Schatten-p norm combining low-rank and sparse priors was proposed to fill and reconstruct the echoes to ensure the three-dimensional resolution of the sparse trajectory millimeter-wave radar. Finally, using simulation and several sets of measured data, the proposed method was proved to achieve high-resolution three-dimensional imaging even when only 20%–30% of the height echo was used.

     

  • 在合成孔径雷达(Synthetic Aperture Rader, SAR)图像目标识别应用中,单一特征难以全面描述目标特性,达到较高的识别精度。SAR图像的特征级融合不仅可以增加图像的特征信息,进行综合分析及融合处理,而且能有效综合各特征之间的优势获得目标更全面的特征表达,最大程度降低训练学习的复杂性。不同的特征组合对特征融合的影响不同,为提高识别的准确率和效率,需要针对SAR目标识别的具体问题选取最有效的识别特征。研究表明[1],在分类识别过程中,人的视觉系统会自动提取图像的局部区域信息和全局结构信息,并对全局和局部信息进行融合。因此,在计算机视觉领域,很多学者探究了全局特征与局部特征的融合在人脸识别、场景分类、目标识别等各个方面的有效性[24]。目前,用于SAR目标识别的特征融合算法主要分为3类[5]:第1类是特征组合的方法,即按一定的权值将特征串接或并联成新的特征向量[6,7];第2类是特征选择,利用各种优选方法,选择最优的特征组合,得到区分度更好的低维特征[8];第3类是特征变换,将原始特征变换为新的特征表达方式[9]。传统的特征融合方法融合效率较低,融合后的特征冗余性较大,区分性不高。

    栈式自编码器[10](Stacked AutoEncoder, SAE)是一种无监督的学习网络,能通过非线性的简单模型将原始数据转化为更为抽象的表达,再利用最优化的学习算法,实现有效的特征融合。基于SAE的特征融合,能充分减少特征之间的冗余,综合特征之间的互补信息。另外,SAE结构相对简单,能有效适应SAR图像快速解译的需求,在样本较少的情况下训练得到的网络泛化能力更强。因此,在特征融合方面具有高效、鲁棒的特点。目前,很多学者已经在这方面做了研究,文献[11]利用灰度共生矩阵和Gabor小波变换提取SAR图像的纹理特征,利用SAE对纹理特征进行融合优化,提取出更高层的特征。但由于同一图像的纹理特征之间冗余性较大,因而融合后信息量增加较小,融合效果提高不明显。文献[12]中利用主成分分析(Principal Components Analysis, PCA)对高光谱图像的空间特征降维后,再利用SAE将光谱信息与空间特征进行融合,从而达到了较好的分类效果。由于光谱信息未进行处理,因此特征的维度较高,网络结构较复杂。文献[13]采用多层自编码器提取SAR目标和阴影轮廓特征,并融合送入协同神经网络(Synergetic Neural Network, SNN)进行识别,提升了分类精度。该算法需要分割目标阴影区域,预处理较复杂。

    本文针对SAR图像的目标识别问题,提取了SAR图像的全局基线特征和TPLBP(Three-Patch Local Binary Patterns)局部纹理特征。一方面,基线特征在提取目标几何特征参数时,将图像进行了二值化处理,能有效减少相干斑噪声的影响,但舍弃了大量的SAR图像灰度信息。而SAR图像的灰度值能反映目标在结构、粗糙度和物理特性上的差异。TPLBP特征通过对比局部区域内SAR图像的灰度值得到图像的纹理特性,能有效弥补基线特征灰度信息的缺失。同时,TPLBP特征通过对比圆形模块之间的纹理特征,能有效应对几何结构特征对方位角变化敏感的问题。另一方面TPLBP在提取特征的过程中,对目标像素和背景像素进行相同的特征提取步骤,对目标特性的描述不够细致,而基线特征综合了多种几何结构参数,针对SAR目标区域的特性进行具体描述。因此,两种特征能实现特征之间的优势互补,在维度较低的情况下,较为全面的描述SAR图像特征。利用SAE对两种特征进行融合,能有效综合特征之间的优势,SAE的无监督学习算法,在样本较少的情况下,能有效防止网络出现过拟合现象,得到更有效的深度融合特征。

    为选取冗余性小,互补性大的融合特征,本文提取了SAR图像的100维基线特征与128维的TPLBP (Three-Patch Local Binary Patterns)局部纹理特征。基线特征利用Fisher score[14,15]的方法对SAR图像的几何形状特征进行选择,将最有效的几何形状特征组成图像的基线特征。TPLBP纹理特征则利用图像区域之间LBP码值对比,有效刻画了SAR图像目标的局部纹理特性。

    基线特征[16]是SAR图像目标的几何形状特征参数的集合,能细致描述目标的结构特性。对于复值SAR图像中(x, y)位置的像素点其幅值可表示为 c(m,n)=i(x,y)+jq(x,y),其中i(x, y)和q(x, y)分别为复值SAR图像的实部和虚部。对像素点的幅值能量检测,如式(1)所示。

    p(x,y)=[i(x,y)]2+[q(x,y)]2 (1)

    为减少相干斑噪声的影响,利用Kapur等人[17]提出的基于熵的自适应门限,得到二值化的图像,通过形态学的膨胀[18],去除图像区域内部非连通的部分。最后提取出膨胀后的二值图像或原始二值图像的几何形状特征,组成一个多维度的基线特征,如图1所示。

    图  1  基线特征提取框图
    Figure  1.  Framework of feature extraction

    再利用Fisher score衡量特征之间的类间与类内距离,对提取出的多个特征进行排序,选择区分性最好的25种特征,组成100维的基线特征向量。具体特征见表1

    表  1  基线特征
    Table  1.  The selected baseline features
    序号 特征 序号 特征
    1 连通区域数 14 极值
    2 面积 15 等圆直径
    3 质心 16 充实度
    4 边界矩形 17 扩展度
    5 主轴长 18 周长
    6 短轴长 19 重心
    7 离心率 20 平均密度
    8 方向 21 最小密度
    9 凸多边形 22 最大密度
    10 凸多边形数 23 子阵列索引
    11 凸多边形面积 24 像素索引
    12 填充面积 25 像素坐标
    13 欧拉数
    下载: 导出CSV 
    | 显示表格

    图2为提取的MSTAR数据库中BMP2的SAR切片的部分特征。图中从左至右分别为能量检测后的SAR切片、二值图像和膨胀后的二值图像。同时,图像目标区域的质心、边界矩形、极值和重心分别用蓝、紫、绿和红在图中标出。

    图  2  部分基线特征
    Figure  2.  Examples of baseline features

    由于结构、粗糙度和物理特性的不同,目标对雷达回波的反射能力差异较大,在SAR图像中产生丰富的纹理信息。SAR图像纹理反映的目标信息随目标方位角的变化不大,因此可以利用纹理特征进行目标识别。局部二值模式(Local Binary Patterns, LBP)是一种简单有效的局部纹理提取算子,具有灰度不变性和旋转不变性,能有效的利用图像的空间信息,充分反映图像的局部空间相关性。

    传统的LBP算子定义为在3×3的窗口内,以窗口中心像素灰度值为阈值,将相邻的8个像素的灰度值与其进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0。这样,3×3邻域内的8个点可产生8 bit的无符号数,即得到该窗口的LBP值,并用这个值来反映该区域的纹理信息。图3为MSTAR数据库中目标切片的LBP值的计算过程。受邻域大小的限制,LBP算子不能描述大尺度的纹理信息,另外原始的LBP算子不具有旋转不变性。因此不适合描述多方位角的SAR图像目标。

    图  3  SAR目标图像的LBP值
    Figure  3.  LBP value of SAR image

    Wolf等[19]对LBP算子进行了改进,提出了三斑块局部二值模式 (TPLBP)。首先,对于图像中的每个像素点,以该像素点为中心得到一个w×w大小的模块Cp ,以该模块为中心,在距离半径为r的范围内,生成S个同等大小的模块,每个模块的中心像素点均通过LBP算法生成相应的LBP码值。如图4所示,选取MSTAR数据库中SAR切片的某像素值作为中心点,当S=8, ω=3, α=2时,得到S个模块的LBP值。

    图  4  BMP2的TPLBP编码示意图(S=8, ω=3, α=2)
    Figure  4.  TPLBP code of BMP2 (S=8, ω=3, α=2)

    S个模块中取出圆周上间隔a个模块的两个模块,将其中心像素点LBP码值与中心模块的中心像素点LBP码值进行相似度计算。

    然后,将两模块与中心模块的中心像素点得到的相似度进行差值计算,从而得到一组二进制串,将其加权计算得到相应的TPLBP码值,其定义如下:

    TPLBPr,S,ω,α(p)=if(d(CiCp)d(Ci+α modS,Cp))2i (2)

    其中,Ci Ci+αmodS是半径为r的圆周内两模块中心像素点的LBP码值,Cp 是中心模块的中心像素点的LBP码值,函数 d(,)表示计算两模块中心像素点的相似度,本文中相似度采用欧氏距离的计算方法,函数f 的定义如下:

    f(x)={1,xτ0,x<τ (3)

    其中,本文中设定τ=0.01。根据式(2)计算得到图像中每个像素点的TPLBP码值。然后将整幅图像分割成非重叠的同等大小的矩形窗(B×B),并计算每个矩形窗中各TPLBP码值的频率值,即TPLBP码值的统计直方图。最后,将每个矩形窗的直方图向量串联形成整幅图像的TPLBP特征向量。

    TPLBP算子将像素间的灰度对比变为模块之间的LBP值的比较,描述了邻域模块LBP编码之间的相互关系,因而能有效抑制SAR相干斑噪声的影响。圆形区域内的模块选取使提取出的特征具有旋转不变性,能有效克服几何结构特征对方位角变化敏感的问题。另外参数r的选取使得TPLBP能够对比不同尺度的区域内的纹理特征值,克服了LBP只能提取局部纹理特征的缺点,能更有效的描述大尺度的SAR图像的纹理特征。

    为提取基线特征和TPLBP特征之间的互补信息,实现特征之间的优势互补,本文采用了栈式自编码器和softmax分类器对特征进行融合分类。为使网络达到更好的融合效果,利用逐层贪婪训练法对SAE网络进行预训练,再利用softmax分类器对网络进行微调。

    自编码人工神经网络是一种无监督的学习网络,由3层网络组成,输入层和隐层组成编码器,将输入信号 x 编码转换为 a 。隐层和输出层之间构成解码器,将编码 a 变换为输出信号 y 。如图5(a)所示,即

    a=f(Wx+b) (4)
    y=g(ˆWa+ˆb) (5)

    其中, W , ˆW为编码层和解码层的权值矩阵,通常约束 W=ˆW, f(·), g(·)为映射函数,通常为sigmod函数或tanh函数。对于一个包含m个样本的数据集,定义其代价函数为:

    J(W,b)=[1mmi=1(12yixi2)]  +λ2nl1l=1sii=1si+1j=1(Wji(l))2 (6)

    其中,xi yi 分别表示自编码器第i个样本的输入和输出, Wji(l)表示第l层第i单元与第l+1层第j单元之间的连接权值, b 表示偏置项,nl sl 分别表示网络层数和第l层的神经元数。公式第1项是一个均方差项,第2项是一个正则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过度拟合。正则化可以视作一种能够折中考虑小权值和最小化原来代价函数的方法。两个要素的相对重要性由l的值决定。

    寻找最优的参数 (W,b)使得代价函数 J(W,b)最小时,则认为自编码器的输出 y 重构了输入 x ,此时隐层的输出 a 则可认为是输入 x 的特征表达。为使自编码器具有更强的特征表达能力,通常对网络的权值设置稀疏性限制,从而得到稀疏自编码器。当 aj(2)(x)表示在给定输入为 x 的情况下自编码器隐藏神经元j的输出,则 ˆρj=1mmi=1[aj(2)(xi)]表示隐藏神经元j的平均活跃度。稀疏自编码器通常限制网络平均激活度为 ˆρj=ρ,其中r是稀疏性参数,一般取一个接近于0的较小的值(比如ρ=0.05)。

    为了实现网络稀疏性限制,需要在优化目标函数中加入一个额外的稀疏惩罚因子,从而使得隐藏神经元的平均活跃度保持在较小范围内。稀疏后的代价函数为:

    Jsparse(W,b)=J(W,b)+βs2j=1KL(ρ,ˆρj) (7)
    KL(ρ,ˆρj)=ρlnρˆρj+(1ρ)ln1ρ1ˆρj (8)

    其中β是控制稀疏性惩罚因子的权重,利用后向传播算法,计算代价函数的偏导数,最后利用批量梯度下降法迭代更新参数 W b 来求解模型的最优解。

    将前一层稀疏自编码器的输出作为其后一层自编器的输入,多层稀疏自编码器可组成栈式自编码器。如图5(b)所示。

    图  5  栈式自编码器结构
    Figure  5.  The structure of autoencoder and SAE

    采用逐层贪婪训练法进行训练,即在训练某一层的参数时,将其它各层参数保持不变,逐层训练。为得到更好的结果,预训练过程完成之后,利用softmax分类器,对SAE进行微调。通过计算概率:

    p({y_i} = j\left| {{x_i};{θ} } \right.) = \frac{{{e^{{{θ} _j}\!\!^{\rm{T}}{x_i}}}}}{{\sum\limits_{l = 1}^k {{e^{{{θ} _j}\!\!^{\rm{T}}{x_i}}}} }} (9)

    其中{\theta _j}为参数向量,输入xi 所属类别为概率最大的类别。利用softmax的分类结果与输入样本的标签,构建分类器的代价函数,通过反向传播算法,微调网络的权值,训练得到最优的模型参数\theta 。微调过程利用全局监督,使网络进而收敛至全局最小解。因此栈式自编码具有强大的特征表达能力,能更好的学习到输入的特征中的深层特征。与随机初始化网络参数相比,栈式自编码器通过无监督的预训练过程,使网络参数初始化至容易收敛的值,相当于暗示了隐含层需要学习的内容,再引入稀疏性,防止网络过拟合,提高了网络的泛化能力。

    本文提出的特征融合框架主要分为三大部分,如图6所示。

    图  6  特征融合框图
    Figure  6.  Flowchart of feature fusion

    (1) 特征提取

    首先,提取图像的几何形状参数,得到100维的基线特征。再统计SAR图像的TPLBP码值的直方图,将直方图串接成SAR图像的128维纹理特征向量。将基线特征和纹理特征串联成特征向量。

    (2) 特征融合

    将得到的串联向量作为SAE的输入,利用SAE,融合原始特征中的互补信息,去除冗余信息。采用逐层贪婪训练法,预训练网络。

    (3) 分类

    预训练结束后,再利用带标签的训练数据,将SAE得到的融合特征送入softmax分类器进行分类,根据分类结果与数据标签之间的距离,利用反向传播算法对网络权值进行微调,得到训练好的网络。最后对测试样本提取特征,送入网络进行分类,得到识别结果。

    为验证算法的有效性,本文在MSTAR数据集上做了10类目标的识别实验。该数据集是美国预先研究计划局和空军实验室(DARPA/AFRL)联合资助的面向SAR自动目标识别的公测数据集。利用X波段、HH极化方式聚束式合成孔径雷达采集而来,分辨率为0.3 m×0.3 m。图像大小主要有128×128像素、129×128像素、158×158像素等。该数据集包括BMP2, BRDM2, BTR60, BTR70, D7, T62, T72, ZIL131, ZSU234, 2S1等10类军事目标(见图7),每类目标样本均包含方位角间隔1°的样本数据。本文分别选取了17°和15°俯仰角的SAR图像作为训练样本和测试样本。具体数据见表2

    图  7  10类MSTAR机动目标切片与姿态角为40°的SAR图像
    Figure  7.  Optical and SAR images of ten military targets in MSTAR dataset (40° attitude angle)
    表  2  10类目标训练、测试样本数
    Table  2.  Number of training samples and test samples
    Targets 17° 15°
    BMP2 233 196
    BTR70 233 196
    T72 232 196
    BTR60 256 195
    2S1 299 274
    BRDM2 298 274
    D7 299 274
    T62 299 273
    ZIL131 299 274
    ZSU234 299 274
    总计 2747 2426
    下载: 导出CSV 
    | 显示表格

    实验设置:根据文献[2]TPLBP算子的参数设为S=8, \omega =3, \alpha =1, r=12, \tau =0.01, B=64,提取出图像的128维TPLBP特征,再与提取的100维基线特征串联,得到228维的特征向量,送入含两个隐层的SAE中进行特征融合,再利用softmax分类器对网络进行微调,最后利用融合特征分类。本文所有算法均在2.6 GHz CPU, 8 G内存的条件下,使用Matlab R2014a编程实现。

    神经网络在训练中,容易出现“过拟合”和“欠拟合”的问题。网络结构太复杂,网络会将噪声当作信号一起拟合时,网络产生较大的方差,此时网络产生“过拟合”。若需要学习复杂的样本,而网络结构又过于简单时,网络将“欠拟合”。因此本文研究了栈式自编码器结构对网络性能的影响。

    在训练样本一定的情况下,网络神经元数目越多,网络结构越复杂,“过拟合”现象越容易产生。因此,在达到相当精度的情况下,网络的层数越少越好。我们选择含两个隐层的自编码器进行特征融合,深入探究各层神经元数目对网络泛化能力的影响。

    施彦[20]等人指出,为防止网络“过拟合”,一般来说网络隐层神经元的数目与输入层和输出层数目之和相当比较合适,本文中原始输入特征为228维,因此输入层的数目为228,输出层数目为10。因此设SAE两个隐层的神经元的数目分别为L1, L2,其中 {L_1} \subset [50,450], {L_2} \subset [80,240]

    权重衰减参数\lambda 用于控制代价函数中均方差项和权重衰减项的相对重要性,当\lambda 较小时,网络偏好最小化原本的代价函数,而\lambda 较大时网络偏好更小的权值。本文取较小的\lambda 值( {{\rm e}^{ - 6}} \sim {{\rm e}^{ - 3}}),使网络均方差项占的比例更多,权重衰减项的作用较小。稀疏性参数\rho 通常是一个接近于0的较小的值,使网络能获得更好的泛化能力。参数\beta 用于控制稀疏性惩罚因子的权重,\beta 越大,网络越稀疏。因此,设置参数如下\rho =0.1,\beta =3,\lambda =5e–4

    设置相同的网络参数,将相同的特征数据输入网络,改变自编码器两个隐层神经元数目L1, L2的值,记录分类精度。为保证实验结果的准确性,对于L1, L2的每一组取值,将网络训练和测试过程进行5次,取平均分类精度作为最终的实验结果。结果如图8

    图  8  神经元数目对实验结果的影响
    Figure  8.  Effect of changed neuron’s numbers on classification accuracy

    由结果可知,自编码器各层神经元个数对网络性能有很大影响。当第2个隐层的神经元数目L2固定时,分类准确度随第1个隐层神经元的数目L1变化而变化,当L1取值在250附近时,网络分类性能较好。同理,当L1固定时,L2取值160附近时,网络性能较好。当L1=250, L2=160时,SAE融合得到的特征识别精度最高,达95.878%。从图中我们也可以发现,网络性能随L1的变化起伏较L2而言更大,也就是说,第1个隐层数目对特征融合效果的影响较大。当特征输入栈式自编码器时,若第1个隐层对数据的重构误差较大,则这种误差将会在网络中累积,因此,网络的第1个隐层神经元数目取得相对多时,能增加其对输入数据的拟合程度,有效提升网络整体的性能。另外,在样本数量一定的情况下,网络神经元的数目并不是越多网络性能越好。随着神经元的增加,网络模型的参数会增多,网络参数的自由度增大,更有可能导致网络过拟合。

    为探究基于SAE特征融合的算法有效性,本实验分别提取了MSTAR数据集中17°俯仰角的SAR切片目标的100维基线特征与128维TPLBP特征。将特征串联成228维向量后与SAE融合特征进行比较。利用文献[21]中提出的t分布的随机邻域嵌入(t-distributed stochastic neighbor embeddingt-SEN)将串联特征和融合特征可视化,可以在2维空间中得到特征的分布,结果如图9

    图  9  串联特征与融合特征的分布
    Figure  9.  Distribution of cascaded features and fused features

    从特征分布图中可以看出,串联后的特征在2维空间中存在类间混叠,类内分散。对于外形结构相似性大的目标,如BMP2, BTR70, T72, BRDM2, BTR60这5类目标,串联特征在2维空间中的混叠程度较大,区分性较差。而经过栈式自编码器融合后,10类目标的融合特征在空间分布上类间距离更大,类内距离更加紧凑,彼此之间基本没有混叠。可以看出,SAE改变了原始特征的空间分布,从而实现特征之间的深度融合。而BMP2, BTR70, BTR60这3类目标的融合特征在特征空间中分布仍然相对紧凑,一方面是因为这3类目标在外形结构,纹理特征上较为相似,其特征表达本身相似度也较高。同时,也说明融合后的特征性能受原始特征性能的影响较大。虽然SAE能够通过重构输入特征,从输入数据中挖掘了更有效的信息,实现特征之间的优势互补,但融合后的特征性能仍然受到原始特征的约束。

    另外,论文分别利用基线特征、纹理特征作为SAE网络的训练样本,与融合特征的识别性能比较。其中,SAE网络含两个隐层,调整网络结构和参数使分类性能达到最好。结果见表3

    表  3  特征分类结果
    Table  3.  Classification accuracy of features
    目标类别 基线特征 TPLBP特征 融合后特征
    BMP2 69.90 72.96 89.80
    BTR70 82.14 73.98 91.33
    T72 87.76 81.63 93.37
    BTR60 83.59 71.79 91.79
    2S1 98.54 97.08 98.54
    BRDM2 83.58 99.27 96.72
    D7 94.89 97.08 99.27
    T62 94.87 96.70 97.07
    ZIL131 98.91 99.27 99.64
    ZSU234 97.08 96.72 96.35
    平均精度(%) 90.19 90.40 95.88
    下载: 导出CSV 
    | 显示表格

    上述结果可以看出,基线特征和TPLBP特征得到的目标识别精度分别为90.19%, 90.40%,融合后的特征识别精度达95.88%,平均识别精度提高了5%以上。除BRDM2与ZSU234之外,其余目标类别的识别精度均高于单特征。另外,TPLBP特征对BTR60具有最差的分类性能,而基线特征在该类别上区分度较好,通过特征融合,该类别的分类精度提高至91.79%。当目标纹理特征区分度不大时,利用基线特征对目标几何结构特性的描述,有效弥补了单一特征在某一类目标上的劣势。说明基于SAE的特征融合充分综合了基线特征中的几何结构信息和TPLBP中的纹理信息,利用两种特征中的互补信息,提高融合特征的可区分度。但总体上,融合特征在各个类别上的分类趋势基本和原始特征保持一致,在BMP2这一类别上,两类特征都表现较差,融合后虽然性能提升了近17%,但与别的类别相比,分类精度仍然最低。这说明特征融合在性能上受原始特征性能的限制,特征融合能实现特征间的优势互补,但不能完全弥补共同的劣势,因此,选择互补性大的特征能在特征维度较低的情况下有效提高融合效果。

    为比较不同特征组合之间的融合性能,本文提取了SAR图像的Gabor纹理特征,根据文献[22],设置参数 f = \sqrt {\rm{2}} , a =2\pi ,本文选取了5个尺度(\upsilon ={0, 1, 2, 3, 4}),8个方向(\mu ={1, 2, 3, 4, 5, 6, 7, 8})的Gabor滤波器,与SAR图像卷积后,再将卷积后的图像分成同等大小的两个图像块,分别计算每一图像块的均值和方差,得到SAR图像的160维Gabor纹理特征。利用栈式自编码器,分别将基线特征和Gabor纹理特征、Gabor纹理特征和TPLBP局部纹理特征进行特征融合,得到融合精度为93.65%, 92.00%,各类别的分类精度见表4

    表  4  不同特征融合分类结果
    Table  4.  Classification accuracy of different features
    目标类别 基线+Gabor Gabor+TPLBP 基线+TPLBP
    BMP2 85.20 83.16 89.80
    BTR70 89.29 92.35 91.33
    T72 96.94 96.43 93.37
    BTR60 92.82 94.36 91.79
    2S1 86.13 70.44 98.54
    BRDM2 97.81 98.91 96.72
    D7 90.11 93.43 99.27
    T62 98.91 91.94 97.07
    ZIL131 98.91 98.91 99.64
    ZSU234 98.54 99.64 96.35
    平均精度(%) 93.65 92.00 95.88
    下载: 导出CSV 
    | 显示表格

    上述结果可以看出,基线特征与Gabor纹理特征的融合结果优于Gabor特征和TPLBP特征的融合结果,原因在于基线特征与Gabor纹理特征分别描述了SAR图像的几何结构属性和纹理特性,不同属性的特征之间互补性较大,融合后的特征能更全面的描述目标。而Gabor特征和TPLBP特征都属于纹理特征,特征之间的冗余性较大,互补性相对较小,因此融合后性能提高较少。而本文提出的将基线特征和TPLBP纹理特征进行融合的方法,融合后的分类结果比基线特征与Gabor特征的融合效果更好。主要原因如下:第一,与Gabor特征相比,TPLBP特征在描述SAR图像的纹理特征上更具优势。TPLBP特征利用模块之间的纹理对比,使得特征抗噪性更强,其对于大尺度的纹理描述也更具优势。第二,TPLBP特征与基线特征具有更强的互补性。TPLBP特征不仅弥补了基线特征在灰度信息上的缺失,其旋转不变性对目标方位角变化不敏感。两种特征在原理上相互补充,因此融合后识别性能提升较大。

    为验证算法的有效性,将本文算法与其他算法进行比较,如表5所示。文献[23]利用稀疏表示(Sparse Representation based Classification, SRC)对MSTAR数据集的10类目标进行了分类,其分类精度为89.76%。将串联的SAR图像的基线特征和TPLBP纹理特征利用支持向量机(Support Vector Machines, SVM)分类器进行分类,得到的平均识别精度为90.73%。与SRC相比,基于SAE的特征融合特征表达更为有效,在分类性能上有所提高。与串联特征直接送入SVM中分类相比,基于栈式自编码器的特征融合算法在特征融合过程中,不仅能降低特征维度,同时通过改变特征在空间上的分布,提取出了区分性更好的融合特征。

    表  5  不同算法识别精度对比
    Table  5.  Classification accuracy comparison of different algorithms
    算法 平均识别率(%)
    SRC[23] 89.76
    SVM 90.73
    CNN[24] 92.30
    SAE 93.60
    本文算法 95.88
    下载: 导出CSV 
    | 显示表格

    文献[24]中提出了直接利用卷积神经网络提取SAR图像特征,再训练softmax分类器,得到MSTAR数据集10类目标的分类精度为92.3%。本文利用含两个隐层的SAE网络,直接对SAR图像进行特征提取,经预训练和微调后,得到目标分类精度为93.6%。直接将图片作为神经网络的输入,虽然网络能提取的信息更丰富,但与输入特征相比,其输入数据量大大增加,原始SAR图像切片的大小为128×128,而串联特征的维度为228,复杂的输入数据需要更多的标注样本去拟合。在样本数据一定的情况下,复杂的网络输入,更容易使网络陷入欠拟合,导致网络性能不够稳定。

    另外,基于特征融合的SAE算法在时间复杂度也更具优势。直接将SAR图像切片输入SAE中,网络输入层的神经元数目为16384,而融合算法中用到的SAE网络输入层的数目为228,因此,在训练过程中,本文算法需要训练的参数数目大大减少,两种算法的训练时间和测试时间见表6,本文算法再测试时间和训练时间上,速度提高了8~9倍。因此,在训练样本一定的情况下,基于SAE的特征融合能有效的减少神经元的数目,简化网络结构,提高算法效率。

    表  6  不同算法训练时间与测试时间对比
    Table  6.  Training time and testing time of different methods
    算法 训练时间(s) 测试时间(s)
    SAE 907.5 0.154
    本文算法 114.1 0.017
    下载: 导出CSV 
    | 显示表格

    本文探讨了基于SAE的特征融合算法在SAR图像自动目标识别问题上的有效性。选取了冗余性小,互补性大的TPLBP局部纹理特征和基线特征,利用栈式自编码器的特征表达能力,将特征进行深度融合,提取出了区分度更大的深度特征。与其他算法相比,基于SAE的特征融合算法在特征选取、分类精度和时间效率上都具有优势。主要具有以下3个方面的特点:第一,选择了互补性大的特征,为SAE提供了更丰富的融合信息,实现了特征之间优势互补,融合效果提升较大。第二,特征提取降低了数据维度,从而简化了SAE的网络结构,降低了算法时间复杂度。第三,SAE的无监督学习算法,降低了深度模型对标注样本的需求,改变了原始特征的空间分布,使特征融合更加有效。融合特征的选择对目标识别具有较大的影响,本文应进一步研究合适的特征选择算法,更深入的探究不同特征之间的关系,从而选择出更具融合价值的特征,进一步提升识别的性能。

  • [1]
    石星. 毫米波雷达的应用和发展[J]. 电讯技术, 2006, 46(1): 1–9. doi: 10.3969/j.issn.1001-893X.2006.01.001

    SHI Xing. Application and development of millimetre-wave radars[J]. Telecommunication Engineering, 2006, 46(1): 1–9. doi: 10.3969/j.issn.1001-893X.2006.01.001
    [2]
    黄昌霸. 车载毫米波雷达目标检测技术研究[D]. [硕士论文], 电子科技大学, 2020.

    HUANG Changba. Research of on-vehicle millimeter wave radar target detection technology[D]. [Master dissertation], University of Electronic Science and Technology of China, 2020.
    [3]
    ZHANG Weite, HEREDIA-JUESAS J, DIDDI M, et al. Experimental imaging results of a UAV-mounted downward-looking mm-wave radar[C]. 2019 IEEE International Symposium on Antennas and Propagation and USNC-URSI Radio Science Meeting, Atlanta, USA, 2019: 1639–1640.
    [4]
    乞耀龙. 近景微波三维成像模型与方法研究[D]. [博士论文], 中国科学院大学, 2012.

    QI Yaolong. Study on the model and method of close-up microwave three-dimensional imaging[D]. [Ph. D. dissertation], University of Chinese Academy of Sciences, 2012.
    [5]
    ESSEN H, LORENZ F, HANTSCHER S, et al. Millimeterwave radar for runway debris detection[C]. 2011 Tyrrhenian International Workshop on Digital Communications - Enhanced Surveillance of Aircraft and Vehicles, Capri, Italy, 2011: 65–68.
    [6]
    ROHMAN B P A, RUDRAPPA M T, SHARGORODSKYY M, et al. Moving human respiration sign detection using mm-wave radar via motion path reconstruction[C]. 2021 International Conference on Radar, Antenna, Microwave, Electronics, and Telecommunications, Bandung, Indonesia, 2021: 196–200.
    [7]
    VERMA P, SHAKYA V S, SHARMA D, et al. MM-wave radar application for autonomous vehicles[C]. 2020 2nd International Conference on Advances in Computing, Communication Control and Networking, Greater Noida, India, 2020: 556–559.
    [8]
    皮亦鸣, 杨建宇, 付毓生, 等. 合成孔径雷达成像原理[M]. 成都: 电子科技大学出版社, 2007: 49–50.

    PI Yiming, YANG Jianyu, FU Yusheng, et al. Synthetic Aperture Radar Imaging Technology[M]. Chengdu: University of Electronic Science and Technology of China Press, 2007: 49–50.
    [9]
    陈文江, 陈麒安, 陈宏铭, 等. 5G毫米波天线阵列模组技术挑战与未来发展趋势[J]. 中国集成电路, 2021, 30(11): 40–45. doi: 10.3969/j.issn.1681-5289.2021.11.008

    CHEN Wenjiang, CHEN Qi’an, CHEN Hongming, et al. Technical challenges and development trend of 5G mm wave antenna array module[J]. China Integrated Circuit, 2021, 30(11): 40–45. doi: 10.3969/j.issn.1681-5289.2021.11.008
    [10]
    DONOHO D L. Compressed sensing[J]. IEEE Transactions on Information Theory, 2006, 52(4): 1289–1306. doi: 10.1109/TIT.2006.871582
    [11]
    ZHU Xiaoxiang and BAMLER R. Tomographic SAR inversion by L1 -norm regularization—The compressive sensing approach[J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(10): 3839–3846. doi: 10.1109/TGRS.2010.2048117
    [12]
    OLIVERI G, ROCCA P, and MASSA A. A Bayesian-compressive-sampling-based inversion for imaging sparse scatterers[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(10): 3993–4006. doi: 10.1109/TGRS.2011.2128329
    [13]
    CANDÈS E J and RECHT B. Exact matrix completion via convex optimization[J]. Foundations of Computational Mathematics, 2009, 9(6): 717–772. doi: 10.1007/s10208-009-9045-5
    [14]
    CANDES E J and PLAN Y. Matrix completion with noise[J]. Proceedings of the IEEE, 2010, 98(6): 925–936. doi: 10.1109/JPROC.2009.2035722
    [15]
    BI Dongjie, LI Xifeng, XIE Xuan, et al. Compressive sensing operator design and optimization for wideband 3-D millimeter-wave imaging[J]. IEEE Transactions on Microwave Theory and Techniques, 2022, 70(1): 542–555. doi: 10.1109/TMTT.2021.3100499
    [16]
    WANG Mou, WEI Shunjun, SHI Jun, et al. CSR-Net: A novel complex-valued network for fast and precise 3-D microwave sparse reconstruction[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 4476–4492. doi: 10.1109/JSTARS.2020.3014696
    [17]
    HU Yue, LIU Xiaohan, and JACOB M. A generalized structured low-rank matrix completion algorithm for MR image recovery[J]. IEEE Transactions on Medical Imaging, 2019, 38(8): 1841–1851. doi: 10.1109/TMI.2018.2886290
    [18]
    KHALIFA M O, ABDELHAFIZ A H, and ZERGUINE A. Sparse channel estimation using adaptive filtering and compressed sampling[C]. 2013 International Conference on Computing, Electrical and Electronic Engineering (ICCEEE), Khartoum, Sudan, 2013: 144–147.
    [19]
    WENG Zhiyuan and WANG Xin. Low-rank matrix completion for array signal processing[C]. 2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Kyoto, Japan, 2012: 2697–2700.
    [20]
    ZHANG Siqian, DONG Ganggang, and KUANG Gangyao. Matrix completion for downward-looking 3-D SAR imaging with a random sparse linear array[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(4): 1994–2006. doi: 10.1109/TGRS.2017.2771826
    [21]
    MA Yuxin, HAI Yu, YANG Jianyu, et al. A near-field 3-D SAR imaging method with non-uniform sparse linear array based on matrix completion[C]. IGARSS 2022 - 2022 IEEE International Geoscience and Remote Sensing Symposium, Kuala Lumpur, Malaysia, 2022: 1664–1667.
    [22]
    ZENG Xuan, MA Yuxin, LI Zhongyu, et al. A near-field fast time-frequency joint 3-D imaging algorithm based on aperture linearization[C]. 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS, Brussels, Belgium, 2021: 5163–5166,
    [23]
    YING Jiaxi, CAI Jianfeng, GUO Di, et al. Vandermonde factorization of hankel matrix for complex exponential signal recovery—Application in fast NMR spectroscopy[J]. IEEE Transactions on Signal Processing, 2018, 66(21): 5520–5533. doi: 10.1109/TSP.2018.2869122
    [24]
    AHMED N, NATARAJAN T, and RAO K R. Discrete cosine transform[J]. IEEE Transactions on Computers, 1974, C-23(1): 90–93. doi: 10.1109/T-C.1974.223784
    [25]
    胡循勇, 杨晓梅, 李昊怡, 等. 融合低秩和稀疏先验的结构性缺失图像修复[J]. 北京航空航天大学学报, 2022, 48(5): 855–862. doi: 10.13700/j.bh.1001-5965.2020.0663

    HU Xunyong, YANG Xiaomei, LI Haoyi, et al. Structural missing image inpainting based on low rank and sparse prior[J]. Journal of Beijing University of Aeronautics and Astronautics, 2022, 48(5): 855–862. doi: 10.13700/j.bh.1001-5965.2020.0663
    [26]
    BOYD S, PARIKH N, CHU E, et al. Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers[M]. Hanover: Now Foundations and Trends, 2011: 13–23. doi: 10.1561/2200000016.
    [27]
    MERHAV N and KRESCH R. Approximate convolution using DCT coefficient multipliers[J]. IEEE Transactions on Circuits and Systems for Video Technology, 1998, 8(4): 378–385. doi: 10.1109/76.709404
    [28]
    LI Oupeng, HE Jia, ZENG Kun, et al. Integrated sensing and communication in 6G a prototype of high resolution THz sensing on portable device[C]. 2021 Joint European Conference on Networks and Communications & 6G Summit, Porto, Portugal, 2021: 544–549.
    [29]
    韦顺军. 线阵三维合成孔径雷达稀疏成像技术研究[D]. [博士论文], 电子科技大学, 2013.

    WEI Shunjun. Research on linear array three-dimensional synthetic aperture radar sparse imaging technology[D]. [Ph. D. dissertation], University of Electronic Science and Technology of China, 2013.
    [30]
    WEI Shunjun, ZHOU Zichen, WANG Mou, et al. 3DRIED: A high-resolution 3-D millimeter-wave radar dataset dedicated to imaging and evaluation[J]. Remote Sensing, 2021, 13(17): 3366. doi: 10.3390/rs13173366
  • Relative Articles

    [1]ZHAO Xiang, WANG Wei, LI Chenyang, GUAN Jian, LI Gang. Diagnosis of Sleep Apnea Hypopnea Syndrome Using Fusion of Micro-motion Signals from Millimeter-wave Radar and Pulse Wave Data[J]. Journal of Radars, 2025, 14(1): 102-116. doi: 10.12000/JR24107
    [2]JIN Biao, SUN Kangsheng, WU Hao, LI Zixuan, ZHANG Zhenkai, CAI Yan, LI Rongmin, ZHANG Xiangqun, DU Genyuan. 3D Point Cloud from Millimeter-wave Radar for Human Action Recognition: Dataset and Method[J]. Journal of Radars, 2025, 14(1): 73-90. doi: 10.12000/JR24195
    [3]LIN Yuqing, QIU Xiaolan, PENG Lingxiao, LI Hang, DING Chibiao. Non-line-of-sight Target Relocation by Multipath Model in SAR 3D Urban Area Imaging[J]. Journal of Radars, 2024, 13(4): 777-790. doi: 10.12000/JR24057
    [4]YANG Lei, HUO Xin, SHEN Ruiyang, SONG Hao, HU Zhongwei. Credible Inference of Near-field Sparse Array Synthesis for Three-dimensional Millimeter-wave Imagery[J]. Journal of Radars, 2024, 13(5): 1092-1108. doi: 10.12000/JR24097
    [5]HU Xueyao, LIANG Can, LU Shanshan, WANG Zaiyang, ZHENG Le, LI Yang. Matrix Completion-based Range-Doppler Spectrum Estimation for Random Stepped-frequency Radars[J]. Journal of Radars, 2024, 13(1): 200-214. doi: 10.12000/JR23176
    [6]WANG Mou, WEI Shunjun, SHEN Rong, ZHOU Zichen, SHI Jun, ZHANG Xiaoling. 3D SAR Imaging Method Based on Learned Sparse Prior[J]. Journal of Radars, 2023, 12(1): 36-52. doi: 10.12000/JR22101
    [7]LI Yi, XIA Weijie, ZHOU Jianjiang, CHU Yongyan. A Range-angle Joint Imaging Algorithm for Automotive Radar Systems Based on Doppler Domain Compensation[J]. Journal of Radars, 2023, 12(5): 971-985. doi: 10.12000/JR23097
    [8]SHU Yue, FU Dongning, CHEN Zhanye, HUANG Yan, ZHANG Yanjun, TAN Xiaoheng, TAO Jun. Super-resolution DOA Estimation Method for a Moving Target Equipped with a Millimeter-wave Radar Based on RD-ANM[J]. Journal of Radars, 2023, 12(5): 986-999. doi: 10.12000/JR23040
    [9]TANG Junkui, LIU Zheng, RAN Lei, XIE Rong, QIN Jikai. Radar Forward-looking Super-resolution Imaging Method Based on Sparse and Low-rank Priors[J]. Journal of Radars, 2023, 12(2): 332-342. doi: 10.12000/JR22199
    [10]BI Hui, JIN Shuang, WANG Xiao, LI Yong, HAN Bing, HONG Wen. High-resolution High-dimensional Imaging of Urban Building Based on GaoFen-3 SAR Data(in English)[J]. Journal of Radars, 2022, 11(1): 40-51. doi: 10.12000/JR21113
    [11]ZHAO Yao, XU Juncong, QUAN Xiangyin, CUI Li, ZHANG Zhe. Tomographic SAR Imaging Method Based on Sparse and Low-rank Structures[J]. Journal of Radars, 2022, 11(1): 52-61. doi: 10.12000/JR21210
    [12]DANG Xiangwei, QIN Fei, BU Xiangxi, LIANG Xingdong. A Robust Perception Algorithm Based on a Radar and LiDAR for Intelligent Driving[J]. Journal of Radars, 2021, 10(4): 622-631. doi: 10.12000/JR21036
    [13]YUAN Zhian, ZHOU Xiaoyu, LIU Xinpu, LU Dawei, DENG Bin, MA Yanxin. Human Fall Detection Method Using Millimeter-wave Radar Based on RDSNet[J]. Journal of Radars, 2021, 10(4): 656-664. doi: 10.12000/JR21015
    [14]JIANG Yanwen, FAN Hongqi, LI Shuangxun. A Sparse Bayesian Learning Approach for Vortex Electromagnetic Wave Three-dimensional Imaging in the Terahertz Band[J]. Journal of Radars, 2021, 10(5): 718-724. doi: 10.12000/JR21151
    [15]TIAN Biao, LIU Yang, HU Pengjiang, WU Wenzhen, XU Shiyou, CHEN Zengping. Review of High-resolution Imaging Techniques of Wideband Inverse Synthetic Aperture Radar[J]. Journal of Radars, 2020, 9(5): 765-802. doi: 10.12000/JR20060
    [16]ZHENG Tong, JIANG Libing, WANG Zhuang. Three-dimensional Multiple-Input Multiple-Output Radar Imaging Method Based on Integration of Multi-snapshot Images[J]. Journal of Radars, 2020, 9(4): 739-752. doi: 10.12000/JR19069
    [17]SHI Jun, QUE Yujia, ZHOU Zenan, ZHOU Yuanyuan, ZHANG Xiaoling, SUN Mingfang. Near-field Millimeter Wave 3D Imaging and Object Detection Method[J]. Journal of Radars, 2019, 8(5): 578-588. doi: 10.12000/JR18089
    [18]Tian He, Li Daojing. Motion Compensation and 3-D Imaging Algorithm in Sparse Flight Based Airborne Array SAR[J]. Journal of Radars, 2018, 7(6): 717-729. doi: 10.12000/JR18101
    [19]Yan Min, Wei Shunjun, Tian Bokun, Zhang Xiaoling, Shi Jun. LASAR High-resolution 3D Imaging Algorithm Based on Sparse Bayesian Regularization[J]. Journal of Radars, 2018, 7(6): 705-716. doi: 10.12000/JR18067
    [20]Liu Xiangyang, Yang Jungang, Meng Jin, Zhang Xiao, Niu Dezhi. Sparse Three-dimensional Imaging Based on Hough Transform for Forward-looking Array SAR in Low SNR[J]. Journal of Radars, 2017, 6(3): 316-323. doi: 10.12000/JR17011
  • Cited by

    Periodical cited type(4)

    1. 李唐,王峰,杨新宇,胡文霄,谭传瑞,杨东凯. GNSS外辐射源空中目标探测研究现状及发展. 无线电工程. 2023(07): 1639-1651 .
    2. 万玲,尤红建,程跃兵,卢晓军. 合成孔径雷达图像分割研究进展. 遥感技术与应用. 2018(01): 10-24 .
    3. 杨磊,朱云龙,杨东凯. GNSS-R信号的海面SAR成像应用. 导航定位学报. 2017(03): 94-100 .
    4. 冉达,尹灿斌,贾鑫. 多角度合成孔径雷达成像技术研究进展. 装备学院学报. 2016(04): 86-92 .

    Other cited types(13)

  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Figures(13)  / Tables(6)

    Article views(1873) PDF downloads(471) Cited by(17)
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    • 表  1  基线特征
      Table  1.  The selected baseline features
      序号 特征 序号 特征
      1 连通区域数 14 极值
      2 面积 15 等圆直径
      3 质心 16 充实度
      4 边界矩形 17 扩展度
      5 主轴长 18 周长
      6 短轴长 19 重心
      7 离心率 20 平均密度
      8 方向 21 最小密度
      9 凸多边形 22 最大密度
      10 凸多边形数 23 子阵列索引
      11 凸多边形面积 24 像素索引
      12 填充面积 25 像素坐标
      13 欧拉数
      下载: 导出CSV 
      | 显示表格
    • 表  2  10类目标训练、测试样本数
      Table  2.  Number of training samples and test samples
      Targets 17° 15°
      BMP2 233 196
      BTR70 233 196
      T72 232 196
      BTR60 256 195
      2S1 299 274
      BRDM2 298 274
      D7 299 274
      T62 299 273
      ZIL131 299 274
      ZSU234 299 274
      总计 2747 2426
      下载: 导出CSV 
      | 显示表格
    • 表  3  特征分类结果
      Table  3.  Classification accuracy of features
      目标类别 基线特征 TPLBP特征 融合后特征
      BMP2 69.90 72.96 89.80
      BTR70 82.14 73.98 91.33
      T72 87.76 81.63 93.37
      BTR60 83.59 71.79 91.79
      2S1 98.54 97.08 98.54
      BRDM2 83.58 99.27 96.72
      D7 94.89 97.08 99.27
      T62 94.87 96.70 97.07
      ZIL131 98.91 99.27 99.64
      ZSU234 97.08 96.72 96.35
      平均精度(%) 90.19 90.40 95.88
      下载: 导出CSV 
      | 显示表格
    • 表  4  不同特征融合分类结果
      Table  4.  Classification accuracy of different features
      目标类别 基线+Gabor Gabor+TPLBP 基线+TPLBP
      BMP2 85.20 83.16 89.80
      BTR70 89.29 92.35 91.33
      T72 96.94 96.43 93.37
      BTR60 92.82 94.36 91.79
      2S1 86.13 70.44 98.54
      BRDM2 97.81 98.91 96.72
      D7 90.11 93.43 99.27
      T62 98.91 91.94 97.07
      ZIL131 98.91 98.91 99.64
      ZSU234 98.54 99.64 96.35
      平均精度(%) 93.65 92.00 95.88
      下载: 导出CSV 
      | 显示表格
    • 表  5  不同算法识别精度对比
      Table  5.  Classification accuracy comparison of different algorithms
      算法 平均识别率(%)
      SRC[23] 89.76
      SVM 90.73
      CNN[24] 92.30
      SAE 93.60
      本文算法 95.88
      下载: 导出CSV 
      | 显示表格
    • 表  6  不同算法训练时间与测试时间对比
      Table  6.  Training time and testing time of different methods
      算法 训练时间(s) 测试时间(s)
      SAE 907.5 0.154
      本文算法 114.1 0.017
      下载: 导出CSV 
      | 显示表格