Loading [MathJax]/jax/output/SVG/jax.js

基于栈式自编码器特征融合的SAR图像车辆目标识别

康妙 计科峰 冷祥光 邢相薇 邹焕新

吴孙勇, 薛秋条, 朱圣棋, 闫青竹, 孙希延. 杂波环境下基于粒子滤波的微弱扩展目标检测前跟踪算法[J]. 雷达学报, 2017, 6(3): 252-258. doi: 10.12000/JR16128
引用本文: 康妙, 计科峰, 冷祥光, 邢相薇, 邹焕新. 基于栈式自编码器特征融合的SAR图像车辆目标识别[J]. 雷达学报, 2017, 6(2): 167-176. doi: 10.12000/JR16112
Wu Sunyong, Xue Qiutiao, Zhu Shengqi, Yan Qingzhu, Sun Xiyan. Track-Before-Detect Algorithm for Weak Extended Target Based on Particle Filter under Clutter Environment[J]. Journal of Radars, 2017, 6(3): 252-258. doi: 10.12000/JR16128
Citation: Kang Miao, Ji Kefeng, Leng Xiangguang, Xing Xiangwei, Zou Huanxin. SAR Target Recognition with Feature Fusion Based on Stacked Autoencoder[J]. Journal of Radars, 2017, 6(2): 167-176. doi: 10.12000/JR16112

基于栈式自编码器特征融合的SAR图像车辆目标识别

DOI: 10.12000/JR16112 CSTR: 32380.14.JR16112
基金项目: 国家自然科学基金(61372163, 61331015, 61601035)
详细信息
    作者简介:

    康 妙(1992–),女,湖南新化人,2015年获得大连理工大学学士学位,现攻读国防科学技术大学硕士学位,研究方向为SAR自动目标识别、SAR舰船目标检测。E-mail: kangmiao15@gmail.com

    计科峰(1974–),男,陕西长武人,博士,国防科学技术大学副教授,硕士生导师。主要研究方向为SAR图像处理、判读解译、目标识别及海洋监视应用。E-mail: jikefeng@nudt.edu.cn

    冷祥光(1991–),男,江西修水人,2015年毕业于国防科学技术大学摄影测量与遥感专业,获得工学硕士学位,现在攻读博士学位,主要研究方向为遥感信息处理。E-mail: luckight@163.com

    通讯作者:

    计科峰   jikefeng@nudt.edu.cn

  • 中图分类号: TP751

SAR Target Recognition with Feature Fusion Based on Stacked Autoencoder

Funds: The National Natural Science Foundation of China (61372163, 61331015, 61601035)
  • 摘要: 该文提出了一种基于栈式自编码器(Stacked AutoEncoder, SAE)特征融合的合成孔径雷达(Synthetic Aperture Rader, SAR)图像车辆目标识别算法。首先,该算法提取了SAR图像的25种基线特征(baseline features)和局部纹理特征(Three-Patch Local Binary Patterns, TPLBP)。然后将特征串联输入SAE网络中进行融合,采用逐层贪婪训练法对网络进行预训练。最后利用softmax分类器微调网络,提高网络融合性能。另外,该文提取了SAR图像的Gabor纹理特征,进行了不同特征之间的融合实验。结果表明基线特征与TPLBP特征冗余性小,互补性好,融合后的特征区分性大。与直接利用SAE, CNN (Convolutional Neural Network)进行目标识别的算法相比,基于SAE的特征融合算法简化了网络结构,提高了识别精度与识别效率。基于MSTAR数据集的10类目标分类精度达95.88%,验证了算法的有效性。

     

  • 在传统跟踪方法中,目标假设为点目标,只占据一个分辨单元,但随着传感器分辨率的提高,目标将占据多个分辨单元,称该类目标为扩展目标。检测前跟踪算法是低信杂噪比(Signal To Clutter Noise Ratio, SCNR)下对目标进行处理的一种多帧信号积累方法,它使用传感器原始量测数据,并通过多次扫描量测数据的积累来提高信噪比,而粒子滤波(Particle Filter, PF)方法非常适合处理这类问题。Salmond[1]在2001年第1次明确提出PF-TBD的概念,并将该方法应用于凝视型光电传感器的单目标检测与跟踪处理中。2005年,Rutten[2]提出了一种针对观测噪声为Rayleigh情形下的PF-TBD算法。TSOU Haiping[3]提出了基于极大似然估计的扩展目标跟踪算法,研究了目标发生旋转时的跟踪问题。Gilholm K[4]利用多假设Kalman滤波来实现扩展目标跟踪,并分析了扩展目标中具有空间分布的散射点。Franken D[5]提出扩展目标模型为对称正定随机矩阵,并用Bayes方法分析和解决该问题。Ling Fan[6]建立椭圆模型,并在状态向量中加入目标存在变量和目标形状参数。针对雷达扩展目标,吴兆平[7]利用传感器获得的数据,确立更接近于实际的线性扩展模型,并推导出了扩展模型的似然比函数,同时,对原始的粒子滤波算法进行了优化。为实现隐身扩展目标的检测与跟踪,于洪波[8,9]将目标强度和空间长度引入状态向量,利用粒子滤波实现目标的跟踪和目标长度的估计。

    上述问题只考虑Gaussian噪声下的微弱目标检测问题,没有考虑有杂波的情况。例如,当雷达工作于下视状态时,经过空时自适应(Space-Time Adaptive Processing, STAP)技术抑制杂波后的量测数据除了受噪声影响外还受剩余杂波的影响,使得传统基于噪声假设的量测模型不准确。同时,随着雷达性能的改善,研究者发现地(海)杂波出现了很长的波动,其杂波的统计特性明显偏离高斯分布。当高分辨雷达处于低视角观测时,通过考察地(海)杂波发现[1012],Weibull分布能较好地刻画实际环境中的杂波统计特性。

    针对杂波环境下微弱扩展目标的检测与跟踪问题,本文以杆状物体作为研究对象,对距离和方位进行划分,并给出不同区域上含有Weibull杂波的传感器量测模型。利用扩散函数,在点目标的基础上,推导了扩展目标的似然函数以及粒子权重的计算。在状态向量中加入目标存在状态以及目标形状参数,利用粒子滤波算法分别实现扩展目标状态和形状参数的检测和估计。仿真实验表明,杂波环境下基于粒子滤波的微弱扩展目标检测前跟踪算法具有较好的稳定性。

    考虑x-y平面内运动的杆状目标,目标状态转移具有如下形式:

    xk+1=f(xk)+vk (1)

    其中,目标的状态 xk=[xk˙xkyk˙ykIklk]T, (xk, yk), (˙xk,˙yk)分别表示目标中心的位置、速度,Ik, lk分别表示扩散目标的强度和空间长度,vk为过程噪声。用Ek对目标存在状态建模,且描述为2态Markov链,定义目标“新生”概率Pb Δ=P {Ek=1|Ek1=0}和“死亡”概率Pd Δ=P{Ek=0|Ek–1=1},其中,Ek=0表示目标不存在,Ek=1表示目标存在,则Markov转换概率矩阵为:

    ϕ=[1PbPbPd1Pd] (2)

    考虑经过脉冲压缩处理后的雷达距离-多普勒量测数据。假设距离和方位分别包含NrNa个单元,距离和方位的分辨率分别为Dr和Da,用 Ω   Δ=   {1,2,,Nr}K Δ= {1,2,,Na}来表示距离和方位上的分辨单元集合。对于距离向[13],由于目标的扩展,目标回波所占距离单元表示如下:

    ΩT={rkL(xk)/2Δr,,rkΔr,,rk+L(xk)/2Δr} (3)

    其中, X表示向上求整, rk=x2k+y2k, L(xk)表示目标距离向长度。

    对于方位向,目标回波所占的方位单元表示如下:

    KT={akV(xk)/2Δr,,akΔa,,ak+V(xk)/2Δa} (4)

    其中, ak=arctan(yk/xk), V(xk)表示目标方位向长度。

    假设雷达在相同扫描区域已经产生多帧距离-多普勒图像,zk(i, j)表示k时刻量测数据,具体形式为:

    zk(i,j)={vk(i,j)+nk(i,j),iΩ,jK,Ek=0hk(i,j)+vk(i,j)+nk(i,j),iΩT,jKT,Ek=1vk(i,j)+nk(i,j),iΩΩT,jKKT,Ek=1 (6)

    式中, i=1,2,,Nr,j=1,2,,Na, hk(i, j)为目标在分辨单元(i, j)处的信号,nk(i, j)表示在(i, j)处的杂波,vk(i, j)为量测噪声,假设为零均值、方差为 2σ2的复高斯噪声。hk(i, j)表示散射点对分辨单元(i, j)的强度影响,一般情况下hk(i, j)可近似为2维高斯分布形式[14,15],则散射点在传感器分辨单元(i, j)的强度影响为[7]

    hk(i,j)ΔrΔaIk2πΣ2exp{(iΔrxk)2+(jΔayk)22Σ2} (6)

    其中 Σ为已知参数,表示传感器模糊斑点数量。k时刻的量测数据可表示为 zk={zk(i,j),i=1,···, Nr,j=1,···,Na},直到k时刻的完整量测数据集合表示为 Zk={zi,i=1,···,k}

    在实际雷达环境中,存在许多地物、海和云雨等各种杂波,经研究表明[12],Weibull分布在一定程度内可以与实际杂波吻合。因此,设 |n(i,j)k|符合以下Weibull分布,即

    p(x)=pq(xq)p1exp[(xq)p],x0, p>0, q>0 (7)

    其中,p为形状参数,q为尺度参数。

    zk(i,j)=|hk(i,j)+vk(i,j)|表示信号加噪声幅度,对于分辨单元(i, j),当Ek=1时, zk(i,j)近似服从非中心的2阶卡方分布,即

    p(zk(i,j)|xk,Ek=1)=1σ2exp(zk(i,j)+hk(i,j)σ2)I0(2zk(i,j)hk(i,j)σ2) (8)

    Ek=0时,分辨单元(i, j)内信号的幅度近似服从瑞利分布[13],即

    p(zk(i,j)|Ek=0)=|zk(i,j)|σ2exp(|zk(i,j)|22σ2) (9)

    在目标存在时,考虑Weibull杂波因子,量测值zk(i, j)的幅度服从非中心卡方分布与Weibull的混合分布,借用文献[16]的思想,根据混合概率密度公式

    f(y)=ρf0(y,λ0)+(1ρ)f1(y,θ), y>0 (10)

    得到似然函数:

    p(|zk(i,j)||xk,Ek=1)=ρ1σ2exp(|zk(i,j)|+hk(i,j)σ2)I0(2|zk(i,j)|hk(i,j)σ2)+(1ρ)pq(|zk(i,j)|q)p1exp[(|zk(i,j)|q)p] (11)

    同上,当Ek=0时,量测值zk(i, j)的幅度服从瑞利分布与Weibull分布的混合分布,则相应的似然函数为:

    p(|zk(i,j)||Ek=0)=κ|zk(i,j)|σ2exp(|zk(i,j)|22σ2)+(1ε)pq(|zk(i,j)|q)p1exp[(|zk(i,j)|q)p] (12)

    式中, ρε为比例系数( ρ[0,1],ε[0,1])。

    随着雷达分辨率的提高,目标的物理尺寸大于距离分辨率,这样就会引起目标在距离和方位上的线性扩展,则扩展目标的似然函数为[17]

    p(zk|xk,Ek=1)=p(zk|ˆx,Ek=1)p(ˆxk|xk)dˆxk (13)

    其中,xk为中心点, ˆxk为扩展点; p(ˆxk|xk)表示从点xk扩展到 ˆxk的概率密度函数。

    目标在距离和方位角发生2维线性扩展。设线性扩展目标长度为Nz,扩展目标的方向与观察者视线方向的夹角为 θ,则目标扩展后的坐标范围[7]为:

    ([lk0.5Nztanθ,lk+0.5Nztanθ], [dk0.5Nzcosθ,dk+0.5Nzcosθ]) (14)

    其中,(lk, dk)表示扩展目标的中心位置。根据以上条件,则其似然函数为:

    p(zk|xk,Ek=1)=nz/2nz/2p(zk|xk,Ek=1)p(ˆxk|xk)dˆxk=1nznz/2nz/2(ρ1σ2exp(zk(iutanθ,jucosθ)+hk(iutanθ,jucosθ)σ2)I0(2zk(iutanθ,jucosθ)hk(iutanθ,jucosθ)σ2)+(1ρ)pq(zk(iutanθ,jucosθ)q)p1exp[(zk(iutanθ,jucosθ)q)p])du

    假设各个(i, j)内的zk(i, j)是独立的,似然函数可表示为:

    p(|zk||xk,Ek=1)iCi(xk)jCj(xk)p(|zk(i,j)|xk,Ek=1)iCi(xk)jCj(xk)p(|zk(i,j)|xk,Ek=0) (16)
    p(|zk||Ek=0)=Nri=1Naj=1p(|zk(i,j)||Ek=0) (17)

    式中,Ci(xk)和Cj(xk)表示(i, j)内受回波影响的集合。

    假设该模型中扩展目标每一时刻仅有限个回波(散射点)时[18],设散射点个数为M时,则有:

    p(zk|xk,Ek=1)1MMi=1p(zk|x(i)k) (18)

    其中,xk(i)表示在某一时间k相互独立的散射点。

    p(zk|xk,Ek=1)=n1r=0(ρ1σ2exp(zk(itrtanθ,jtrcosθ)+hk(itrtanθ,jtrcosθ)σ2)I0(2zk(itrtanθ,jtrcosθ)hk(itrtanθ,jtrcosθ)σ2)+(1ρ)pq(zk(itrtanθ,jtrcosθ)q)p1exp[(zk(itrtanθ,jtrcosθ)q)p])(xr+1xr) (19)

    定义似然比为:

    L(|zk||xnk,Ek=1)=p(|zk||xnk,Ek=1)p(|zk||Ek=0) (20)
    L(|zk||Ek=0)=p(|zk||Ek=0)p(|zk||Ek=0)=1 (21)

    因此,对状态为 xnk的目标,将式(8)、式(19)代入式(20)、式(21)中,可以计算出未归一化权重 ˜ωnk

    下面给出PF-TBD算法[19]。首先,引入混合状态向量 yk=[xTkEk]T。设在k–1时刻的联合PDF为 p(yk1|Zk1)可由粒子集 {ynk1,ωnk1}Nn=1来描述,N为粒子数量。则该算法运算步骤如下所示:

    [{ynk}Nn=1]=PFTBD[{ynk1}Nn=1,zk] (22)

    步骤1  计算目标的存在变量 [{Enk}Nn=1]目标存在变量转移 [{Enk1}Nn=1,Φ]

    步骤2  从Xkn中抽取M个散射点:

    {χn,mk}Mm=1ψ(χk|Xnk) (23)

    步骤3  FOR n=1:N

    (1) 对“新生”(即 Enk1=0,Enk=1)粒子采样 xnkpb(xk|zk)

    (2) 对“存活”(即 Enk1=1,Enk=1)粒子采样 xnkp(xk|xnk1)

    (3) 计算权重 ˜ωnk

    步骤4  用 xnkpb(xk|zk)替换权重比较低的 xnkp(xk|xnk1),并计算相应的权重;

    步骤5  归一化粒子权重, {ωnk=˜ωnk/Nn=1˜ωnk}Nn=1 

    步骤6  粒子重采样, [{ynk,1/N}Nn=1]=重采样 [{ynk,ωnk}Nn=1]

    目标在k时刻后验PDF为Pk =P{Ek=1|Zk},因此

    ˆPk=Nn=1Enk/N,  0ˆP1 (24)

    估计目标状态为:

    ˆxk=Nn=1(xnkEnk)/Nn=1Enk (25)

    本节将通过仿真实验来说明在杂波环境下基于粒子滤波的雷达扩展目标TBD算法的有效性。假设目标的运动方程为:

    xk=Fxk1+wk1 (26)

    其中,

    F=[110000010000001100000100000010000001] (27)

    目标在x-y平面内做匀速直线运动,wk–1为零均值Gaussian噪声,其协方差Q为:

    Q=[q13T3q12T20000q12T2q1T000000q13T3q12T20000q12T2q1T000000q2T000000q3T] (28)

    其中,q1q2分别表示运动和强度的过程噪声方差。设置q1=0.001, q2=0.01, q3=0.01设置T为1 s。其他相关参数设置为Dx=Dy=1, Σ=0.9, Nr=Na=20, αm=0.3,观测噪声方差为 σ2=1。取 x1=[0120I]T,在整个跟踪过程中,共有32帧。其中,第7到25帧时Ek=1,共19帧,而杂波和噪声从第1帧到第32帧一直存在。信杂噪比计算公式为:

    SCNR=SV+C (29)

    其中,S为信号功率,C为杂波功率,V为噪声功率。

    图1模拟了散射点模型。根据散射点状态可知,从状态点到扩散点满足均匀分布。在图中,为了清楚地体现扩散效果,围绕着中心点取了8个扩散点。

    图  1  目标散射点
    Figure  1.  Target scatter point

    图2给出了扩展目标在x-y平面上的运动轨迹,其中x轴、y轴只是相对值。在整个过程中,目标做匀速直线运动。目标的初始位置为(10, 2),设设杆长l为2,即占据2个分辨率单元。

    图  2  扩展目标真实航迹图
    Figure  2.  Real track of extended target

    滤波参数设置为:目标的pbpd都取为0.1,初始存在概率 μ1=0.05,信号强度门限 γ=0.5, vmax=1, Imin=5, Imax=50, p=2。

    图3是不同SCNR下扩展目标的平均存在概率图,设置门限为0.5,即目标的平均概率超过0.5,认为能够检测到目标,否则相反。从整体上来看,SCNR=3 dB, 6 dB, 9 dB和12 dB均能够检测到目标存在。SCNR=12 dB能够准确检测出目标出现时刻和消失时刻。SCNR=9 dB在目标出现时有2个时刻延迟,但能够准确检测到目标消失时刻。SCNR=3 dB, 6 dB时在目标出现时有2个时刻延迟,而目标消失时刻则有1个延时。

    图  3  目标的平均存在概率
    Figure  3.  Average existence probability of target

    图4可以看出,在目标开始出现时,不同SCNR下,误差都比较大,但经过几个时刻后,误差趋于稳定,但仍有一些波动。比较这4种不同情况,SCNR=3 dB的误差最大,这是比较符合实际情况。

    图  4  目标位置的RMSE
    Figure  4.  RMSE of target position

    图5是目标长度的随时间变化的RMSE,从图中可以看出,目标刚出现时,误差比较大,随着时间的积累,误差逐渐减少。比较不同SCNR下的误差值,可以得出,SCNR=12 dB时,误差最小,也比较平缓,SCNR=3 dB估计值不太理想,误差一直居高不小。SCNR=6 dB和SCNR=9 dB时,误差均可以接受。

    图  5  目标长度的RMSE
    Figure  5.  RMSE of target length

    针对杂波环境下的雷达扩展目标检测前跟踪问题,采用了含有Weibull杂波分布的杆状量测模型,运用散射点函数,推导出扩展目标的似然函数和粒子权重。基于粒子滤波,抽样得到散射点集合。实验结果表明,Weibull杂波环境下PF-TBD算法具有较好的稳定性。

  • 图  1  基线特征提取框图

    Figure  1.  Framework of feature extraction

    图  2  部分基线特征

    Figure  2.  Examples of baseline features

    图  3  SAR目标图像的LBP值

    Figure  3.  LBP value of SAR image

    图  4  BMP2的TPLBP编码示意图(S=8, ω=3, α=2)

    Figure  4.  TPLBP code of BMP2 (S=8, ω=3, α=2)

    图  5  栈式自编码器结构

    Figure  5.  The structure of autoencoder and SAE

    图  6  特征融合框图

    Figure  6.  Flowchart of feature fusion

    图  7  10类MSTAR机动目标切片与姿态角为40°的SAR图像

    Figure  7.  Optical and SAR images of ten military targets in MSTAR dataset (40° attitude angle)

    图  8  神经元数目对实验结果的影响

    Figure  8.  Effect of changed neuron’s numbers on classification accuracy

    图  9  串联特征与融合特征的分布

    Figure  9.  Distribution of cascaded features and fused features

    表  1  基线特征

    Table  1.   The selected baseline features

    序号 特征 序号 特征
    1 连通区域数 14 极值
    2 面积 15 等圆直径
    3 质心 16 充实度
    4 边界矩形 17 扩展度
    5 主轴长 18 周长
    6 短轴长 19 重心
    7 离心率 20 平均密度
    8 方向 21 最小密度
    9 凸多边形 22 最大密度
    10 凸多边形数 23 子阵列索引
    11 凸多边形面积 24 像素索引
    12 填充面积 25 像素坐标
    13 欧拉数
    下载: 导出CSV

    表  2  10类目标训练、测试样本数

    Table  2.   Number of training samples and test samples

    Targets 17° 15°
    BMP2 233 196
    BTR70 233 196
    T72 232 196
    BTR60 256 195
    2S1 299 274
    BRDM2 298 274
    D7 299 274
    T62 299 273
    ZIL131 299 274
    ZSU234 299 274
    总计 2747 2426
    下载: 导出CSV

    表  3  特征分类结果

    Table  3.   Classification accuracy of features

    目标类别 基线特征 TPLBP特征 融合后特征
    BMP2 69.90 72.96 89.80
    BTR70 82.14 73.98 91.33
    T72 87.76 81.63 93.37
    BTR60 83.59 71.79 91.79
    2S1 98.54 97.08 98.54
    BRDM2 83.58 99.27 96.72
    D7 94.89 97.08 99.27
    T62 94.87 96.70 97.07
    ZIL131 98.91 99.27 99.64
    ZSU234 97.08 96.72 96.35
    平均精度(%) 90.19 90.40 95.88
    下载: 导出CSV

    表  4  不同特征融合分类结果

    Table  4.   Classification accuracy of different features

    目标类别 基线+Gabor Gabor+TPLBP 基线+TPLBP
    BMP2 85.20 83.16 89.80
    BTR70 89.29 92.35 91.33
    T72 96.94 96.43 93.37
    BTR60 92.82 94.36 91.79
    2S1 86.13 70.44 98.54
    BRDM2 97.81 98.91 96.72
    D7 90.11 93.43 99.27
    T62 98.91 91.94 97.07
    ZIL131 98.91 98.91 99.64
    ZSU234 98.54 99.64 96.35
    平均精度(%) 93.65 92.00 95.88
    下载: 导出CSV

    表  5  不同算法识别精度对比

    Table  5.   Classification accuracy comparison of different algorithms

    算法 平均识别率(%)
    SRC[23] 89.76
    SVM 90.73
    CNN[24] 92.30
    SAE 93.60
    本文算法 95.88
    下载: 导出CSV

    表  6  不同算法训练时间与测试时间对比

    Table  6.   Training time and testing time of different methods

    算法 训练时间(s) 测试时间(s)
    SAE 907.5 0.154
    本文算法 114.1 0.017
    下载: 导出CSV
  • [1] Jiang Y, Chen J, and Wang R. Fusing local and global information for scene classification[J].Optical Engineering, 2010, 49(4): 047001–047001-10. doi: 10.1117/1.3366666
    [2] Liu Z and Liu C. Fusion of color, local spatial and global frequency information for face recognition[J].Pattern Recognition, 2010, 43(8): 2882–2890. doi: 10.1016/j.patcog.2010.03.003
    [3] Mohamed R and Mohamed M. A Hybrid feature extraction for satellite image segmentation using statistical global and local feature[C]. Proceedings of the Mediterranean Conference on Information & Communication Technologies 2015. Springer International Publishing, 2016: 247–255.
    [4] Zou J, Li W, Chen C, et al. Scene classification using local and global features with collaborative representation fusion[J].Information Sciences, 2016, 348: 209–226. doi: 10.1016/j.ins.2016.02.021
    [5] 王大伟, 陈定荣, 何亦征. 面向目标识别的多特征图像融合技术综述[J]. 航空电子技术, 2011, 42(2): 6–12. http://www.cnki.com.cn/Article/CJFDTOTAL-HKDZ201102003.htm

    Wang Dawei, Chen Dingrong, and He Yizheng. A survey of feature-level image fusion based on target recognition[J].Avionics Technology, 2011, 42(2): 6–12. http://www.cnki.com.cn/Article/CJFDTOTAL-HKDZ201102003.htm
    [6] 王璐, 张帆, 李伟, 等. 基于Gabor滤波器和局部纹理特征提取的SAR目标识别算法[J]. 雷达学报, 2015, 4(6): 658–665. http://radars.ie.ac.cn/CN/abstract/abstract308.shtml

    Wang Lu, Zhang Fan, Li Wei, et al. A method of SAR target recognition based on Gabor filter and local texture feature extraction[J].Journal of Radars, 2015, 4(6): 658–665. http://radars.ie.ac.cn/CN/abstract/abstract308.shtml
    [7] Lin C, Peng F, Wang B H, et al. Research on PCA and KPCA self-fusion based MSTAR SAR automatic target recognition algorithm[J].Journal of Electronic Science Technology, 2012, 10(4): 352–357.
    [8] Huan R, Liang R, and Pan Y. SAR target recognition with the fusion of LDA and ICA[C]. 2009 International Conference on Information Engineering and Computer Science, IEEE, Wuhan, China, 2009: 1–5.
    [9] Chaudhary M D and Upadhyay A B. Fusion of local and global features using stationary wavelet transform for efficient content based image retrieval[C]. 2014 IEEE Students' Conference on Electrical, Electronics and Computer Science (SCEECS), IEEE, Bhopal, India, 2014: 1–6.
    [10] Hinton G E and Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J].Science, 2006, 313(5786): 504–507. doi: 10.1126/science.1127647
    [11] Geng J, Fan J, Wang H, et al. High-Resolution SAR image classification via deep convolutional autoencoders[J].IEEE Geoscience &Remote Sensing Letters, 2015, 12(11): 1–5. http://adsabs.harvard.edu/abs/2015IGRSL.12.2351G
    [12] Chen Y, Lin Z, Zhao X, et al. Deep learning-based classification of hyperspectral data[J].IEEE Journal of Selected Topics in Applied Earth Observations &Remote Sensing, 2014, 7(6): 2094–2107. https://www.researchgate.net/publication/264564342_Deep_Learning-Based_Classification_of_Hyperspectral_Data
    [13] Sun Z, Xue L, and Xu Y. Recognition of SAR target based on multilayer auto-encoder and SNN[J].International Journal of Innovative Computing, Information and Control, 2013, 9(11): 4331–4341. http://www.ijicic.org/ijicic-12-11029.pdf
    [14] Chen Y W and Lin C J. Combining SVMs with Various Feature Selection[M]. In Feature Extraction: Foundations and Applications, Guyon I, Gunn S, Nikravesh M, and Zadeh L A Berlin, Germany: Springer, 2006: 315–324.
    [15] Chen Y W. Combining SVMs with various feature selection strategies[D]. [Master. dissertation], National Taiwan University, 2005.
    [16] El Darymli K, Mcguire P, Gill E W, et al. Characterization and statistical modeling of phase in single-channel synthetic aperture radar imagery[J].IEEE Transactions on Aerospace and Electronic Systems, 2015, 51(3): 2071–2092. doi: 10.1109/TAES.2015.140711
    [17] Kapur J N, Sahoo P K, and Wong A K C. A new method for gray-level picture thresholding using the entropy of the histogram[J].Computer Vision, Graphics, and Image Processing, 1985, 29(3): 273–285. doi: 10.1016/0734-189X(85)90125-2
    [18] Mathworks. Morphology Fundamentals: Dilation and Erosion[OL]. http://tinyurl.com/q6zf.
    [19] Wolf L, Hassner T, and Taigman Y. Descriptor based methods in the wild[C]. Workshop on Faces in Real-Life Images: Detection, Alignment, and Recognition, 2008.
    [20] 施彦, 韩力群, 廉小亲. 神经网络设计方法与实例分析[M]. 北京: 北京邮电大学出版社, 2009: 32–108.

    Shi Yan, Han Liqun, and Lian Xiao qin. Neural Network Design and Case Analysis[M]. Beijing: Beijing University of Posts and Telecommunications Press, 2009: 32–108.
    [21] Maaten L and Hinton G. Visualizing data using t-SNE[J].Journal of Machine Learning Research, 2008, 9: 2579–2605. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.457.7213
    [22] Hu F, Zhang P, Yang R, et al. SAR target recognition based on Gabor filter and sub-block statistical feature[C]. 2009 IET International Radar Conference, 2009: 1–4.
    [23] Song H, Ji K, Zhang Y, et al. Sparse Representation-based SAR image target classification on the 10-class MSTAR data set[J].Applied Sciences, 2016, 6(1): 26. doi: 10.3390/app6010026
    [24] Morgan D A. Deep convolutional neural networks for ATR from SAR imagery[C]. SPIE Defense Security. International Society for Optics and Photonics, 2015: 94750F-94750F-13.
  • 期刊类型引用(7)

    1. 付丽梅. 基于选定区域颜色直方图的粒子滤波行人跟踪算法. 软件工程. 2021(07): 31-34 . 百度学术
    2. 花文号,陈霄,薛安克. 基于权值选择的多雷达多目标检测前跟踪算法. 杭州电子科技大学学报(自然科学版). 2020(02): 34-39 . 百度学术
    3. 冉星浩,杨路,李春波. 基于权值优选的改进二阶中心差分粒子滤波算法. 测控技术. 2020(07): 68-72 . 百度学术
    4. 裴家正,黄勇,董云龙,何友,陈小龙. 杂波背景下基于概率假设密度的辅助粒子滤波检测前跟踪改进算法. 雷达学报. 2019(03): 355-365 . 本站查看
    5. 裴家正,黄勇,董云龙,何友,陈小龙,陈唯实. 基于PHD的粒子滤波检测前跟踪改进算法. 雷达科学与技术. 2019(03): 263-270+279 . 百度学术
    6. 张忠子. 基于改进粒子滤波跟踪算法的运动视频跟踪. 现代电子技术. 2019(15): 59-62 . 百度学术
    7. 王经鹤,易伟,孔令讲. 组网雷达多帧检测前跟踪算法研究. 雷达学报. 2019(04): 490-500 . 本站查看

    其他类型引用(6)

  • 加载中
图(9) / 表(6)
计量
  • 文章访问数: 3036
  • HTML全文浏览量: 829
  • PDF下载量: 1566
  • 被引次数: 13
出版历程
  • 收稿日期:  2016-09-29
  • 修回日期:  2017-01-24
  • 网络出版日期:  2017-04-28

目录

/

返回文章
返回