Loading [MathJax]/jax/output/SVG/jax.js

基于组合条件随机场的极化SAR图像监督地物分类

邹焕新 罗天成 张月 周石琳

关键, 裴家正, 黄勇, 等. 杂波背景下的时距联合检测前聚焦方法研究[J]. 雷达学报, 2022, 11(5): 753–764. doi: 10.12000/JR22115
引用本文: 邹焕新, 罗天成, 张月, 周石琳. 基于组合条件随机场的极化SAR图像监督地物分类[J]. 雷达学报, 2017, 6(5): 541-553. doi: 10.12000/JR16109
GUAN Jian, PEI Jiazheng, HUANG Yong, et al. Time-range focus-before-detect method in clutter background[J]. Journal of Radars, 2022, 11(5): 753–764. doi: 10.12000/JR22115
Citation: Zou Huanxin, Luo Tiancheng, Zhang Yue, Zhou Shilin. Combined Conditional Random Fields Model for Supervised PolSAR Images Classification[J]. Journal of Radars, 2017, 6(5): 541-553. doi: 10.12000/JR16109

基于组合条件随机场的极化SAR图像监督地物分类

DOI: 10.12000/JR16109
基金项目: 国家自然科学基金(61331015)
详细信息
    作者简介:

    邹焕新(1973–),男,广东人,现任国防科技大学电子科学与工程学院副教授,硕士生导师,主要研究方向为SAR图像解译、多源遥感信息融合等。E-mail: hxzou2008@163.com

    罗天成(1991–),男,湖南人,现为国防科技大学电子科学与工程学院硕士研究生,主要研究方向为极化SAR图像地物分类。E-mail: 15616045932@163.com

    张月:张   月(1990–),女,河南人,现为国防科技大学电子科学与工程学院硕士研究生,主要研究方向为极化SAR图像地物分类。E-mail: yue1554415@163.com

    周石琳(1965–),男,湖南人,现任国防科技大学电子科学与工程学院教授,博士生导师,主要研究方向为计算机视觉与智能信息处理、多源遥感信息融合等。E-mail: slzhoumail@163.com

    通讯作者:

    邹焕新   hxzou2008@163.com

  • 中图分类号: TN957

Combined Conditional Random Fields Model for Supervised PolSAR Images Classification

Funds: The National Natural Science Foundation of China (61331015)
  • 摘要: 在复杂极化SAR (Synthetic Aperture Radar, SAR)图像的地物分类中,可以通过提取多种特征及利用上下文信息来提高分类精度。特征维度的增加会产生过拟合和特征干扰,从而导致分类器性能降低。针对这个问题,该文提出了一种基于组合条件随机场(Conditional Random Fields, CRF)的极化SAR图像监督地物分类方法。不同于CRF模型通过将多个特征矢量堆叠形成一个新的特征矢量以利用多种特征信息的传统方式,组合CRF模型首先将不同类型特征分成多个特征子集合分别训练同一个CRF模型得到多个有差异的子分类器,从而得到多个地物分类结果,然后以单个子分类器的归一化总体分类精度作为加权系数将多个分类结果进行融合以得到最终的分类结果。两组真实极化SAR图像分类实验结果表明,该文方法的分类精度比利用单个特征矢量单个子分类器的分类精度有明显提升。对于实验采用的两组数据,该文方法的分类精度比利用多个特征矢量堆叠的分类精度分别提高13.38%和11.55%,同时也比基于SVM (Support Vector Machines, SVM)的分类精度分别提高13.78%和14.75%。

     

  • 随着诱饵技术和电磁控制技术等的不断发展,基于传统特征量的弹道目标识别技术已难以满足未来高科技战争的需求,而微动特征作为弹道目标的固有属性,难以被模仿,且弹头和诱饵、碎片等运动形式存在明显差异,因而被用来区分识别真弹头,近年来受到国内外研究学者的广泛关注[1–3]。由于目标微动会对雷达回波产生微多普勒调制,无论是宽带雷达还是窄带雷达,均可通过对回波信号参数进行估计来提取目标的微动特征,进而进行目标的分类识别。然而研究表明[4–6],单基雷达获取的目标微多普勒信息均具有较强的姿态敏感性,不同视角获得的微动特征不同,因而难以准确反映目标的真实空间结构。考虑到组网雷达能获得目标在不同视角上的观测信息,于是有望利用多部雷达联合观测对目标进行3维微动特征提取,从而克服单一视角的局限性,提高目标识别精度。

    考虑宽带雷达能得到目标的高分辨距离像,获取目标更细微的形状结构特征,目前基于宽带雷达组网的目标微动特征提取研究较多。文献[7]对MIMO雷达中的旋转目标微多普勒效应展开分析,并基于时间-距离像对目标的3维微动特征进行了提取;文献[8]利用分布式组网雷达对有翼锥体目标进行联合观测,并基于不同视角微多普勒特征的相关性,借助几何分析的方法,实现了目标的3维进动特征提取;文献[9]通过三站1维距离像融合实现了锥体目标的3维重构。由此可见,基于宽带雷达组网的目标微动特征提取技术研究已较为成熟,然而,就目前现有雷达实际装备情况来看,由于宽带高分辨雷达价格昂贵,一时间仍难以实现对窄带雷达的全面升级和替换,雷达网仍以窄带体制为主,因此研究利用窄带雷达网对弹道目标进行特征提取具有更大的实际意义,能有效解决目前理论研究与实际脱节的矛盾;文献[10]在窄带组网体制下推导了不同视角锥体散射中心瞬时频率变化关系,利用频谱熵实现了散射中心的匹配关联,并进一步提出了基于散射中心瞬时频率相关性的目标参数提取算法,但没能获取目标的3维微动特征,也无法实现空间目标的3维重构。

    本文在文献[10]的基础上,进一步对窄带雷达网中的锥体目标3维进动特征提取展开了研究。在详细分析了锥体进动引发的微多普勒频率调制特性的基础上,利用锥顶微多普勒频率调制系数比,实现了不同视角下散射中心匹配关联,并获取了目标的3维锥旋矢量,进而利用锥顶和底面边缘散射中心微多普勒频率相关性,结合频率补偿的方法对锥体特征参数进行了提取,在此基础上解算出每一时刻锥顶坐标,从而实现了目标空间位置的3维重构。最后,仿真分析了本文方法的有效性。

    以无翼锥形弹头为例,建立进动模型如图 1所示,由于其存在旋转对称性,因此仅考虑其做锥旋运动。假定目标以角速度ωc绕锥旋轴旋转,且锥旋轴与目标对称轴相交于点o,两者夹角为θ,以交点为坐标原点建立参考坐标系oxyz如下,目标对称轴初始方位为φ0, LOS表示雷达视线方向,其在参考坐标系中的方位角和俯仰角分别为 (ε, χ),与锥旋轴的夹角为α,与对称轴夹角为β,定义雷达视线方向与对称轴构成的平面为底面圆环的电磁波入射平面,该平面与圆环交于pq两点。锥体高度为h,底面半径为r,锥顶与进动中心的距离为h1,底面中心与进动中心的距离为h2,且目标满足远场条件,雷达与进动中心的距离为R0

    图  1  锥形弹头进动模型
    Figure  1.  The precession model of conical warhead

    根据散射中心理论,对于旋转对称目标,其高频散射特性主要由锥顶D及底面边缘两个散射中心p, q确定[1, 5]。由几何关系分析可得雷达视线与对称轴的夹角β满足:

    式中,φ为初始相位角,且由文献[6]可知是φ=ϕ0ε。进一步对各散射中心在雷达视线上的投影关系分析可知,锥体3个散射中心到雷达的距离分别为:

    考虑到锥体目标在实际运动中各部分之间存在相互遮挡,目标上各散射中心不能始终保持同时可见,使得式 (2) 的使用范围受到限制。但锥顶D和近散射点p在大部分情况下都能被观测到[3],并能够获得二者的稳定连续观测信息,因此本文主要利用D, p的微动信息展开后继研究。假设雷达波长为λ,由式 (1) 和式 (2) 可得,进动引发的D, p两点的微多普勒调制为[11]

    由式 (3) 可以看出,D点的微多普勒频率变化服从正弦规律,而p点的微多普勒频率由两部分之和组成,不再服从简单的正弦调制规律,且两点微多普勒频率均与目标的进动和结构特征有关,共包含wc, h1, h2, r, θ, α, φ 7个未知参数,其中ωc, φ可通过提取正弦曲线特征得到,而θ, α两者之间存在耦合,仅通过单部雷达,仍无法实现对目标进动角及尺寸大小的求解。考虑到多视角观测能获得更加丰富的目标信息,具有较好的解耦合性能,因此本文将采用雷达组网方式对目标特征进行提取,并进一步实现3维重构。

    首先建立窄带雷达网系统观测模型如图 2所示,图中OXYZ为全局坐标系,与参考坐标系oxyz平行,假定系统中共有N部窄带雷达同时进行观测,并都已满足时空同步要求,各雷达视线在OXYZ坐标系中的方位角和俯仰角为 (εi, χi), ni (i=1, 2, ···, N) 为雷达视线方向,满足:

    图  2  组网雷达示意图
    Figure  2.  The sketch map of netted radar

    由第2节分析可知,当采用多部雷达同时进行观测时,由于各雷达观测视角不同,同一时刻目标各散射中心在雷达视线上的投影位置排列顺序将存在差异,相对应地,同一时刻各散射中心的微多普勒频率也会不同。因此,在利用组网雷达进行特征提取之前,首先得实现不同视角散射中心的匹配关联。

    由式 (3) 可以看出,对于同一观测目标而言,锥顶D的微多普勒频率调制系数A仅与雷达观测视角有关,任取雷达网中两部雷达,其调制系数比满足:

    p点调制规律更为复杂,不具备上述比例关系,因此,通过比较观察不同雷达间的调制系数比即可实现散射中心的匹配关联。文献[10]采用频谱分析的方法,通过计算不同散射中心的频谱熵来实现散射中心的匹配关联,然而在两个散射中心回波信号无法分离的情况下,散射中心无法与各自频谱一一对应起来,因此该方法存在较大的局限性。相比而言,本文方法则更加简单实用。

    为更好地实现对锥体目标的3维重构,首先对锥旋轴方向进行估计。采用Viterbi算法提取锥顶微多普勒曲线振幅得到:

    Viterbi算法[12–14]作为信号隐状态估计的有效手段之一,能够依据各信号成分强度对信号进行逐次分离,因此常被用来对多目标信号瞬时频率进行估计。与逆Randon变换、Hough变换等曲线参数提取方法相比,Viterbi算法对各信号分量形式依赖性不高,即使是非正弦信号,同样能实现瞬时频率的准确估计。

    此外,雷达观测视角αi还满足:

    式 (7) 中,ω = (ωx,ωy,ωz)T,联立式 (4)、式 (6)、式 (7),令B=h1sinθ,此时方程组中共包含B, ωx, ωy, ωz 4个未知参数,因此,至少需要3部雷达同时进行观测才能实现对上述参数的求解。进一步将求得的参数回代到方程组,还可以确定sinai的大小。文献[10]采用基于视线角方差最小准则的频率搜索补偿方法对雷达视线角进行估计,需要经过多次循环迭代才能得到准确估计值,计算复杂,且易受噪声影响,而本文所提方法用到的只是锥顶微多普勒频率曲线的振幅和周期,且这两个曲线参数均可由Viterbi算法准确提取得到,在求得锥旋矢量的同时也能估计出各雷达视线角的大小,计算更为简单,算法稳定性更好。

    在上述分析的基础上,若要提取锥体弹头参数,还需p对点的微多普勒频率进行充分利用,观察式 (3) 可知,fdp由正弦部分和非正弦部分之和组成,且正弦部分fk=2ωch2sinθsinαcos(ωct+φ) / λ 满足fk=(-h2/h1)fd-D,而非正弦部分此时仅包含 (r, θ) 两个未知参数。若能将正弦部分完全补偿,便可利用多视角观测对 (r, θ) 联立求解。考虑到锥体目标尺寸信息仍然未知,先假设补偿系数为η,且η0=h2/h1,当η=η0时,便可实现完全补偿,于是p点补偿后的微多普勒频率满足:

    η进行遍历,利用补偿后的频率两两联立方程可求得:

    对每个η取值所对应求得的所有结果(ˆrξ|η,ˆθξ|η)做进一步处理,并定义归一化标准差σ为:

    式中,Δr=[ˆr1ˉr  ˆr2ˉrˆrC2Nˉr],Δθ=[ˆθ1ˉθ  ˆθ2ˉθˆθC2Nˉθ],ˉr,ˉθ为平均值,按照上述归一化标准差定义,对于每一个η取值均能得到对应的σ。若η=η1时,σ取得最小值,则说明此时fk被补偿得最完全,补偿系数η1也越接近η0,由此可求得:

    结合4.1节分析,将ˆθ代入B=h1sinθ中,于是求得h1=Bsinˆθ,h2=h1η1

    在求得锥体目标结构参数及旋转轴方向的基础上,为实现对目标空间位置的3维重构,还需确定各散射中心的相对位置,由于底面边缘两个散射中心会随雷达视线方向改变产生滑动,位置坐标不易确定,因而本文从锥顶散射中心入手,在锥体目标结构参数已知的条件下,只要能够求得每一时刻锥顶坐标,同样能实现对目标空间位置的3维重构。由于窄带雷达距离分辨力较低,难以直接从目标回波中获得各散射中心的径向距离变化规律,因此本文考虑在已知各散射中心运动形式和参数基础上,通过微多普勒频率反推每一时刻各散射中心相对应的径向距离变化。

    d=RDR0,由式 (2) 可得:

    式中,φi=ϕ0χi,由于每一时刻D点的微多普勒频率fdD均已获得,且fdDRD满足导数关系,因而di在每一时刻的值也能求解得到。此外,结合图 1可知,dioD在第i部雷达视线上的投影,同时还应满足:

    若令oD=(Dx, Dy, Dz)T,通过3部雷达同时进行观测可以解算出oD为:

    ODOD=[nT1nT2nT3]1[d1d2d3] (14)

    综上所述,基于窄带雷达组网的弹道目标3维微动特征提取及重构步骤为:

    步骤1建立弹道目标进动模型,分析各散射中心微多普勒调制规律;

    步骤2对目标回波进行时频分析,采用Viterbi算法提取各散射中心微多普勒曲线;

    步骤3基于锥顶微多普勒频率调制系数比,实现不同视角下散射中心匹配关联;

    步骤4提取3维锥旋矢量和目标结构参数,在此基础上解算出每一时刻锥顶坐标,从而实现锥体目标空间3维重构。

    在下述仿真中设定目标为锥体,目标参数设置为:h1=2.0 m, h2=0.5 m, r=0.5 m, h=2.5 m, θ=13°,目标对称轴初始方位角φ0=60°,目标的锥旋频率为fc=4 Hz,锥旋矢量为(23 π, 43 π ,2 π )。雷达参数设置为:载频f=8×109 Hz,信号带宽为5 MHz,雷达脉冲重复频率为2000 Hz,积累时间1 s,信噪比为10 dB。在全局坐标系中3部雷达M1, M2, M3测得的目标方位角和俯仰角 (εi, χi) 分别为 (40°, 84°), (45°, 48°), (30°, 17°)。图 3分别为该3部雷达获得的同一时间段内目标回波Cohen类时频分布重排结果,可以看出重排后的谱图不仅具有更好的时频聚集性,同时还有效抑制了各分量之间的交叉项[15, 16],有利于提高各散射中心瞬时频率的估计精度。

    图  3  3部雷达时频分布图
    Figure  3.  The Time-frequency Distribution figure of three radars

    在上述谱图重排的基础上,进一步采用Viterbi算法对各散射中心瞬时频率进行提取,并通过拟合更好地削减了交叉项所带来的不利影响,得到各雷达散射中心瞬时频率估计结果如图 4所示。然后依据第3节匹配关联准则,对各散射中心曲线幅度做进一步处理,区分出锥顶和锥底边缘散射中心。此时提取到各雷达锥顶正弦曲线的频率为ω =25.14 rad/s,振幅分别为567.6 Hz, 361.8 Hz, 307.8 Hz,而由式 (6) 计算得到的振幅理论值分别为569.2636 Hz, 362.0643 Hz, 309.5390 Hz,两者相当接近,代入方程组式 (7) 可以求解得到3维锥旋矢量ω=(10.8598,21.7937,6.2545)T,与理论值基本吻合,同时可以求得各雷达视线角分别为ˆα1=70.7025,ˆα2=36.9851,ˆα3=30.7848

    图  4  3部雷达IF提取结果
    Figure  4.  The IF result extracted by three radars

    依据4.2节中锥体弹头参数提取算法,由求得的ˆαi和各散射中心瞬时频率对 (r, θ) 进行估计,可以得到遍历时η归一化标准差σ随之变化的结果如图 5所示,当η=0.253时,σ取得最小值,接近于理论分析值η0=0.25,进一步将该η值代到方程式 (11),从而求得参数r, θ, h1, h2估计值。定义相对误差=|理论值–估计值|/理论值,各参数估计结果如表 1所示,其中α1, α2, α3估计精度相对较高,r, θ, h1, h2由于受到各散射中心瞬时频率提取误差的影响,估计精度则相对较低,通过进一步提高时频分辨率或者增加雷达网中雷达观测数量可实现上述参数估计精度的提升。但总的来说,各参数估计相对误差均小于5%,满足目标识别的精度要求,可用于下一步对锥顶坐标的求解。而在相同仿真条件下,文献[10]中的目标参数平均估计相对误差则接近于15%,明显高于本文误差,这也从侧面反映出本文参数提取算法的稳定性。

    图  5  补偿系数求解结果
    Figure  5.  The solving results of compensation coefficient
    表  1  锥体弹头进动及结构参数估计结果
    Table  1.  The estimation result of cone-shaped warhead's parameters
    参数 理论值 估计值 相对误差 (%)
    α1(°) 70.7288 70.7025 0.30
    α2(°) 36.8974 36.9851 0.037
    α3(°) 30.8829 30.7848 0.32
    θ(°) 13 13.5579 4.29
    r(m) 0.5 0.5237 4.74
    h1(m) 2.0 1.9132 4.43
    h2(m) 0.5 0.4811 3.20
    下载: 导出CSV 
    | 显示表格

    在上述目标特征参数提取的基础上,进一步按照4.3节所提算法对锥顶坐标进行求解。当时t=0.25 s,求得锥顶坐标(ˆDx,ˆDy,ˆDz)=(1.1739,1.1888,0.5898),与理论值(Dx,Dy,Dz)=(1.2050,1.2495,0.6093)基本相符,并最终得到在观测时间内0~0.25 s锥顶散射中心的实际轨迹如图 6所示,与其理论轨迹近乎重合,从而更加充分地说明了本文重构方法的准确性和有效性。

    图  6  锥顶散射中心的轨迹
    Figure  6.  The trajectory of the top scattering center

    为了充分验证本文所提算法的鲁棒性,仿真分析了曲线参数估计误差对目标参数提取及重构精度的影响。由于在4.1节中3维锥旋矢量的求解精度主要受到锥顶微多普勒幅度和微动周期的影响,而微动周期通常都能被准确估计,因而在此主要分析微多普勒幅度的影响。在4.2节中,目标参数的准确提取关键在于式 (9) 的求解,且求解精度主要受瞬时频率提取误差制约,因此也有必要对瞬时频率提取误差带来的影响进行分析。为便于分析,定义归一化误差如下:

    上式中ˆX为估计值,X为真实值,进一步定义|η|为归一化绝对误差。假设锥顶微多普勒曲线幅度AD提取值以及各散射中心瞬时频率的提取值归一化误差服从[–a a]上的均匀分布,采用蒙特卡洛方法进行分析,仿真100次,可以得到目标特征参数归一化绝对误差平均值的变化如图 7所示。从图 7(a)中可以看出,当a在区间[0, 0.1]变化时,锥旋矢量各方向分量估计误差均呈线性增加趋势,但总的来说,各方向分量估计精度仍然较高。而在图 7(b)中,当a在区间[0, 0.03]变化时,进动角θ变化较为平和,h2/h1则几乎不受影响,只有底面半径r值的估计精度变化最为敏感,随着各种高性能时频分析工具的发展,完全可以将瞬时频率提取精度进一步提高,从而满足目标参数的高精度提取。

    图  7  鲁棒性分析
    Figure  7.  Robustness analysis

    综上所述可知,本文所提锥体目标参数提取及重构算法在一定程度上受到微多普勒曲线参数提取精度的影响,但由于文中所采用的基于Cohen类时频重排的Viterbi算法较好地实现瞬时频率曲线的提取,因此本文算法能保证目标参数提取及重构的可靠性,可用于目标识别。

    本文对基于窄带雷达网的锥体目标3维进动特征提取问题展开了研究。依据目标的多视角微多普勒频率调制特性,利用3部雷达获取了目标的3维锥旋矢量及特征参数,并进一步解算出每一时刻锥顶坐标,实现了目标空间位置的3维重构。仿真结果表明,本文所提方法目标参数估计精度高,重构性能好,能够有效克服目标散射中心遮挡和姿态敏感性的不利影响,为基于窄带雷达的空间目标准确识别提供了解决方案。考虑到在实际的导弹防御体系当中,可能会出现窄带雷达和宽带雷达同时对目标进行观测识别的情况,后继工作将就不同体制雷达对目标3维特征参数的融合提取问题展开研究。

  • 图  1  基于组合CRF模型的极化SAR图像分类流程图

    Figure  1.  Flowchart of the combined CRF model for PolSAR images classification

    图  2  本文采用的两组实测极化SAR图像数据

    Figure  2.  Two real-world PolSAR images for experiments

    图  3  基于堆叠特征的CRF分类器分类结果

    Figure  3.  Classification result of CRF model based on stacking features

    图  4  基于不同特征的子分类器分类结果

    Figure  4.  Classification results based on child classifiers using different features

    图  5  组合CRF分类结果

    Figure  5.  Classification result of combined CRF model

    图  6  基于l-1特征选择的CRF分类器分类结果

    Figure  6.  Classification result of CRF model based on l-1 features selection

    图  7  SVM分类器分类结果

    Figure  7.  Classification result of SVM model

    图  8  基于投票方法的组合CRF分类结果

    Figure  8.  Classification result of combined CRF model based on majority voting

    图  9  基于堆叠特征的CRF分类结果

    Figure  9.  Classification result of CRF model based on stacking features

    图  10  子分类器分类结果

    Figure  10.  Classification results based on different child classifiers

    图  11  组合CRF分类器分类结果

    Figure  11.  Classification result of combined CRF model

    图  12  基于l-1特征选择分类器分类结果

    Figure  12.  Classification result of CRF model based on l-1 features selection

    图  13  SVM分类器分类结果

    Figure  13.  Classification result of SVM model

    图  14  基于投票表决法的组合CRF分类结果

    Figure  14.  Classification result of CRF model based on majority voting

    表  1  本文方法使用的特征

    Table  1.   Features used in the proposed method

    特征 描述 特征内容 数量
    基于测量和目标分解的特征 协方差矩阵上三角 |C11|, |C12|, |C13|, |C22|, |C23|, |C33| 6
    VV/HH比值[25] 10log(|SVV|2/|SHH|2) 1
    HV/HH比值[25] 10log(|SHV|2/|SHH|2) 1
    HV/VV比值[25] 10log(|SHV|2/|SVV|2) 1
    Yamaguchi 四分量分解 表面散射(Ps)、二次散射(Pd)、体散射(Pv)、螺旋体散射(Pc) 4
    H/α/A分解 熵(H)、平均散射机制( α)、各向异性系数(A) 3
    Freeman分解 表面散射(Ps)、二次散射(Pd)、体散射(Pv) 3
    纹理特征 基于GLCM的纹理特征 相关性、对比度、熵、同质性 4
    形态学特征 腐蚀和膨胀[21] 重建开操作、重建闭操作 8
    下载: 导出CSV

    表  2  堆叠特征分类精度

    Table  2.   Classification accuracy of stacking features

    类别 豆类 森林 马铃薯 苜蓿 小麦 裸土 甜菜 油菜籽 豌豆 草地 水体 用户精度
    豆类 6486 66 30 0 0 0 48 0 153 66 0 0.9470
    森林 1210 15171 1333 46 74 11 284 11 343 4 62 0.8179
    马铃薯 340 220 11831 15 1292 44 1521 14 2736 92 65 0.6378
    苜蓿 523 42 110 7743 84 164 69 39 5 1266 476 0.7360
    小麦 13 63 94 258 15723 21 656 76 51 26 1073 0.8709
    裸土 6 2 5 2 0 3266 0 24 1 0 0 0.9879
    甜菜 33 0 2716 53 27 22 7309 30 42 172 6 0.7021
    油菜籽 5 219 63 25 1095 1757 404 10013 126 2 284 0.7156
    豌豆 3 117 888 12 332 26 37 45 8630 5 12 0.8539
    草地 392 12 808 481 48 2703 415 151 49 2312 100 0.3092
    水体 18 57 429 18 207 3449 30 4 0 2 6192 0.5950
    制图精度 0.9035 0.9500 0.6463 0.8948 0.8327 0.2859 0.6785 0.9621 0.7111 0.5858 0.7487
    总体分类精度:74.06%;Kappa系数:0.7113
    下载: 导出CSV

    表  3  组合CRF分类精度

    Table  3.   Classification accuracy of combined CRF model

    类别 豆类 森林 马铃薯 苜蓿 小麦 裸土 甜菜 油菜籽 豌豆 草地 水体 用户精度
    豆类 6467 93 36 60 12 0 64 0 1 116 0 0.9442
    森林 97 17095 1234 97 18 0 0 2 3 3 2 0.9216
    马铃薯 37 534 17155 41 14 2 180 46 74 86 1 0.9441
    苜蓿 263 1 15 8482 460 15 5 45 1 1234 0 0.8062
    小麦 14 0 8 0 16807 2 2 1145 76 0 0 0.9309
    裸土 0 0 0 0 0 3173 0 17 0 0 116 0.9598
    甜菜 14 11 857 8 102 9 8598 400 141 270 0 0.8259
    油菜籽 0 0 8 5 4134 658 2 8748 77 361 0 0.6252
    豌豆 0 0 131 3 289 4 0 283 9388 8 1 0.9289
    草地 172 4 138 568 73 255 1 33 0 6263 0 0.8376
    水体 4 0 0 1 1 1152 0 0 1 0 9247 0.8886
    制图精度 0.9150 0.9638 0.8761 0.9155 0.7671 0.6055 0.9713 0.8161 0.9617 0.7509 0.9874
    总体分类精度:87.44%;Kappa系数:0.8596
    下载: 导出CSV

    表  4  堆叠特征分类精度

    Table  4.   Classification accuracy of stacking features

    类别 道路 林地 城郊 农田 其他 用户精度
    道路 122208 1456 6531 9828 18352 0.7435
    林地 1913 91840 50760 106297 8531 0.3541
    城郊 25348 9464 204174 16170 40917 0.6896
    农田 2552 5649 6351 64194 30475 0.5880
    其他 109049 150 10698 24033 473749 0.7670
    制图精度 0.4877 0.8539 0.7384 0.2925 0.8282
    总体分类精度:66.78%;Kappa系数:0.5547
    下载: 导出CSV

    表  5  组合CRF分类精度

    Table  5.   Classification accuracy of combined CRF model

    类别 道路 林地 城郊 农田 其他 用户精度
    道路 93169 1970 7725 3805 57661 0.5668
    林地 434 201255 50737 4032 2883 0.7760
    城郊 955 10321 267059 9783 7955 0.9020
    农田 407 12851 18465 56485 20968 0.5174
    其他 22984 2355 23078 54041 515211 0.8341
    制图精度 0.7899 0.8798 0.7276 0.4406 0.8520
    总体分类精度:78.33%;Kappa系数:0.7013
    下载: 导出CSV
  • [1] Zhang La-mei, Wang Xiao, Sun Liang-jie, et al.. Contextual sparse representation and its application in polarimetric SAR image classification[C]. IET International Radar Conference, Hangzhou, China, 2015: 1–5.
    [2] Shang Fang and Hirose A. Use of Poincare sphere parameters for fast supervised PolSAR land classification[C]. Proceedings of 2013 IEEE International Geoscience and Remote Sensing Symposium, Melbourne, VIC, 2013: 3175–3178.
    [3] Xie Wen, Jiao Li-cheng, and Zhao Jin. PolSAR image classification via D-KSVD and NSCT-Domain features extraction[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(2): 227–231. doi: 10.1109/LGRS.2015.2506718
    [4] Kong J A, Swartz A A, Yueh H A, et al.. Identification of terrain cover using the optimum polarimetric classifier[J]. Journal of Electromagnetic Waves and Applications, 1988, 2(2): 171–194.
    [5] Silva W B, Freitas C C, Sant’Anna S J S, et al.. Classification of segments in PolSAR imagery by minimum stochastic distances between Wishart distributions[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2013, 6(3): 1263–1273. doi: 10.1109/JSTARS.2013.2248132
    [6] 孙即祥. 现代模式识别[M]. 长沙: 国防科技大学出版社, 2002: 385–447.

    Sun Ji-xiang. Modern Pattern Recognition[M]. Changsha: Press of National University of Defense Technology, 2002: 385–447.
    [7] Lee J S and Ainsworth T L. An overview of recent advances in Polarimetric SAR information extraction: Algorithms and applications[C]. Proceedings of 2010 IEEE International Geoscience and Remote Sensing Symposium, Honolulu, HI, 2010: 851–854.
    [8] 钟平. 面向图像标记的随机场模型研究[D]. [博士论文], 国防科学技术大学, 2008.

    Zhong Ping. Random fields model for image label[D]. [Ph.D. dissertation], National University of Defense Technology, 2008.
    [9] Zhong Ping and Wang Run-sheng. A multiple conditional random fields ensemble model for urban area detection in remote sensing optical images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(12): 3978–3988. doi: 10.1109/TGRS.2007.907109
    [10] Lafferty J, McCallum A, and Pereira F. Conditional random fields: Probabilistic models for segmenting and labeling sequence data[C]. Proceedings of the Eighteenth International Conference on Machine Learning, San Francisco, CA, USA, 2001: 282–289.
    [11] Kumar S and Hebert M. Discriminative random fields: A discriminative framework for contextual interaction in classification[C]. IEEE International Conference on Computer Vision, Piscataway, NJ, 2003: 1150–1157.
    [12] 吴立珍. 面向UAV战场感知的目标特征建模与应用研究[D]. [博士论文], 国防科学技术大学, 2012.

    Wu Li-zhen. Research on object feature modeling and applications for battlefield awareness of unmanned aerial vehicle[D]. [Ph.D. dissertation], National University of Defense Technology, 2012.
    [13] Pearl J. Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference[M]. California: Morgan Kaufmann, 1988: 247–289.
    [14] Wang Lei-guang, Dai Qin-ling, and Huang Xin. Spatial regularization of pixel-based classification maps by a two-step MRF method[C]. Proceedings of IEEE International Geoscience and Remote Sensing Symposium, Beijing, 2016: 2407–2410.
    [15] Zhong Yan-fei, Zhao Ji, and Zhang Liang-pei. A hybrid object-oriented conditional random field classification framework for high spatial resolution remote sensing imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(11): 7023–7037. doi: 10.1109/TGRS.2014.2306692
    [16] Pieczynski W and Tebbache A N. Pairwise markov random fields and segmentation of textured images[J]. Machine Graphics and Vision, 2000, 9(3): 705–718.
    [17] Kumar S and Hebert M. A hierarchical field framework for unified context-based classification[C]. Proceedings of the Tenth IEEE International Conference on Computer Vision, Beijing, 2005: 1284–1291.
    [18] Jiang Wei, Chang S F, and Loui A C. Context-based concept fusion with boosted conditional random fields[C]. Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing, Honolulu, HI, 2007: I-949–I-952.
    [19] Lee C H, Schmidt M, Murtha A, et al.. Segmenting brain tumors with conditional random fields and support vector machines[C]. Proceedings of the First International Conference on Computer Vision for Biomedical Image Applications, Beijing, China, 2005: 469–478.
    [20] Do T M T and Artières T. Polynomial conditional random fields for signal processing[C]. Proceedings of the 2006 Conference on ECAI 2006: 17th European Conference on Artificial Intelligence, Riva del Garda, Italy, 2006: 797–798.
    [21] Du Pei-jun, Samat A, Waske B, et al.. Random forest and rotation forest for fully polarized SAR image classification using polarimetric and spatial features[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 105: 38–53. doi: 10.1016/j.isprsjprs.2015.03.002
    [22] Zou Tong-yuan, Yang Wen, Dai Deng-xin, et al.. Polarimetric SAR image classification using multifeatures combination and extremely randomized clustering forests[J]. EURASIP Journal on Advances in Signal Processing, 2010, 2010: Article No. 4.
    [23] Freeman A and Durden S L. A three-component scattering model for polarimetric SAR data[J]. IEEE Transactions on Geoscience and Remote Sensing, 1998, 36(3): 963–973. doi: 10.1109/36.673687
    [24] Haralick R M, Shanmugam K, and Dinstein I. Textural features for image classification[J]. IEEE Transactions on Systems, Man, and Cybernetics, 1973, SMC-3(6): 610-621. doi: 10.1109/TSMC.1973.4309314
    [25] Yamaguchi Y, Moriyama T, Ishido M, et al.. Four-component scattering model for polarimetric SAR image decomposition[J]. IEEE Transactions on Geoscience and Remote Sensing, 2005, 43(8): 1699–1706. doi: 10.1109/TGRS.2005.852084
  • 加载中
图(14) / 表(5)
计量
  • 文章访问数: 
  • HTML全文浏览量: 
  • PDF下载量: 
  • 被引次数: 0
出版历程
  • 收稿日期:  2016-09-22
  • 修回日期:  2016-12-14
  • 网络出版日期:  2017-10-28

目录

/

返回文章
返回