一种基于似然比统计量的SAR相干变化检测

赵军香 梁兴东 李焱磊

郭文杰, 吴振华, 曹宜策, 等. 多域浅层特征引导下雷达有源干扰多模态对比识别方法[J]. 雷达学报(中英文), 2024, 13(5): 1004–1018. doi: 10.12000/JR24129
引用本文: 赵军香, 梁兴东, 李焱磊. 一种基于似然比统计量的SAR相干变化检测[J]. 雷达学报, 2017, 6(2): 186-194. doi: 10.12000/JR16065
GUO Wenjie, WU Zhenhua, CAO Yice, et al. Multidomain characteristic-guided multimodal contrastive recognition method for active radar jamming[J]. Journal of Radars, 2024, 13(5): 1004–1018. doi: 10.12000/JR24129
Citation: Zhao Junxiang, Liang Xingdong, Li Yanlei. Change Detection in SAR CCD Based on the Likelihood Change Statistics[J]. Journal of Radars, 2017, 6(2): 186-194. doi: 10.12000/JR16065

一种基于似然比统计量的SAR相干变化检测

DOI: 10.12000/JR16065
基金项目: 

国家863计划船载无人机海洋观测系统 2013AA092105

国家863计划船载无人机海洋观测系统 201412002

详细信息
    作者简介:

    赵军香 (1989–), 女, 中国科学院电子学研究所硕士研究生, 研究方向为雷达信号处理。E-mail:jxzhao_0817@163.com

    梁兴东 (1973–), 男, 中国科学院电子学研究所研究员, 研究领域包括高分辨率合成孔径雷达系统、干涉合成孔径雷达系统、成像处理及应用和实时数字信号处理。E-mail:xdliang@mail.ie.ac.cn

    李焱磊 (1983–), 男, 中国科学院电子学研究所助理研究员, 研究方向为机载差分干涉SAR信号处理。E-mail:yllee@mail.ie.ac.cn

    通讯作者:

    赵军香, E-mail:jxzhao_0817@163.com

  • 中图分类号: TN957.51

Change Detection in SAR CCD Based on the Likelihood Change Statistics

Funds: 

National 863 Plan Ship-carried UAV Ocean Observation System 2013AA092105

Surveying and Mapping Geographic Information Public Service Industry Research Projects 201412002

  • 摘要: 相干变化检测利用相位差异可以检测出场景中的微小变化。该文针对相干变化检测中的两个问题:虚警高和阈值难选择,在原有似然比检测算法的基础上做了两点改进:运用最大似然估计优化似然比统计量中的参数,并采用邻域滑动窗口使得参数估计结果更加准确稳健;根据差异图像直方图提出了一种基于邻域直方图差的自动阈值选取方法。实测数据处理结果验证了算法的有效性。

     

  • 现代雷达作战面临日趋复杂的电磁干扰环境,快速、准确地辨识有源干扰类型是雷达认知干扰对抗的先决条件,对后续针对性实施干扰抑制措施[1]与交互学习生成最优干扰对抗策略[2]至关重要。传统干扰识别流程通常是对回波的时域、频域、变换域中的关键特征参数进行提取,如时域矩峰度、峰均值功率比、快速脉内调制系数等,以实现欺骗类、调制噪声压制类、时域起伏压制类有源干扰的初步辨识。接着,通过深入分析双谱域、脉压域、时频域等调制域中的特性,提取如包络起伏、瞬时幅频最大值、频域峰均值功率比、频率平稳度等关键差异特征参数,进一步对有源干扰中的假目标欺骗类和时域起伏压制类进行精细辨识。基于人工设计提取的多域浅层特征与决策树、支持向量机等分类器相结合的有源干扰流式识别方法[3],在单一参数下多干扰类型分类上较为有效,但该类方法强依赖专家经验进行特征降维与稳健特征筛选,难以应对当前越来越复杂的复合干扰。

    借助深度神经网络对图像域深层特征高效学习与提取能力,特别是以卷积神经网络(Convolutional Neural Networks, CNN)为代表的深度网络,对多域干扰特征图像模态,包括时频图[4]、双谱图[5]、功率谱图[6]进行监督训练学习,已被广泛应用于有源干扰识别领域中。近年来,为适应快变动态干扰对抗作战环境,小样本条件下的深度学习稳健干扰识别方法成为研究热点。欺骗类有源干扰经时频变换后,虽在时频域中展现出明显条纹分布特性,但同时也兼具较高相似性。这使得在有源干扰深度学习识别模型训练中,特别是面临类间、类内具有一定相似性小样本条件时,模型容易陷入过拟合,并且泛化能力受到严重挑战。针对此问题,数据增广[7]、迁移学习[8]、集成学习[9]、知识蒸馏[10]、对比学习[11]等小样本条件下基于单一时频变换域有源干扰深度学习识别方法相继被提出。此外,为充分挖掘单模时频谱图深层网络特征,文献[12]引入慢时间距离-多普勒图与快时间时频谱图进行联合特征学习。文献[13]则联合分数阶傅里叶变换时频图与短时傅里叶变换(Short Time Fourier Transform, STFT)时频图实现局部和全局特征融合。

    除了深入探索时频图像的深层网络特征外,已有研究还成功地将传统特征整合到深度学习框架中。这些研究通过联合多域浅层特征与深层网络特征,使得干扰识别特征在保持深层语义表征能力的同时,融入了物理特性,从而实现了对干扰类型更全面且精确的描述。文献[14]通过构建基于一维卷积神经网络(One Dimensional Convolutional Neural Network, 1D-CNN)和长短时间记忆网络的双通道拼接网络,有效融合了欺骗干扰的快-慢时间维图像特征和幅频响应特征,显著提升了识别性能。文献[15]讨论了多模态特征融合算法,该算法通过卷积层和池化层将干扰的时域特征、信息统计特征和时频域图像特征进行有效融合。文献[16]采用原型网络提取干扰的多域浅层特征和时频图像的深层特征,通过拼接特征向量并应用迁移学习技术,显著提高了识别性能和泛化能力。文献[17]则是利用1D-CNN和二维卷积神经网络(Two Dimensional Convolutional Neural Network, 2D-CNN)分别提取干扰的时域特征和时频图像特征,并通过特征向量拼接实现了信息的有效整合。此外,其他领域的研究者也积极探索了浅层与深层特征联合的方法。文献[18]利用基于注意力的互反特征融合机制,将散射点的拓扑信息纳入了网络学习合成孔径雷达(Synthetic Aperture Radar, SAR)图像特征的过程,提高了小样本船舶SAR图像分类的精度和鲁棒性。文献[19]通过基于交叉注意力的散射与空间信息交互模块,在散射感知特征和极化SAR图像斑块空间特征之间建立信息交换,缓解了两类特征语义信息的不平衡,使聚合后的特征更具辨别性,进而增强了对土地覆盖分类特征的辨别能力。文献[20]分析了在输入数据维度拼接、中间隐层特征拼接、输出识别概率加权3种不同的特征融合方式后,通过前级特征交互模块和深层注意力特征融合模块,实现了回波特征和目标方位角度在特征提取各个阶段的层次化融合。文献[21]分别提取海杂波和目标信号的幅值特征和时间-多普勒域图像特征,使用基于CNN的双通道网络提取特征,并通过全连接层实现双通道特征融合。

    虽然多域浅层特征与深层网络特征的联合应用在雷达智能干扰识别领域取得了一定进展,但当前研究仍面临诸多挑战。首先,浅层物理特征与深层抽象特征间在属性和表征力上存在本质差异,这就要求在联合这些特征时需采取更加精细的策略。直接进行简单的特征联合,有可能加重后端网络优化的复杂度,甚至可能因特征属性的显著差异而抑制浅层物理特征对提高干扰特征识别力的正向促进效果。其次,现有联合策略通常只侧重于追求浅层特征的多样性,而缺乏对特征的冗余性和任务适应性的考量。

    针对上述挑战,有必要探索更加稳健有效的有源干扰多域浅层特征与时频域深层网络特征联合策略,能够充分利用浅层物理特征与深层抽象特征各自的优点,以提升在极端小样本下干扰识别模型的鲁棒性和可靠准确性。针对前述有源干扰多域浅层特征与时频域深层网络特征的稳健联合挑战,以及如何维持极端小样本条件(每类干扰训练样本为2~3个)下高干扰识别准确率的问题,基于多模态对比学习框架[22],本文提出了一种多域浅层特征引导下雷达有源干扰多模态对比识别方法。在充分提取有源干扰多域浅层特征基础上,设计优选单元自动选择有效特征,生成对应含有隐式专家知识的文本模态。将文本模态与时频变换图像分别输入至文本与图像编码器,构建多模态特征对并映射至模态对齐高维空间中,利用文本特征作为锚点,通过对比学习引导时频特征向锚点聚合,以优化图像编码器表征能力,实现有源干扰分类特征类内更加聚集、类间更加分离。实验结果表明,相较于已有深浅特征直接联合策略,本文所提出的引导式联合方法能够有效处理特征差异,从而提高识别特征判别力和泛化力。

    本文在深入分析少量实测干扰数据的基础上,对针对线性调频雷达发射信号的多种有源干扰作用机理充分认知,以及多类型干扰关键参数进行了建模分析,对应生成了基于实测数据的包含经典单一与复合样式的有源干扰数据集。

    通常情况下,以脉冲多普勒雷达发射的线性调频(Linear Frequency Modulation, LFM)信号作为雷达发射信号s(t),表达式如下:

    s(t)=rect(tT)exp(iπkt2)
    (1)

    其中,rect()为矩形窗函数;T为脉宽;k为雷达发射信号调频斜率,k=B/TB为带宽;i=1

    雷达接收机的接收信号r(t)一般为雷达发射信号s(t)、干扰信号J(t)和高斯白噪声n(t)的叠加,表示为

    r(t)=s(t)+J(t)+n(t)
    (2)

    雷达有源干扰识别任务针对式(2)所示接收信号进行识别。为验证所提干扰识别算法的广泛适用性,本文在构建的数据集中共包含了8种典型的单一有源干扰样式,具体为噪声卷积干扰(Noise Convolution Jamming, NCJ)和灵巧噪声干扰(Smart Noise Jamming, SNJ)两种压制干扰,以及梳状谱干扰(COMB Jamming, COMBJ)、频谱弥散干扰(Smeared Spectrum Jamming, SMSPJ)、相参压制干扰(Coherent Suppressing Jamming, CSJ)[23]、密集假目标干扰(Dense False Target Jamming, DFTJ)、间歇采样循环转发干扰(Interrupted Sampling and Cyclic repeater Jamming, ISCJ)和调制间歇采样重复转发干扰(Modulated Interrupted Sampling and Repeater Jamming, MISRJ)[24]6种欺骗干扰。

    另外,在复杂的电磁对抗环境中,雷达系统为确保作战效能,往往会遭遇多源干扰设备的协同攻击。因此,雷达接收机面临的挑战不仅限于单一干扰源,还需应对由两个或更多独立干扰源组成的复合干扰。为验证所提算法在识别复合干扰方面的精准性,本文构建的数据集还涵盖了多种复合有源干扰样式。且重点聚焦在由压制性干扰与欺骗性干扰以及欺骗性干扰之间的加性复合干扰,以确保复合干扰效应的合理性和有效性。具体而言,所构建的数据集包括了噪声卷积与密集假目标复合干扰(NCJ+DFTJ)、灵巧噪声干扰与密集假目标复合干扰(SNJ+DFTJ)、梳状谱与间歇采样循环转发复合干扰(COMBJ+ISCJ)、相参压制与频谱弥散复合干扰(CSJ+SMSPJ)、调制间歇采样重复转发与间歇采样循环转发复合干扰(MISRJ+ISCJ)和调制间歇采样重复转发与频谱弥散复合干扰(MISRJ+SMSPJ)共6种加性复合干扰。

    本文构建的雷达有源干扰数据集的时频图像如图1所示。基于这一数据集,对提出的方法以及先进的对比方法开展了丰富的实验验证工作,旨在全面评估所提方法在单一与复合干扰共存的复杂电磁环境场景下的干扰识别性能。

    图  1  雷达发射信号与雷达干扰的时频图像
    Figure  1.  Time-frequency spectrograms of the transmission signal and radar jamming

    本文提出的干扰识别方法将多域浅层特征转化为文本模态,以支持后续多域浅层特征引导策略的实现。为此,基于干扰的一维数据,本文从时域、频域、时频域、双谱域、小波域和统计域共6个调制域提取干扰的多域浅层特征,表1展示了这些特征的中英文名称。在时域中,我们主要关注时域矩偏度、时域矩峰度、包络起伏度和快速脉内调制识别参数,以捕捉干扰在时间维度的变化特性。频域分析则侧重于频域矩偏度、频域矩峰度、载波因子和高斯白噪声因子,以揭示干扰的频率特性。时频域特征,包括时频图像的重心和标准差,描述了信号在时频平面上的分布特性,有助于识别干扰时频变化。双谱域通过分析双谱方差和双谱矩阵特征,展现了信号的高阶统计特性,对复杂干扰识别至关重要。小波域关注信号的方差、均值、最大值、尺度重心、最大奇异值和中心矩,以揭示小波变换后干扰的局部细节和整体特性。统计域则通过信息熵、指数熵和范数熵参数,衡量干扰的不确定性和复杂性,有效区分具有不同统计特性的干扰。通过综合这些来自不同调制域的浅层特征,以更全面地描述干扰信号的特性,为后续的干扰识别提供更为准确和丰富的信息。

    表  1  雷达干扰多域浅层特征
    Table  1.  Multidomain characteristics of radar jamming
    调制域 干扰特征中英文名称
    时域 矩偏度
    Time domain skewness
    矩峰度
    Time domain kurtosis
    包络起伏度
    Envelope undulation
    快速脉内调制识别参数
    Fast intra pulse modulation recognition parameters
    频域 矩偏度
    Frequency domain skewness
    矩峰度
    Frequency domain kurtosis
    载波因子
    Carrier factor
    加性高斯白噪声因子
    Additive Gaussian white noise factor
    时频域 时频图像重心
    Centroid of time-frequency image
    时频图像标准差
    Time-frequency image standard deviation
    双谱域 双谱方差
    Bispectral variance
    双谱均值
    Bispectral mean
    小波域 方差
    Variance
    均值
    Mean value
    最大值
    Maximum
    尺度重心
    Scale center of gravity
    最大奇异值
    Maximum singular value
    中心矩特征
    Central moment feature
    统计域 信息熵
    Information entropy
    指数熵
    Exponential entropy
    范数熵
    Norm entropy
    下载: 导出CSV 
    | 显示表格

    图2展示了本文提出的多域浅层特征引导下雷达有源干扰多模态对比识别方法的具体流程,主要包含训练阶段和测试阶段。在训练阶段,所提出的多域浅层特征引导的雷达有源干扰多模态对比网络,以干扰时域信号作为输入,分别进行多域浅层特征的嵌入和时频图像深层特征的提取,以获得多域文本特征和时频图像特征。随后,将文本和图像特征映射到模态对齐高维空间中,实现多模态特征的对齐,进而实现雷达有源干扰精确识别。具体来说,首先通过STFT,生成第i个干扰相应的二维时频图像,并在时频图像深层特征提取模块利用图像编码器提取其图像特征pi。同时,在多域浅层特征嵌入模块,获得第i个干扰的多域浅层特征,通过设计的多域特征优选单元自动选择特征,并生成相应的文本模态信息。之后,使用文本编码器将这些文本转换为包含专家知识的多域文本特征ti。最后,在多模态特征对齐模块,将时频图像特征pi和多域文本特征ti作为多模态特征对,映射至模态对齐高维空间中,并将文本模态特征作为锚点,通过对比学习引导时频图像特征pi在类内更聚集,在类间更分离,以优化图像编码器表征能力。随后,利用调整后的时频图像特征pi判别干扰类型。在测试阶段,直接利用训练完全的图像编码器和分类器来精确识别雷达有源干扰的类型。

    图  2  所提方法的算法流程图
    Figure  2.  Algorithm flowchart of the proposed method

    干扰信号的二维时频图像能够直观地展示干扰信号在时间和频率两个维度上的变化,从而提供丰富的干扰信息。因此,本文使用时频图像深层特征提取模块来提取干扰信号的时频图像特征,进而获得不同干扰类型的图像模态信息。如图2所示,该模块主要由图像编码器和分类器构成。首先,对干扰信号进行数据预处理。STFT作为经典的时频分析方法,在雷达信号处理中因直观易懂、计算效率高以及平衡的时间和频率分辨率等优点而被广泛使用。因此,我们采用STFT将一维干扰信号转换为二维时频图像。之后,将时频图像输入到图像编码器中,提取图像特征。图像编码器是基于轻量级网络EfficientNetV2[25]构建的,其详细网络参数见表2。其中,Fused-MBConv (Fused-Mobile inverted Bottleneck Convolution)层通过同时调整深度和宽度来提高模型效率;MBConv (Mobile inverted Bottleneck Convolution)层利用可分离卷积来降低计算复杂度;池化(Pooling)层用于降低特征的空间维度,同时增加对图像位移的不变性;全连接(Fully Connected, FC)层用于整合特征并为分类器提供输入。接着,将图像编码器提取的时频图像深层特征输入分类器,以获得相应的干扰预测概率。分类器主要由全局最大池化层和全连接层构成。其中,全连接层的输出维度对应干扰数据集中的干扰类别总数。最后,计算预测概率输出与真实标签的独热(one-hot)编码之间的交叉熵损失,得到分类损失Lcls,该损失衡量了模型预测与实际标签之间的差异:

    表  2  EfficientNetV2网络结构
    Table  2.  EffcientNetV2 architecture
    阶段名称通道数层数状态
    0Conv241冻结
    1Fused-MBConv242冻结
    2Fused-MBConv484冻结
    3Fused-MBConv644冻结
    4MBConv1286冻结
    5MBConv1609训练
    6MBConv27215训练
    7Conv & Pooling & FC17921训练
    下载: 导出CSV 
    | 显示表格
    Lcls=1Nicyciln(pci)
    (3)

    其中,pi表示第i个干扰样本的预测概率,而yi是相应的真实标签,c为干扰类别总数,N为训练样本的个数。

    在训练过程中,图像编码器中加载了使用大规模数据集ImageNet-1K预训练得到的权重,通过预训练权重中蕴含的知识,以减轻极端小样本情况下图像编码器过拟合的问题,帮助其维持泛化能力。同时,我们冻结了图像编码器的0~4阶段,如表2所示,仅对5~7阶段进行训练,以微调图像编码器,使其更好地适应本文中使用的干扰时频图像。

    面对日益多样化的干扰类型,尤其是在包含单一和复合干扰的复杂电磁对抗场景中,基于单一图像模态的识别方法显示出了局限性。这些方法通常难以全面捕捉干扰信号的特性,特别是在极端小样本条件下,训练数据的不足使得模型无法学习到具有强辨别性的特征,进而导致识别精度显著下降。具体来说,虽然时频图像能直观展示信号在时间和频率上的分布,但其在复杂情况下对干扰的表征存在不足。尤其是复合干扰,其时频图像可能包含多个重叠或相互干扰的单一干扰特征,这使得仅依赖图像模态的识别变得特别困难。为了解决这一问题,我们设计了多域浅层特征嵌入模块,如图2所示,引入文本模态来丰富模型学习的信息,从而提高极端小样本情况下模型的干扰识别精度。首先,本文设计的多域特征优选单元能自动将筛选后的多域浅层特征转换为包含隐式专家知识的文本。随后,这些文本通过文本编码器进一步提取为文本特征,并在后续对齐模块中引导时频图像深层特征进行调整。多域浅层特征嵌入模块能自动筛选出具有代表性的特征,取代了传统方法中依赖专家知识指导的特征选择。此外,多域浅层特征的嵌入将专家知识隐含于特征选择和文本生成的过程中。这不仅提高了识别模型的泛化能力,还优化了其在不同干扰场景下的识别性能。

    多域浅层特征嵌入模块主要由设计的多域特征优选单元和文本编码器组成。为了减小多域浅层特征中可能存在的无用或噪声特征对后续识别造成的负面影响,获得更准确、有效的干扰识别结果,我们设计了多域特征优选单元,对提取的多域浅层特征进行筛选,并将优选特征的名称作为文本模态信息,组成多域特征文本,输入文本编码器。

    多域特征优选单元算法流程示意图如图3所示(关键步骤的详细处理以NCJ为例)。这一过程受自然语言处理领域表格到文本(Table2Text)任务[26,27]的启发。首先,提取干扰的多域浅层特征,如表1所列。并对其进行归一化处理,生成图3中的特征数值表。特征数值表包含了每类干扰在各个浅层特征上的数值大小。我们将表中的每个单元格都视为一条记录,使用每个单元格对应的行表头r.jamming(特征数值表中的黄色部分)、列表头r.characteristics(特征数值表中的紫色部分)和数值r.value(特征数值表中的绿色部分)组成记录的内容。接着,通过图3中的特征嵌入机制,将每条记录的嵌入向量编码成一个记录向量rembi,j

    图  3  多域特征优选单元算法流程示意图(以NCJ为例)
    Figure  3.  Algorithm flowchart of the multidomain characteristics selection unit (taking NCJ as an example)
    rembi,j=ReLU(We[ri,j.jamming;ri,j.characteristics;ri,j.value]+be)
    (4)

    其中,i,j表示特征数值表的第i行第j列,[;]表示向量拼接,Webe是全连接层的权重。

    其次,为了精确捕获记录之间数值的相对大小关系,采用图3中的行\列表示编码机制,关注同一列的其他记录,引入其包含的上下文信息,对当前记录进行列维编码,进而获得列维表示向量rcoli,j

    αcoli,j,iexp(Wcol2tanh(Wcol1[rembi,j;rembi,j]))
    (5)
    ˜rcoli,j=Ri=1,iiαcoli,j,irembi,j
    (6)
    rcoli,j=Wcol3[˜rcoli,j;rembi,j]
    (7)

    其中,Wcol1, Wcol2Wcol3是全连接层的权重,R表示特征数值表的行数(不含表头)。按照上述同样的步骤,对当前记录进行行维编码,进而获得行维表示向量rrowi,j

    然后,为了在评分特征时同时考虑不同维度记录的上下文信息,获得当前记录的整体信息,我们将当前记录的列、行表示向量连接,并利用图3中的特征嵌入机制获得其全局表示向量rgeni,j

    rgeni,j=ReLU(We[rcoli,j;rrowi,j]+be)
    (8)

    再通过列维表示向量rcoli,j与全局表示向量rgeni,j可以计算出当前记录的列维分数scorecoli,j

    scorecoli,jexp(Ws2tanh(Ws1[rgeni,j;rcoli,j]))
    (9)

    其中,Ws1Ws2是全连接层的权重。同样地,通过行维表示向量rrowi,j与全局表示向量rgeni,j可以计算出当前记录的行维分数scorerowi,j。接着,计算全局特征分数scoregeni,j,以量化该特征对于区分该类干扰的有效性和贡献度:

    scoregeni,j=scorecoli,jrcoli,j+scorerowi,jrrowi,j
    (10)

    最后,将全局特征分数scoregeni,j与特征数值ri,j.value对应相乘,以其结果每行最大值所对应的列表头r.characteristics作为当前记录对应干扰的文本模态信息(特征名称的英文形式),如<Time domain kurtosis>,并输入文本编码器进行下一步的处理。

    上述多域特征优选单元选择策略基于特征对干扰类型区分的贡献度进行筛选,充分提取了当前单元格的上下文信息,以确保最终优选特征的有效性和代表性。通过多域特征优选单元的处理,不仅能够有效内嵌专家知识,提高模型的适应性和可扩展性,而且输出的文本描述简洁易懂,便于后续处理和解释。

    本文采用了与文献[28]中相似的Transformer网络结构作为文本编码器,并加载了CLIP (Contrastive Language-Image Pre-training)[22]文本编码器的预训练权重。该权重在大规模数据集DataComp-1B上训练得到,通过加载该预训练权重,使得我们的文本编码器在极端小样本情况下有效地将多域特征文本转换为更加具有判别力的文本特征,并且保持良好的泛化能力。同时,考虑到训练成本和识别精度之间的平衡,我们选择直接冻结编码器的权重,以降低训练过程中的时间和空间成本。在文本处理过程中,我们首先应用了Tokenize函数对多域特征优选单元生成的文本<特征名称>,即优选特征的英文名称,进行编码,将其转换为文本张量表示。随后,这些张量被输入到Transformer网络中,以提取文本特征并实现多域浅层特征的嵌入。其中,Transformer网络由128个注意力单元组成,每个单元通过8个注意力头并行处理数据,最终输出的文本特征维度为128。输出文本特征在后续的对齐过程中充当锚点,并引导时频图像深层特征的调整和优化,从而增强模型对干扰类型的识别能力和泛化性。

    提取文本和图像模态特征后,有效联合这两种模态特征对于精确识别干扰至关重要。为此,本文构建了一个多模态特征对齐模块,如图2所示,以融合两种模态特征,使模型能够更充分地利用多域浅层特征和时频图像信息。由于文本特征来源于多域浅层特征,它们在不同干扰类型间展现出显著的类间差异。因此,多模态特征对齐模块主要利用多域文本特征的引导作用,对时频图像特征进行细致调整和优化。特别是在训练样本极为有限的情况下,文本特征对于确保时频图像特征的表征准确性至关重要。这使得调整后的时频图像特征在类内更聚集,在类间更分离,显著提高了干扰识别的精确度。此外,本文的深浅特征的联合方法,相比于直接融合多域浅层特征与深层特征,有助于解决因特征属性差异导致某些弱势特征作用减弱的问题。这能更充分地发挥两类特征的优势,有效利用它们的多样性和丰富性,提升干扰识别的性能。

    在多模态对齐模块中,我们采用监督对比学习的方法,来实现时频图像特征与多域文本特征的对齐。首先,将提取的干扰时频图像特征pi和多域文本特征ti映射到模态对齐的高维空间中。然后,将映射后的多域文本特征作为锚点,通过监督对比学习策略调整时频图像特征,使得同一类型干扰的时频图像特征之间的距离逐渐缩短,从而使模型能够学习到更具鲁棒性和判别性的时频图像特征。监督对比学习策略通过最小化信息噪声对比估计(Information Noise Contrastive Estimation, InfoNCE)损失[29]来实现。具体来说,对于任意样本xi,通过图像编码器提取的时频图像特征定义为pi。根据样本xi的标签确定相应的多域文本特征,并将其记为ti。在包含样本xi的同一训练批次中,与xi标签相同的样本称为正样本,不同标签的样本称为负样本。Pp(i)Pt(i)分别表示正样本的图像特征集和文本特征集。相应地,Ap(i)At(i)分别表示负样本的图像特征集和文本特征集。因此,本文定义模态对齐损失Lalign

    Lalign=Ni=01M(pPp(i)ln[exp(tTip+p/τ)aAp(i)exp(tTipa/τ)]+pPt(i)ln[exp(pTit+p/τ)aAt(i)exp(pTita/τ)])
    (11)

    其中,p+ppa分别表示来自Pp(i)Ap(i)的特征。同样地,t+pta分别表示来自Pt(i)At(i)的特征。τ为控制Softmax中对数范围的超参数。M为一个训练批次的样本量,且N=M1。在式(11)中,将样本xi的时频图像特征pi和多域文本特征ti分别与正样本和负样本的图像特征和文本特征进行对比,利用具有高度区分性的多域文本特征ti来引导时频图像特征pi越来越聚集于正样本p+p,同时与负样本pa越来越分离。通过最小化模态对齐损失Lalign,时频图像特征的类内相似性和类间差异性显著增强,从而提高了整体模型的干扰识别性能。这一方法不仅联合了包含专家知识的多域浅层特征,而且将其有效地整合到时频图像特征的学习过程中,能够促进雷达干扰的多域浅层特征与深层网络特征之间的稳健联合,从而在极端小样本的情况下显著提升了干扰识别的效果。

    在模型训练过程中,图像编码器和文本编码器同时进行优化。因此,模型的总训练损失Ltotal定义为

    Ltotal=Lcls+λLalign
    (12)

    其中,λ是用于平衡模态对齐损失的超参数。在训练阶段,使用总损失值Ltotal通过反向传播算法计算梯度,并优化模型网络参数,从而提高干扰识别能力。在测试阶段,直接使用训练完成的图像编码器和分类头来预测干扰类型。

    为验证所提方法的有效性,我们利用2.1节构建的雷达有源干扰数据集进行了多种验证实验。该有源干扰数据集涵盖了丰富的干扰类型,包括8种经典单一干扰以及6种复合干扰,共计14种不同的干扰类型,确保了实验数据的代表性和多样性。表3详细列出了雷达发射信号及这14类干扰的主要参数设置。在本文实验中,设定了随机信噪比的范围为–5~5 dB,并固定干信比为15 dB。对于每种干扰类型,本文随机生成了200个样本。除非特别说明,我们从每类干扰中随机选取了2个样本作为训练集,剩余的198个样本则构成测试集。测试集占总样本量的99%,这一设置满足极端小样本条件(每类干扰训练样本为2~3个),同时足以有效评估模型性能。

    表  3  雷达发射信号与干扰参数设置
    Table  3.  Parameter setting of transmission signal and jamming
    信号类型 参数 赋值
    LFM 时宽 10 μs
    带宽 50 MHz
    采样频率 125 MHz
    J0 NCJ 干扰带宽 60 MHz
    高斯白噪声 N(0, 1)
    J1 SNJ 干扰个数 4~7个
    干扰时宽 1.5~2.5 μs
    干扰占空比 0.8
    高斯白噪声 N(0, 1)
    J2 CSJ 转发次数 2~4次
    切片时宽 2.5~5.0 μs
    干扰占空比 0.9
    干扰时延 0.5 μs
    J3 COMBJ 干扰个数 9~17个
    干扰带宽 10~40 MHz
    J4 SMSPJ 干扰个数 4~7个
    干扰时延 1~3 μs
    J5 DFTJ 假目标个数 5~10个
    假目标时延 1~3 μs
    J6 ISCJ 转发次数 2~4次
    干扰个数 1~4个
    切片时宽 1~3 μs
    干扰时延 0.5~1.0 μs
    J7 MISRJ 转发次数 3~5次
    切片时宽 6~8 μs
    干扰占空比 0.95
    干扰时延 0.5~1.0 μs
    J8 NCJ+DFTJ 由单一干扰参数决定
    J9 SNJ+DFTJ
    J10 CSJ+SMSPJ
    J11 COMBJ+ISCJ
    J12 MISRJ+SMSPJ
    J13 MISRJ+ISCJ
    注:“N(0, 1)”表示0为平均数、以1为标准差的正态分布。
    下载: 导出CSV 
    | 显示表格

    对于一维干扰信号,我们通过STFT将其转换为对应的二维时频图像,分辨率设定为256像素×256像素,以便于后续的时频图像深层特征提取。对于采用EfficientNetV2网络的图像编码器,我们先加载了使用大规模数据集ImageNet-1K预训练得到的权重,仅微调部分权重,避免了在极端小样本条件下从头训练网络可能导致的过拟合问题。对于文本编码器,我们直接采用了CLIP预训练模型的权重文件来初始化基于Transformer的文本编码器。鉴于CLIP的强大泛化能力和特征提取能力,同时考虑到识别性能与训练效率之间的平衡,我们决定冻结文本编码器,不进行微调。在模型训练阶段,我们选用了随机梯度下降优化器,并设置了200次迭代,初始学习率设定为0.004。所有干扰数据的仿真均在MATLAB 2021b环境中完成,深度学习模型则在基于Python 3.8.18和Pytorch 1.11.0环境下实现。实验平台处理器为Intel(R) Core(TM) i7-12700F CPU,主频为2.10 GHz;图形处理器为NVIDIA GeForce RTX 4060

    为了广泛评估所提方法的干扰识别性能,我们选用了总体平均识别准确率、召回率、F1指数、精准率和Kappa指数作为评估指标。在相同的实验条件下,我们进行了50次蒙特卡罗实验,并计算评价指标的平均值作为最终结果。此外,我们还计算了每秒浮点运算次数与模型参数量、单次训练平均时间与单次测试平均时间来分别定量评估模型的空间和时间复杂度。

    在网络总损失Ltotal中,超参数λ负责平衡模态对齐损失Lalign和时频图像分类损失Lcls之间的权重。同时,在模态对齐损失Lalign中,超参数τ负责控制Softmax函数中的对数范围。τ的大小会影响模型对其预测结果的自信度,同时增加对与正样本难以区分的负样本的关注度。这两个超参数对所提方法的识别性能产生重要影响。为了确定最优超参数值,我们设计对比实验来进行评估。

    首先,本文中超参数λ的可调取值范围在0~1,本文以0.2为间隔,通过记录不同λ下所提方法的识别准确率变化来确定最优值。实验结果如表4所示,λ的取值不同对识别性能产生较大影响。总体来说,λ值越大,识别准确率逐步提高。当λ取值0.8时,所提方法获得了最高的干扰识别准确率。因此,我们将λ的值固定为0.8用于后续实验。

    表  4  不同超参数λ对本文提出方法的识别准确率的影响(%)
    Table  4.  The impact of different hyperparameters λ on the recognition accuracy of the proposed method (%)
    超参数λ取值 准确率
    0.2 85.17
    0.4 88.79
    0.6 91.80
    0.8 93.55
    1.0 93.09
    注:表4中使用粗体标出了当前实验中最优的结果,下划线标出了当前实验中次优的结果。
    下载: 导出CSV 
    | 显示表格

    其次,超参数τ的可调范围一般定义在0~2[30],本文以0.25为间隔,在表5记录了在不同τ下所提方法的识别准确率变化。从表5的结果可以看出,模型识别准确率随着τ的增加,先提升后下降。在τ为0.75时,本文方法取得了最高的干扰识别准确率。因此,后续实验将τ值固定为0.75。

    表  5  不同超参数τ对本文提出方法的识别准确率的影响(%)
    Table  5.  The impact of different hyperparameters τ on the recognition accuracy of the proposed method (%)
    超参数τ取值 准确率
    0.25 60.26
    0.50 85.17
    0.75 93.55
    1.00 88.83
    1.25 88.13
    1.50 73.11
    1.75 70.44
    2.00 65.60
    注:表5中使用粗体标出了当前实验中最优的结果,下划线标出了当前实验中次优的结果。
    下载: 导出CSV 
    | 显示表格

    本文提出的方法之所以能够显著提升雷达有源干扰识别的性能,关键在于有效地利用了多域浅层特征来指导时频图像特征的调整与优化。这一过程使得时频图像特征在同类样本中更加集中,在不同类样本间则更加区分,从而实现更精确的识别效果。在此过程中,多域浅层特征的引导作用通过文本模态特征得以实现,这些文本特征由设计的多域浅层特征嵌入模块生成。在该模块中,多域特征优选单元与文本编码器协同工作,生成用于多模态特征对齐的文本特征,实现多域浅层特征的有效引导。需要说明的是,多域浅层特征嵌入模块中的多域特征优选单元与文本编码器并非独立工作,它们之间的协同作用是实现多域浅层特征引导的核心。因此,验证多域浅层特征嵌入模块的有效性,实质上就是在验证多域特征优选单元和引导策略的有效性。

    图4直观展示了有无多域浅层特征引导时,使用主成分分析对时频图像特征进行降维,得到可视化分布结果,以及干扰的原始时频特征图。如图4(a)所示,原始时频特征图中各干扰类型的聚类簇不紧凑,并出现明显混叠,表明构建的干扰数据集在特征空间中的本身可分性较低。对比图4(b)图4(c)可以看出,经过多域浅层特征引导后,各干扰类型的时频图像特征分布明显更紧凑,更易区分。尤其是红色方框标记的MISRJ, MISRJ+ISCJ和MISRJ+SMSPJ这3种干扰类型。图4(b)中,在无多域浅层特征引导时,它们的特征分布簇混叠严重。这主要是因为MISRJ+ISCJ和MISRJ+SMSPJ这两类复合干扰均包含MISRJ,未经引导的时频图像特征在区分这些相似干扰时效果不佳。然而,图4(c)中,这3类干扰的特征分布簇有效分离,且簇内紧凑性显著提升。这一结果表明,多域浅层特征引导策略优化了时频图像特征,提高了特征的类内紧凑性和类间可分性,从而增强了模型的干扰识别能力。

    图  4  时频图像深层特征的降维可视化分布图
    Figure  4.  Visualization of time-frequency images deep features

    从浅层物理特征与深层网络特征的结合来看,多域浅层特征引导是一种隐式的浅深特征联合方式。与特征拼接、通道拼接或注意力机制等显式融合方法不同,本文提出的方法利用文本模态作为媒介,实现了浅层特征与深层特征的协同作用,从而达到了隐式特征联合的效果。为了全面评估多域浅层特征引导的有效性,我们比较了本文的隐式特征对比方法与显式的浅深特征联合方式。表6展示了对比实验的结果。本文比较了3种方法:只使用时频图像特征、采用深浅特征拼接(即特征串联),以及本文的深浅特征对比方法在干扰识别准确率上的表现。表6中,不包括表头的第一行模型被用作基线模型。通过比较表6中的结果,我们发现与基线模型相比,采用特征拼接这种显式联合方式的模型在识别性能上有所提高。然而,值得注意的是,特征拼接方式的性能并未超过本文采用的隐式特征对比方法。在训练效率方面,本文方法在单次训练时间上低于传统的特征拼接方法。这得益于多域特征优选单元对初始浅层特征的筛选,有效降低了数据处理的复杂度。这一结果进一步证实了多域浅层特征引导策略的有效性和先进性。通过对比学习,利用多域浅层特征嵌入模块处理得到的文本特征,模型能够学习到更具判别性的时频图像特征,显著提升了雷达干扰识别的性能。

    表  6  有效性验证实验结果
    Table  6.  Validity verification experiment results
    多域浅层特征 时频图像深层特征 特征联合方式 准确率(%) 单次训练时间(s)
    × 80.11 0.203
    特征拼接 85.63 0.470
    特征对比(本文方法) 93.55 0.317
    注:“×”表示未使用相应的特征,“√”表示使用了相应的特征,并使用粗体标出了最优的结果,下划线标出了次优的结果。
    下载: 导出CSV 
    | 显示表格

    为评估和验证本文提出的多域浅层特征引导下雷达有源干扰多模态对比识别模型的性能,本节将其与多种现有的代表性干扰识别模型进行比较。包括文献[9]中构建的用于干扰识别的支持向量机(Support Vector Machine, SVM)和2D-CNN、文献[17]提出的特征融合网络DFM (Deep Fusion Model)、文献[31]使用的元学习网络MAML (Model-Agnostic Meta-Learning)以及文献[10]提出的知识蒸馏网络JR-TFSAD (few-shot Jamming Recognition network via Time-Frequency Self-Attention and global knowledge Distillation)。其中,SVM和2D-CNN是经典的机器学习模型和深度学习架构。DFM是一种基于CNN的干扰特征融合识别方法。MAML和JR-TFSAD则代表了小样本学习领域中干扰识别方法的最新进展。

    表7定量展示了在每类干扰仅有2个训练样本的条件下,不同识别方法的识别结果、时间复杂度和空间复杂度。其中,每类干扰的识别性能以准确率来衡量。从表7可以看出,尽管本文提出的方法在时间和空间复杂度上处于中等水平,但在识别性能上明显优于其他方法,平均准确率达到93.55%,比其他方法至少高出10%。这表明,通过多域浅层特征的引导,本文提出的方法在合理的计算资源消耗下,能够大幅增加干扰的识别准确率。对于SVM和2D-CNN这类依赖于大量训练样本的模型,在每类仅有两个训练样本的极端小样本条件下,模型参数优化受到限制,导致其识别效果不佳。此外,尽管DFM结合了浅层和深层特征,但其简单的显示特征融合方式所获得的识别特征判别力有限,导致其识别精度低于本文提出的方法。本文提出的方法利用多域浅层特征引导,通过文本特征与图像特征的对比联合,显著提高了识别特征的区分能力,从而在极端小样本条件下实现了识别性能的大幅提升。与MAML和JR-TFSAD等最新的小样本学习方法相比,本文方法的识别准确率至少高出10%,这充分证明了其在处理极端小样本干扰识别任务时的有效性和先进性。具体到每类干扰的识别准确率,本文方法均超过65%,而其他方法的识别准确率则显示出显著的不平衡,部分干扰类别的识别率甚至低于50%,最低可达20%左右。这些结果表明,本文方法在极端小样本条件下和复杂电磁对抗环境中具有高度鲁棒性,进一步凸显了其稳健性和优越性。

    表  7  不同方法的识别性能对比结果(均值±标准差)
    Table  7.  Experimental results of jamming recognition performance evaluation between the proposed method and the comparative methods (mean ± standard deviation)
    干扰类别和性能评价指标 干扰识别方法(%)
    SVM 2D-CNN DFM MAML JR-TFSAD 本文方法
    干扰类别 NCJ 61.57±8.97 97.74±0.34 100.00±0.00 98.33±0.15 98.97±0.00 96.92±0.37
    SNJ 94.55±6.74 82.97±1.50 71.23±0.15 73.67±0.36 89.23±0.15 86.15±1.45
    CSJ 96.16±6.02 100.00±0.00 100.00±0.00 100.00±0.00 100.00±0.00 100.00±0.00
    COMBJ 89.44±4.67 37.95±0.00 48.21±0.27 68.99±0.56 31.79±0.73 100.00±0.00
    SMSPJ 91.67±9.64 90.15±4.86 100.00±0.00 85.67±0.39 73.33±0.00 100.00±0.00
    DFTJ 48.23±7.81 45.13±0.00 65.85±0.25 94.98±0.19 100.00±0.00 92.30±0.80
    ISCJ 77.22±7.11 37.44±0.00 60.00±0.13 92.00±0.20 92.31±0.24 99.49±0.09
    MISRJ 39.29±4.13 99.03±0.15 78.97±0.11 80.67±0.50 92.31±0.00 93.85±0.57
    NCJ+DFTJ 62.12±9.82 100.00±0.00 95.90±0.05 100.00±0.00 80.00±0.00 100.00±0.00
    SNJ+DFTJ 91.97±8.29 100.00±0.00 84.77±0.83 99.67±0.23 97.95±0.00 95.90±0.55
    CSJ+SMSPJ 64.39±8.36 68.21±0.00 41.54±0.98 75.33±0.20 88.21±0.25 98.97±0.15
    COMBJ+ISCJ 56.21±9.95 100.00±0.00 58.15±0.25 54.02±0.47 77.95±0.00 67.70±2.08
    MISRJ+SMSPJ 40.96±8.05 57.03±1.60 36.56±0.33 49.00±0.48 77.44±0.25 92.82±0.81
    MISRJ+ISCJ 63.38±8.84 23.59±6.62 97.95±0.13 93.33±0.17 71.28±0.26 85.64±1.65
    识别结果 准确率(%) 69.80±1.42 73.41±0.42 74.23±0.26 83.26±0.45 83.55±0.22 93.55±0.29
    召回率(%) 69.97±1.57 73.74±0.34 74.64±0.22 83.35±0.39 83.64±0.23 93.61±0.27
    F1(%) 68.23±1.74 72.75±0.39 73.15±0.15 83.59±0.56 82.98±0.22 93.14±0.28
    精准率(%) 70.36±1.43 71.14±0.29 76.01±0.25 86.79±0.36 84.05±0.21 94.79±0.30
    Kappa(×100) 67.47±1.45 72.25±0.45 72.24±0.37 82.07±0.39 82.29±0.22 93.05±0.31
    模型
    复杂度
    浮点运算次(109) 1.456 2.816 0.273 11.978 3.819
    模型参数量(106) 15.471 18.862 1.076 18.370 21.254
    单次训练平均时间(s) 0.197 0.270 0.127 51.200 0.317
    单次测试平均时间(s) 13.738 18.798 2.100 12.029 9.933
    注:每类干扰训练样本量为2;表中使用粗体标出了最优的结果,下划线标出了次优的结果。
    下载: 导出CSV 
    | 显示表格

    此外,图5展示了不同识别方法的混淆矩阵结果,以直观地证明本文方法的优越性。在混淆矩阵中,行轴表示干扰样本的真实标签,而列轴表示预测标签。混淆矩阵中的颜色深浅反映了元素值的大小,颜色越深表示值越大,颜色越浅则表示值越小。主对角线上的值表示模型正确预测的样本数比例,即每类干扰的识别准确率;而非主对角线上的值则表示模型错误预测的样本比例。图5(f)展示了所提方法的混淆矩阵,其色彩分布较为简单,主对角线上的颜色较深,表明识别准确率高;而非主对角线上的颜色较浅,几乎无色,表明误判率低。相比之下,其他对比方法的混淆矩阵色彩分布更为复杂,主对角线上的颜色深浅不一,非对角线上的颜色也较深,这表明识别准确率较低。图5的可视化结果表明,所提方法在整体识别性能上表现优异,能够准确识别大多数干扰样本,这进一步证明了其在极端小样本干扰识别任务中的卓越性和稳健性。

    图  5  本文方法和对比方法的混淆矩阵实验结果
    Figure  5.  Confusion matrix experimental results between the proposed method and the comparative methods

    本文提出的识别方法采用了多域浅层特征引导策略,旨在获得更具判别力和区分性的时频图像识别特征,进而在极端小样本条件下实现更优秀的识别性能。为了评估本文方法在样本量极端有限情况下的识别优势,本节探讨了不同训练样本量对识别性能的影响,并进行了比较分析。

    表8展示了在每类训练样本量为2~5时,各方法的平均识别准确率。同时,图6直观地展示了表8中数据的变化趋势。综合表8图6进行分析,可以明显看到随着每类训练样本量的增加,所有方法的识别性能均有所提升。但无论样本量如何变化,本文提出的方法始终展现出最高的识别准确率,这充分证明了其在识别性能上的优势。对于SVM, 2D-CNN和DFM这类通常需要较多训练样本的方法,在训练样本量减少时,它们的识别准确率显著下降,并且均低于小样本识别模型。相比之下,MAML, JR-TFSAD和本文方法均属于小样本识别方法。尽管样本量减少会导致识别准确率下降,但这种下降趋势比SVM, 2D-CNN和DFM较为缓慢。特别是,在样本量减少时,本文提出的方法的识别准确率下降最为缓慢。在样本量低于4的条件下,其相较于MAML和JR-TFSAD,本文方法的干扰识别性能优势尤为明显。以上结果证实了本文提出的方法在极端小样本条件下具有优越的干扰识别性能。

    表  8  不同方法在不同训练样本下的平均识别准确率±标准差比较(%)
    Table  8.  Comparison of mean recognition accuracy ± standard deviation of different methods under different numbers of training samples (%)
    干扰识别方法 每类干扰训练样本量
    2个(占1%) 3个 4个 5个
    SVM 69.80±1.42 75.63±0.96 80.95±0.36 82.78±0.46
    2D-CNN 73.41±0.42 83.33±0.31 89.13±0.03 93.32±0.12
    DFM 74.23±0.06 81.12±0.47 90.03±0.56 95.02±0.28
    MAML 83.26±0.42 90.67±0.35 95.43±0.21 97.85±0.26
    JR-TFSAD 83.55±0.12 88.70±0.30 93.40±0.29 98.91±0.41
    本文方法 93.55±0.29 97.68±0.16 99.62±0.03 100.00±0.00
    注:表8中使用粗体标出了最优的结果,下划线标出了次优的结果。
    下载: 导出CSV 
    | 显示表格
    图  6  不同方法在不同训练样本下的识别准确率折线图
    Figure  6.  Recognition accuracy line chart of different methods under different numbers of training samples

    为在极端小样本条件下实现高干扰识别准确率,本文提出了一种基于多域浅层特征引导的雷达有源干扰多模态对比识别方法。该方法利用设计的多域浅层特征嵌入模块将浅层特征转换为文本模态。并通过多模态对比学习对时频图像特征进行调整优化,实现更具判别力的识别特征学习,确保在极端小样本情况下的高精准干扰识别性能。在构建的雷达有源干扰数据集上的实验结果显示,通过多域浅层特征引导,本文方法的干扰识别平均准确率提升了13%以上,验证了该引导策略的有效性。此外,与当前主流干扰识别方法相比,本文方法在2~5个训练样本量的设置下均展现出最高的干扰识别准确率,进一步证明了其先进性和优越性。

  • 图  1  ROC曲线

    Figure  1.  ROC curves

    图  2  窗口的选择

    Figure  2.  Two different windows

    图  3  基于似然比变化检测的流程图

    Figure  3.  A change detection based on the likelihood change statistic for SAR CCD

    图  4  理想中差异图像的直方图

    Figure  4.  Ideal histogram of likelihood change statistic

    图  5  实测数据得到的差异影像直方图

    Figure  5.  Histogram of likelihood change statistic

    图  6  自动阈值选取方法

    Figure  6.  The results of automatic threshold selection

    图  7  地面真实变化

    Figure  7.  Ground truth observations of the changed scene

    图  8  估计全局协方差矩阵的样本

    Figure  8.  The sample data for estimation of the covariance matrixes

    图  9  检测结果

    Figure  9.  Detection results

    图  10  三种算法的ROC曲线

    Figure  10.  Experimental ROC curves of the three change detection method

    表  1  LLR_CCD方法和CCD方法的性能指标

    Table  1.   Results of change detection by CCD and LLR_CCD

    性能评估参数 LLR_CCD CCD
    本文阈值选取方法 OSTU 手动最佳阈值 本文阈值选取方法 OSTU 手动最佳阈值
    阈值 –104.83 72.06 –125 0.77 0.71 0.32
    检测率PTP 0.7281 1 0.6641 1 0.9984 0.5703
    负检率PTN 0.9965 0.3811 0.9989 0.8737 0.9134 0.9933
    虚警率PFP 0.0035 0.6189 0.0011 0.1263 0.0866 0.0067
    漏检率PFN 0.2719 0 0.3359 0 0.0016 0.4297
    Kappa 0.7454 0.0193 0.7626 0.1811 0.2517 0.5684
    下载: 导出CSV
  • [1] Corr D G. Coherent change detection for urban development monitoring[C]. IEE Colloquium on Radar Interferometry, 1997: 1-6. doi: 10.1049/ic:19970856.
    [2] Corr D G and Rodrigues A. Coherent change detection of vehicle movements[C]. 1998 IEEE International Geoscience and Remote Sensing Symposium Proceedings, Seattle, WA, 1998, 5: 2451-2453.
    [3] Preiss M and Stacy N J S. Coherent change detection: theoretical description and experimental results[R]. Defence Science and Technology Organisation, 2006.
    [4] Johnsen T. Coherent change detection in SAR images of harbors with emphasis on findings from container backscattering[C]. IEEE National Radar Conference, Kansas City, MO, 2011: 118-123.
    [5] Milisavljević N, Closson D, and Bloch I. Detecting potential human activities using coherent change detection[C]. International Conference on Image Processing Theory Tools and Applications (IPTA), Paris, 2010: 482-485.
    [6] 曾晓燕. 极化SAR图像配准与相干变化检测方法研究[D]. [硕士论文], 电子科技大学, 2010.

    Zeng Xiao-yan. Study of registration and coherent change detection in polarization SAR images[D]. [Master dissertation], University of Electronic Science and Technology of China, 2010.
    [7] 宣延艳. 极化SAR相干信息配准与变化检测算法研究[D]. [硕士论文], 电子科技大学, 2011. http://cdmd.cnki.com.cn/Article/CDMD-10614-1011191892.htm

    Xuan Yan-yan. Coherent information registration and change detection in polarization SAR[D]. [Master dissertation], University of Electronic Science and Technology of China, 2011. http://cdmd.cnki.com.cn/Article/CDMD-10614-1011191892.htm
    [8] Liao M, Jiang L, Lin H, et al.. Urban change detection based on coherence and intensity characteristics of SAR imagery[J]. Photogrammetric Engineering & Remote Sensing, 2008, 74(8): 999-1006. https://www.researchgate.net/publication/273663116_Urban_Change_Detection_Based_on_Coherence_and_Intensity_Characteristics_of_SAR_Imagery
    [9] 杨祥立, 徐德伟, 黄平平, 等.融合相干/非相干信息的高分辨率SAR图像变化检测[J].雷达学报, 2015, 4(5): 582-590. http://radars.ie.ac.cn/CN/abstract/abstract298.shtml

    Yang Xiang-li, Xu De-wei, Huang Ping-ping, et al.. Change detection of high resolution SAR images by the fusion of coherent/incoherent information[J]. Journal of Radars, 2015, 4(5): 582-590. http://radars.ie.ac.cn/CN/abstract/abstract298.shtml
    [10] Preiss M, Gray D A, and Stacy N J S. Detecting scene changes using synthetic aperture radar interferometry[J]. IEEE Transactions on Geoscience & Remote Sensing, 2006, 44(8): 2041-2054. https://www.researchgate.net/publication/3204158_Detecting_scene_changes_using_synthetic_aperture_Radar_interferometry
    [11] Wright P, Macklin T, Willis C, et al.. Coherent change detection with SAR[C]. Radar Conference, Paris, 2005: 17-20.
    [12] Phillips R D. Clean: a false alarm reduction method for SAR CCD[C]. IEEE International Conference on Acoustics, Prague, 2011: 1365-1368.
    [13] Yu B and Phillips R D. Multispectral vegetation detection for improved SAR CCD[C]. IEEE Conference Record of the Forty Sixty Asilomar, Pacific Grove, CA, 2012: 1664-1668.
    [14] Yu B and Phillips R D. Using contextual information to improve SAR CCD: Bayesian contextual coherent change detection (BC CCD)[C]. IEEE International Geoscience & Remote Sensing Symposium (IGARSS), Quebec City, 2014: 1277-1280.
    [15] 谢凤英, 赵丹培. Visual C++数字图像处理[M].北京:电子工业出版社, 2008: 279-290.

    Xie Feng-ying and Zhao Dan-pei. Visual C++ Digital Image Processing[M]. Beijing: Publishing House of Electronics Industry, 2008: 279-290.
    [16] 熊博莅. SAR图像配准及变化检测技术研究[D]. [博士论文], 国防科学技术大学, 2012. http://cdmd.cnki.com.cn/Article/CDMD-90002-1013047531.htm

    Xiong Bo-li. Study of registration and change detection in SAR images[D]. [Ph.D. dissertation], Graduate School of National University of Defense Technology, 2012. http://cdmd.cnki.com.cn/Article/CDMD-90002-1013047531.htm
  • 加载中
图(10) / 表(1)
计量
  • 文章访问数: 2997
  • HTML全文浏览量: 733
  • PDF下载量: 1037
  • 被引次数: 0
出版历程
  • 收稿日期:  2016-03-28
  • 修回日期:  2016-06-15
  • 网络出版日期:  2017-04-28

目录

/

返回文章
返回