Loading [MathJax]/jax/output/SVG/jax.js

宽幅SAR海上大型运动舰船目标数据集构建及识别性能分析

雷禹 冷祥光 孙忠镇 计科峰

丁金闪, 仲超, 温利武, 等. 视频合成孔径雷达双域联合运动目标检测方法[J]. 雷达学报, 2022, 11(3): 313–323. doi: 10.12000/JR22036
引用本文: 雷禹, 冷祥光, 孙忠镇, 等. 宽幅SAR海上大型运动舰船目标数据集构建及识别性能分析[J]. 雷达学报, 2022, 11(3): 347–362. doi: 10.12000/JR21173
DING Jinshan, ZHONG Chao, WEN Liwu, et al. Joint detection of moving target in video synthetic aperture radar[J]. Journal of Radars, 2022, 11(3): 313–323. doi: 10.12000/JR22036
Citation: LEI Yu, LENG Xiangguang, SUN Zhongzhen, et al. Construction and recognition performance analysis of wide-swath SAR maritime large moving ships dataset[J]. Journal of Radars, 2022, 11(3): 347–362. doi: 10.12000/JR21173

宽幅SAR海上大型运动舰船目标数据集构建及识别性能分析

DOI: 10.12000/JR21173
基金项目: 国家自然科学基金(62001480), 湖南省自然科学基金(2021JJ40684)
详细信息
    作者简介:

    雷 禹(1997–),男,内蒙古呼伦贝尔人,国防科技大学电子科学学院硕士研究生。主要研究方向为智能电子对抗与评估、SAR图像目标智能解译

    冷祥光(1991–),男,江西九江人,博士,国防科技大学电子科学学院副教授,硕士生导师。主要研究方向为遥感信息处理、SAR图像智能解译和机器学习

    孙忠镇(1996–),男,江西上饶人,国防科技大学电子科学学院硕士研究生。主要研究方向为智能电子对抗与评估、SAR图像目标识别

    计科峰(1974–),男,陕西长武人,博士,国防科技大学电子科学学院教授,博士生导师。主要研究方向为SAR图像解译、目标检测与识别、特征提取、SAR和AIS匹配

    通讯作者:

    冷祥光 luckight@163.com

    计科峰 jikefeng@nudt.edu.cn

  • 责任主编:刘涛 Corresponding Editor: LIU Tao
  • 中图分类号: TN957.51

Construction and Recognition Performance Analysis of Wide-swath SAR Maritime Large Moving Ships Dataset

Funds: The National Natural Science Foundation of China (62001480), Hunan Provincial Natural Science Foundation of China (2021JJ40684)
More Information
  • 摘要: 以TopSAR和ScanSAR成像模式为代表的宽幅合成孔径雷达(SAR)可以实现更大范围的海洋场景观测。但实现宽测绘带的同时降低了成像分辨率,因此宽幅SAR图像中的舰船目标缺乏清晰的结构特征,给大范围海上舰船目标识别带来了极大的挑战。同时,由于缺乏海上运动航母、两栖舰等大型关键目标的宽幅SAR样本数据,使得海上运动大型关键舰船目标识别更加困难。针对该问题,该文构建了宽幅SAR海上大型运动舰船目标数据集,共包含2291个大型舰船目标样本,类别划分为大型军事舰船,长度为≥250 m的大型民用舰船和长度为150~250 m的大型民用舰船。其构建过程为:首先,通过先验知识辅助获取港口区域大型军事舰船目标样本;其次,利用属性信息对OpenSARShip数据集进行长度筛选获取大型民用舰船目标样本;最后,在样本的距离-多普勒域添加二次相位误差进行运动仿真来模拟海上运动舰船目标的成像结果。此外,该文使用经典识别算法和深度学习方法对构建的数据集与运动仿真处理后的数据进行了识别性能分析,结果表明在低分辨率情况下采用SAR图像复数信息可以在一定程度上提高算法的识别率;并且运动舰船目标的散焦问题对识别准确率具有较大影响。

     

  • 视频合成孔径雷达(Video Synthetic Aperture Radar, Video SAR)作为一种高帧率雷达成像系统,可对场景连续观测[1-3]。视频SAR具备较强的动目标实时探测潜力,近年来在国内外引起广泛关注。

    传统SAR地面动目标显示(Ground Moving Target Indication, SAR-GMTI)主要围绕目标后向散射能量展开。经典的单通道方法有频域滤波[4]和时频分析方法[5,6]等。多通道方法如偏置相位中心天线[7]和沿航向干涉[8]则通过更有效的杂波抑制进而实现动目标能量的提取。上述方法通常对信杂噪比(Signal to Clutter and Noise Ratio, SCNR)、目标散焦程度和通道一致性有较高要求。视频SAR系统的高载频使得相同分辨率要求下所需合成孔径时间更短,因此动目标易留下能反映其真实位置的阴影[9],并且不依赖目标本身的雷达散射截面积(Radar Cross Section, RCS),为视频SAR动目标检测跟踪提供了另一重要途径。近年来许多单位针对动态阴影的检测跟踪算法展开研究。文献[10-12]通过经典图像处理方法,实现对运动目标阴影的有效检测。文献系统分析了视频SAR中阴影形成机制和检测性能,并分别利用经典图像处理方法和深度神经网络方法实现了动目标阴影的检测与预测。文献[13]提出了适用于视频SAR的检测前跟踪(Track-Before-Detect, TBD)阴影检测与跟踪方法。文献[14]利用背景感知的相关滤波器(Background-Aware Correlation Filter, BACF)实现对运动目标阴影的快速跟踪。文献[15-17]基于深度卷积神经网络实现了对视频SAR中动目标阴影检测。然而,基于阴影的动目标检测仍存在诸多问题需要解决。动目标阴影是典型的弱小目标,受系统噪声及复杂背景环境影响,在检测中易产生虚警和漏警。此外,阴影还受目标自身的影响,高速目标的阴影边界模糊,不利于观测,自身或其他目标散焦的能量亦对阴影产生干扰,从而导致漏警。因此,无论是基于目标能量或其阴影信息,均难以实现目标的稳健检测。

    本文基于双域联合的视频SAR动目标检测思想,使用基于双域快速区域卷积神经网络(Dual Faster Region-based Convolutional Neural Network, Dual Faster R-CNN)[18]的跨域联合检测方法以实现低虚警率检测。通过将高分辨SAR图像和低分辨距离多普勒(Range-Doppler, RD)谱作为输入,采用一种方位坐标变换方法共享两个独立区域建议网络(Region Proposal Network, RPN)提供的双域区域建议,以驱动网络在同一距离附近同时检测动目标的阴影与能量。另一方面,本文使用一种基于跨域航迹关联(Joint Track Association, JTA)检测方案来实现可靠的动目标检测。通过对目标阴影和能量的检测、帧间关联和域间匹配,逐步实现虚警抑制。充分结合目标阴影与能量的空时信息,完成对漏警目标的重建,并给出多种典型情形下机动目标的检测方案。最后,通过太赫兹视频SAR实测数据,验证了算法有效性。

    视频SAR系统一般设计工作在高载频,运动目标回波的多普勒调制对目标速度极敏感,极小的径向速度也会使目标能量发生很大的位置偏移,并在SAR图像中留下能够反映真实位置及状态信息的阴影。因此,利用图像中目标阴影,和RD谱中位置偏移的目标能量在原理上可实现对运动目标的检测。

    图1给出了美国Sandia实验室公布的视频SAR结果,其中红、白点线表示在SAR图像(RD谱)中阴影(多普勒能量)的潜在位置。可以看出,慢速目标阴影较为明显,其能量位置偏移较小;而快速目标的阴影边界模糊,其能量位置偏移较大。

    图  1  美国Sandia实验室公布的视频SAR结果
    Figure  1.  SAR video released by Sandia laboratory

    本文通过如图2所示方法来获取视频SAR图像序列及对应RD谱。沿慢时间将原始数据划分为连续子孔径,SAR图像序列由各子孔回波经预滤波和成像处理而来,RD谱则通过在子孔径中心附近的K个连续脉冲(虚线框范围所示)经快速傅里叶变换(Fast Fourier Transform, FFT)获得。为更有效地积累动目标能量,通常要求K个脉冲时间内目标不发生过大的距离走动,本文采用0.5 m作为可接受走动量对K进行选取。

    图  2  SAR图像及距离多普勒谱示意图
    Figure  2.  Illustrations of SAR image and RD spectrum

    本节使用端到端双域快速区域卷积神经网络框架以提升视频SAR中的阴影检测性能。通过联合利用动目标在SAR图像和RD谱中的特征,实现单帧的低虚警检测。

    对于图1(a)所示的慢速运动目标,阴影与背景的对比度更强,阴影边界清晰。在这种情况下,由RPN提供的区域建议A将以较高的置信度检测SAR图像中的阴影。假设在RD谱中,其多普勒能量受限于红点线范围内,则可以将区域建议A转换至RD谱中的受限区域,以搜索动目标的多普勒能量。一旦检测到对应能量,则宣称一个可靠的检测。另外,对于图1(b)所示的快速目标,主杂波谱外的多普勒能量便于检测,然而由于模糊的阴影边界,在SAR图像中检测阴影是比较困难的。区域建议B能够准确地检测目标能量,因此阴影位置也受限于红点线。在这种情况下,通过驱使网络在受限区域内寻找阴影,联合检测方法可以检测到模糊的阴影。相比于传统仅基于图像的阴影检测,联合检测可以提升对快速目标的检测性能。此外,假设在SAR图像中,区域建议C是一个虚假建议。尽管它容易被分类为阴影,但是在RD谱的对应位置无法检测到其多普勒能量,因此该虚警可被抑制。

    本文用于联合检测的双域快速区域卷积神经网络(Dual Faster R-CNN)结构如图3所示。在预处理中,所有目标被标记为3类:阴影(视频SAR图像中可见的阴影目标)、遮挡阴影(视频SAR图像中被遮挡的阴影目标)以及目标多普勒(距离多普勒谱中目标的多普勒能量)。网络的输入为串联的图像Ω={α,β},尺寸为H×I,其中α是尺寸为H×I1的高分辨视频SAR图像,β是尺寸为H×I2的低分辨距离多普勒谱,I = I1+I2。图像Ω输入网络后,被拆分为两部分,α被输入至网络的图像域部分而β则被输入至多普勒域部分。两个独立的特征提取网络被用于对αβ分别进行特征提取,并得到SAR图像的特征图和多普勒特征图。

    图  3  基于快速区域卷积神经网络的双域联合检测流程图
    Figure  3.  Flow chart of joint detection algorithm based on Dual Faster R-CNN

    得到各自的特征图后,利用文献[19]提出的RPN产生区域建议。构建两个独立的区域建议网络:图像域RPN和多普勒域RPN。以图像域RPN为例,首先基于提取得到的SAR特征图产生数个矩形候选区(anchors),随后通过卷积层对每个anchor进行前/背景二分类以及预测边界框的平移、缩放等回归参数。图像域RPN以及多普勒域RPN各自的损失函数可以表示为[19]

    Limg\_rpn=1Nrpn\_clsiLrpn\_cls(pIi,pIi)+γNrpn\_regipIiLrpn\_reg(tIi,tIi)Ldop\_rpn=1Nrpn\_clsjLrpn\_cls(pDj,pDj)+γNrpn\_regjpDjLrpn\_reg(tDj,tDj)} (1)

    其中,Lrpn\_cls()是二分类交叉熵损失函数(背景/前景),pIi是图像域中第i个anchor预测为目标的概率,pIi是它的真实标签(1为目标,0为背景)。Lrpn\_reg()是回归损失函数。tIi是预测框的4个平移与缩放参数,tIi是标签框的对应参数。γ是多任务损失函数的平衡参数。Nrpn\_clsNrpn\_reg分别是RPN训练过程中设置的批尺寸和所有anchor位置的数量。式(1)中参数的计算方式由文献[19]给出。(多普勒域参数与图像域参数含义相同。)随后,图像域RPN和多普勒域RPN分别提供ε个精确的区域建议以训练后续的检测网络。图像域RPN提供的第i个区域建议γi和多普勒域RPN提供的第j个区域建议ηj可以表示为

    γi=[x1Iiy1Iix2Iiy2Ii], i=1,2,,εηj=[x1Djy1Djx2Djy2Dj], j=1,2,,ε} (2)

    其中,(x1Ii,y1Ii)(x2Ii,y2Ii)代表SAR图像中第i个区域建议的左上和右下角坐标。因此SAR图像及其RD谱中所有区域建议分别为

    ΛI = {γ1,γ2,,γε}ΛD = {η1,η2,,ηε}} (3)

    一个方位坐标变换方法被用于共享SAR图像和RD谱中的区域建议,以获得成对区域建议,它们具有相同的距离坐标和不同的方位坐标,其主要包含3步。

    步骤1 计算γiΛD中所有区域建议的距离坐标差。假设第m个区域建议ηm具有最小的距离坐标差,即

    m=argminj[|y1Iiy1Dj|+|y2Iiy2Dj|] (4)

    步骤2 通过保持距离坐标不变并且使用ηm的方位坐标,SAR图像中的区域建议γi可以被转换至RD谱中,其可以表示为

    γi=[x1Dmy1Iix2Dmy2Ii] (5)

    步骤3 使用式(4)和式(5)将ΛI中的所有区域建议转换至RD谱中,同理将ΛD中的所有区域建议转换至SAR图像中,可以得到成对的区域建议,表示为

    PI = {γ1,γ2,,γεη1,η2,,ηε}PD = {γ1,γ2,,γεη1,η2,,ηε}} (6)

    其中,γ1γ1是一对具有相同距离坐标、不同方位坐标的成对区域建议。

    最后,使用两个感兴趣区域(Region of Interest, RoI)池化层得到每对区域建议对应的图像域特征和多普勒域特征。这些特征分别经过两个全连接层进行目标类别预测以及检测框的回归,损失函数可以表示为

    Lrcnn=γNregi[qIiLimg\_reg(tIi,tIi)+qDiLdop\_reg(tDi,tDi)]+1Nclsi[Limg\_{\rm{cls}}(qIi,qIi)+Ldop\_cls(qDi,qDi)] (7)

    其中,Limg\_cls()Ldop\_cls()分别是图像域中的3分类(背景/阴影/遮挡阴影)和多普勒域中的两分类(背景/目标多普勒)交叉熵损失函数。因此,双域快速区域卷积神经网络(Dual Faster R-CNN)的总损失函数可以表示为

    L=Limg\_rpn+Ldop\_rpn+Lrcnn (8)

    在测试阶段,首先获得在图像域以及距离多普勒域中的成对检测框。假设pInpDn是一对具有相同距离坐标、不同方位坐标的成对检测框,其中n=1,2,,2ε。当且仅当它们对目标的分类得分满足以下3个条件之一时,视为正确检测,否则作为无效检测。

    {1. S(pIn)>V1 and S(pDn)>V12. S(pIn)>V2 and S(pDn)>V33S(pIn)>V3 and S(pDn)>V2 (9)

    其中,函数S()表示该检测框对目标的分类得分。V1, V2V3均为置信度门限,并且V2>V1>V3。条件1作为强约束条件,要求对图像域和多普勒域中的目标分类得分均高于门限V1,其有效地抑制了在单域检测中容易产生的虚警。但是这种强约束以牺牲漏警为代价换取更少的虚警。为避免漏警的恶化,补充条件2和条件3的弱约束,其中V2是极高的置信度门限,可取大于等于0.95。若一对检测框在某个域中对目标具有极高的分类得分,即使在另一个域中得分低于V1,也将其视为一组正确检测,但是也应高于门限V3。条件2有利于对慢速目标的检测,此时阴影清晰但多普勒能量可能受到杂波的干扰。条件3有利于对快速目标的检测,此时位于杂波谱外的多普勒能量便于检测,然而阴影对比度下降或者受到SAR图像中其他弱散射区域的干扰。最后,对经过式(9)筛选后剩余的成对检测框,分别在进行图像域及多普勒域的非极大值抑制后,得到最终的检测结果。式(9)所示的每个约束条件均为双门限检测,因此Dual Faster R-CNN联合利用目标在SAR图像和RD谱中的特征,具有稳健的动目标检测能力。

    通过目标阴影与能量的匹配,可有效提升检测的虚警抑制能力。在实际中,因系统参数、环境因素和运动状态的影响,动目标的阴影和能量易受到遮挡和涂抹[9]。在常规方法中,图像处理将引入大量的虚警和漏警,为此,我们结合帧间关联与域间匹配处理,在此前工作[20]的基础上提出改进的跨域航迹关联的动目标检测方法。

    本方法的处理流程如图4所示,首先分别在SAR图像和RD谱内对阴影和能量进行预检测。其次利用逻辑关联法[21,22]对预检测结果进行帧间关联并形成候选航迹。然后利用距离约束对阴影和能量的候选航迹进行匹配处理。一方面,对于成功匹配的航迹对予以确认,另一方面单域内关联性较强的航迹亦可作为对目标的确认。结合帧间数据关联及域间航迹匹配,预检测中的虚警可被有效抑制,对于因遮挡或涂抹导致的漏警,本方法通过联合处理进行重建和预测。通过充分利用目标阴影与能量的空时信息,极大地改善了虚警和漏警,进而实现稳健的视频SAR动目标检测。

    图  4  跨域航迹联合的动目标检测算法流程图
    Figure  4.  Flow chart of joint detection algorithm based on JTA

    与此前工作[20]相比,一方面,本文采用背景抑制的图像域检测以减少虚警的干扰,同时在待搜索区域进行直接恒虚警(Constant False Alarm Rate, CFAR)检测对慢速阴影实现检测。另一方面,利用能量进行漏警重建时,本文直接通过目标能量的距离位置和阴影运动方向估计值进行重建,避免像原始方案中那样对待搜索区域进行逐像素的搜索。所提方法旨在为实测数据提供更可靠和实用的检测方案。

    针对阴影,采用文献[9]中基于背景差分方法进行预检测。通过该方法可有效提取场景中的动态阴影,但考虑到SAR图像相干斑噪声的影响及图像处理中的参数依赖性,检测结果通常会引入额外的虚警,这部分虚警将由后续的帧间数据关联和域间匹配处理进行抑制。

    针对能量,考虑到视频SAR工作于较高频段,且脉冲重复频率通常较天线覆盖多普勒带宽留有较大余量,微小的目标运动就会使目标能量偏移出主瓣杂波,因此在RD谱中进行直接的带外CFAR检测。在这里采用具有抗干扰特性的有序统计量(Order Statistics, OS)-CFAR检测器[23]以缓解杂波边缘对检测的影响。之后通过图像腐蚀、膨胀和连通域处理筛选出与目标能量尺寸相匹配的连通域,并将其几何中心作为预检测结果。

    完成阴影和能量的预检测后,为抑制虚警,我们采用基于M/N逻辑的关联算法[21,22]对目标阴影和能量的预检测结果进行帧间关联,以筛选出可能的动目标航迹。具体地,给定逻辑值Γ=M/N,若在连续N帧中存在M帧或以上的量测符合给定状态参数约束,则认为这些点迹来自真实运动目标,并形成候选航迹。帧间关联处理可有效抑制由虚假目标产生的虚警。本文通过区域搜索的方式对图像域中阴影和RD域中的能量进行帧间关联[24,25]

    假设截至第k 帧的航迹集合表示为

    ZSh(k)={zmSh(k)}Mkm=1ZEn(k)={znEn(k)}Nkn=1} (10)

    其中,MkNk分别表示第k 帧中阴影和能量的航迹数量,zmSh(k)znEn(k)分别表示第k帧时第m条阴影航迹的位置和第n条能量航迹的位置。

    下一帧的阴影期望位置由其当前位置zmSh(k)及速度估计ˆvmSh(k)决定,表示为

    ˆzmSh(k+1)=zmSh(k)+ˆvmSh(k)/fps (11)

    其中,fps为成像帧率,速度估计ˆvmSh(k)通常可结合卡尔曼滤波计算得到。完成期望位置计算后,在下一帧的扇形搜索区域对阴影进行搜索,搜索区域可表示为

    AmSh(k+1)={(x,r)T|vSh(k+1)ˆvmSh(k)2<αvˆvmSh(k)2arccos(vSh(k+1)TˆvmSh(k)vSh(k+1)2ˆvmSh(k)2)<ΔθSh} (12)

    其中,vSh(k+1)表示由(x,r)TzmSh(k)差分计算得到的阴影速度值。αv表示速度范围因子,ΔθSh表示最大搜索角度,这两个参数通常需由试验方式确定。确定期望位置和搜索区域后,利用最邻近搜索(Nearest Neighbor Search, NNS)准则进行数据关联,即下一帧的航迹更新由搜索区域中距期望位置最近的预检测结果确定,若搜索失败则暂时由ˆzmSh(k+1)重建,即

    zmSh(k+1)={arg minmSh(k+1)AmSh, k+1(mSh(k+1)ˆzmSh(k+1)2),ˆzmSh(k+1),   (13)

    对于RD谱中的目标能量,通过简单的1阶差分来进行位置估计和搜索,则位置估计可表示为

    ˆznEn(k+1)=znEn(k)+ˆdnEn(k) (14)

    其中,ˆdnEn(k)表示1阶差分量。下一帧的搜索区域可表示为

    AnEn(k+1)={(fa,r)T|dEn(k+1)ˆdnEn(k)2<αdˆdnEn(k)2arccos(dEn(k+1)TˆdnEn(k)dEn(k+1)2ˆdnEn(k)2)<ΔθEn} (15)

    其中,αd表示RD谱中的搜索范围因子,ΔθEn表示最大搜索角度。与阴影类似,下一帧通过在预检测结果中搜索确认,若搜索失败则由ˆznEn(k+1)重建,即

    znEn(k+1)={arg minmEn(k+1)AnEn(k+1)(mEn(k+1)ˆznEn(k+1)2),ˆznEn(k+1),  (16)

    通过上述对动目标阴影和能量的帧间关联,在连续的N帧中统计航迹中来自预检测的点迹数量M,对于满足M/N条件的航迹予以保留,否则认为该航迹来自错误关联。

    然而受图像质量影响,实际中很难找到一个恰当的逻辑值Γ对真假航迹做出准确划分。较低的逻辑值会引入过多虚假航迹,较高的逻辑值则使某些真实目标航迹丢失。为解决上述问题,我们首先以较低逻辑值Γw=Mw/N建立阴影和能量的弱关联航迹,弱关联处理可以一定程度抑制预检测中的虚警,并尽可能发现潜在的目标航迹。之后通过阴影与能量的航迹匹配和联合处理实现对弱关联中虚假航迹进一步排除。此外,考虑到某些目标因其阴影或能量的意外丢失而无法匹配,但其在单域内却有着极高的帧间关联性,我们又通过一个较高的逻辑值Γs=Ms/N对目标阴影或能量进行单独的确认。强关联航迹具有较高的可信度和极低的错误率,可作为最终检测输出的补充。结合域间匹配的弱关联航迹和单域内强关联航迹,运动目标可以时刻以一种最有效的方式被检测。在抑制虚警的同时,通过域间联合处理还可实现更加有效的漏警重建。下一节将针对域间航迹匹配和漏警重建进行说明。

    利用航迹的距离值进行匹配,给定帧间弱关联的阴影航迹TpSh-w和能量航迹TqEn-w,它们在第l帧的斜距分别为rpSh(l)rqEn(l)。若它们的斜距满足如下约束则进行匹配并认为属于同一目标:

    kl=kN+1rpSh(l)rqEn(l)Δr1<Nξr (17)

    其中,ξr表示距离约束阈值,Δr表示由于目标高程投影产生的固有距离偏差,可由擦地角进行估算。由于式(17)对两个航迹中连续点迹的距离进行同时约束,匹配是相当精确的,因此虚假航迹能够被有效地抑制。于是匹配后的联合航迹集可表示为

    TJoint={TpSh-wTqEn-w|p,q s.t.(17)} (18)

    匹配处理利用阴影与能量对运动目标进行双重确认,对于因失配产生的漏警可由未匹配的强联合航迹TSh-un-sTEn-un-s加以补充,这些航迹以较严格的帧间联合条件对运动目标进行确认。于是,对动目标的检测可由匹配的弱关联航迹和未匹配的强关联航迹描述,即

    TOutput=TJointTSh-un-sTEn-un-s (19)

    联合航迹关联处理充分利用目标阴影和能量的时空信息,以低虚警、低漏警的方式对运动目标进行检测。航迹中的部分漏警可通过一步预测重建,但一步预测只适用于稀疏、短时的漏警,当一段航迹中发生连续的漏警时,重建准确性将无法得到保证,这种恶化对于机动目标尤为明显。针对此类漏警,根据具体情况给出分析和重建策略。

    情况1 阴影被干扰情况

    当目标运动速度过快、路面散射较弱或阴影被强杂波的旁瓣、自身或其他目标能量遮挡导致难以形成明显阴影时,基于目标阴影的检测面临失效。此时通过能量所在的距离单元对阴影进行辅助重建。利用阴影丢失时刻的速度估计值,并结合目标能量所在距离单元,给出阴影的重建位置。阴影重建距离可表示为能量距离与固有偏差之和:

    rpSh(l)=rqEn(l)+Δr (20)

    相应地,方位位置可根据当前的重建距离位置和阴影运动方向角来确定:

    xpSh(l)=xpSh(l1)+rpSh(l)rpSh(l1)tanθ(l) (21)

    其中,θ(l)为当前时刻的阴影速度估计矢量ˆvmSh(l)与方位向的夹角。利用式(20)和式(21)代替式(13)中的一步预测将有效提高阴影位置重建精度。

    情况2 能量被干扰情况

    一方面,对应于极慢速目标的情况,其多普勒能量易淹没在主杂波中。另一方面,对应于目标机动性较强的情况,其能量发生严重散焦导致无法检测。此时主要通过阴影对目标实现单独检测。但考虑到目标已通过匹配的方式获得确认,接下来将不再以域间匹配或强关联为确认条件,而是直接以弱关联条件进行检测确认,这大大缓解了阴影漏警的情况。另外考虑到慢速目标的情况,此时基于背景差分的预检测方法容易将阴影视作背景从而造成漏警,为此对式(12)给出的扇形搜索区域进行直接的阴影CFAR检测,并将检测结果合并进预检测结果中,再利用弱关联条件进行后续的关联和确认。此时慢速目标亦能完成有效的检测。

    通过上述两种典型情况的处理,所提算法可有效应对多种运动状态目标的检测和重建。

    本文分别使用上述两种方法来处理机载视频SAR实测数据。雷达系统工作于G波段,信号带宽为1 GHz,成像场景尺寸约为150 m×150 m,成像帧率优于2 fps。本文采用RD成像算法获取SAR图像序列并获取对应的RD谱。为保证最大径向速度为30 m/s的动目标不发生0.5 m的距离走动,选取RD谱的积累脉冲数K= 500。共采用64帧图像进行验证,场景中包含数个不同尺寸、不同运动状态的目标,它们的阴影与能量所在帧统计在表1中。SAR图像中固定目标阴影的遮挡以及场景边缘极低的信噪比导致动目标阴影在某些帧中不可见,因此动目标阴影所在帧略少于其能量所在帧。

    表  1  运动目标阴影及其能量所在帧
    Table  1.  Frame number of target shadow and energy
    动目标阴影所在帧能量所在帧
    T1[1, 14][1, 14]
    T2[1, 64][1, 64]
    T3[1, 24][1, 38]
    T4[9, 28][8, 42]
    T5[26, 64][20, 64]
    下载: 导出CSV 
    | 显示表格

    为说明双域联合检测算法优势,首先利用经典Faster R-CNN[19]进行对比实验,该方法仅利用阴影进行动目标检测。利用该太赫兹视频SAR获取的额外SAR图像经过平移翻转等数据扩充后,共得到28877张训练数据。所提Dual Faster R-CNN和经典Faster R-CNN用作训练的SAR图像相同,而Dual Faster R-CNN的训练数据中增加对应的RD谱作为辅助。

    图5给出检测结果对比。SAR图像的横轴为方位向,纵轴为距离向。RD谱的横轴表示多普勒向,纵轴为距离向。每行第1列为经典Faster R-CNN的检测结果,第2列为提出的Dual Faster R-CNN检测结果。图5(a)图5(d)分别为第9, 15, 19和60帧的检测结果。正确检测用青色矩形框标记,虚警用红色矩形框标记,黄色箭头指示漏警位置。在图5(a)图5(d)中,Dual Faster R-CNN均给出了正确的检测,不包含虚警与漏警。而在图5(a)中,经典Faster R-CNN产生一个虚警。特别地,在图5(d)中,目标T2的多普勒能量已经落入RD谱的主杂波区。此时,本文使用的Dual Faster R-CNN基于深度神经网络的特征提取能力仍然可以准确地检测到该能量。在图5(b)图5(c)中,目标T2和T4的阴影被SAR图像中的弱散射区域遮挡或刚好离开该弱散射区域,由于周围低灰度的干扰,经典Faster R-CNN无法对其进行有效检测,产生较多漏警。此外,在图5(c)的检测中,经典Faster R-CNN在目标T2附近产生一个虚警。相反,本文所提的Dual Faster R-CNN利用目标在SAR图像和RD谱中的双域特征,使用成对区域建议进行联合检测,一方面可以显著降低检测的虚警,如图5(a)图5(c)所示,Dual Faster R-CNN抑制对应虚警。另一方面,成对的区域建议也使网络具备更强的弱目标检测能力,从而减缓漏警的发生。在图5(b)中,目标T2的阴影在SAR图像中难以检测,但是它的多普勒能量位于杂波谱外,在RD域中能量很容易检测。在这种情况下,成对的区域建议驱使网络在SAR图像的对应位置搜索阴影,从而贡献正确的检测。同样地,在图5(c)中,目标T4的阴影也被Dual Faster R-CNN正确检测到,而目标T2的阴影仍未被检测到。图5所示的检测结果表明Dual Faster R-CNN具有较强的虚警抑制能力。

    图  5  经典Faster R-CNN与Dual Faster R-CNN检测结果对比
    Figure  5.  Comparison results of classical Faster R-CNN and Dual Faster R-CNN

    我们利用图像域帧间关联与本文所提JTA检测算法进行对比分析,如图6所示。在图像域帧间关联处理中,限制目标阴影的运动速度和角速度分别为1~30 m/s和0~45°/s,以逻辑值Γ=5/7进行帧间关联。在所提JTA算法中,利用逻辑值Γs= 6/7和Γw= 3/7对目标阴影和能量预检测结果进行帧间的强关联和弱关联处理,并对建立的弱关联航迹进行域间的匹配。最后根据运动目标的运动情况进行相应的漏警重建。每行第1列为图像域帧间关联的检测结果,第2列为所提JTA算法的检测结果。图6(a)图6(d))分别为第9, 14, 30和60帧的检测结果。正确检测用青色矩形框标记,虚警用红色矩形框标记,黄色箭头指示漏警位置,漏警重建由白色矩形框和箭头标记。在图6(a)中,两种方法均能对目标T1和T2进行有效检测。目标T3在图像域帧间关联方法中因较严格的关联条件使得无法被及时确认,而在JTA中通过弱关联和域间匹配的方式使得被有效检测。目标T4刚进入场景,因帧间关联算法的固有延迟导致两种方法均难以及时确认。在图6(b)中,目标T2进入场景中的弱反射区域导致阴影消失,此时JTA算法通过能量完成对阴影的漏警重建(对应4.2节情况1)。在图6(c)中目标T2在路口处慢速转弯,此时目标能量几乎被淹没在杂波中(对应4.2节情况2),此时目标阴影在图像域帧间关联方法中因被视作背景而无法被检测,而在JTA中我们对搜索区域进行额外的CFAR检测并进行后续的关联,从而可实现对慢速目标T2的检测。此外,由于杂噪比较低的原因,目标T3和T4的阴影已彻底不可见并持续较长时间,此时JTA算法可继续利用它们的能量在RD域作为检测。图6(d)中,目标T2逐渐提速,目标T5即将离开观测场景,此时两种方法均能完成对它们的检测,但由于此时图像质量的恶化,JTA算法展现出更强的虚警抑制能力。

    图  6  图像域帧间关联与JTA算法检测结果对比
    Figure  6.  Comparison results of data association in image domain and JTA algorithm

    表2给出了上述几种方法图像域中的阴影检测性能统计,其中总待检数为161。可以看出,仅依靠阴影的两种基本方法(图像域帧间关联和Faster R-CNN)产生较多的虚警和漏警。图像域帧间关联中的虚警主要源于图像噪声影响,漏警则主要来源于慢速目标T2。深度学习类方法基于全连接层对图像中某些特定区域进行分类与边界框回归,本质上是一种基于特征的检测,其对SAR图像中的干扰,例如相干斑噪声、其他弱散射区域等,具有一定的鲁棒性,不需要其余后处理即可直接实现较为可靠的检测,特别是对于慢速目标。相比于经典Faster R-CNN,本文所提的Dual Faster R-CNN利用动目标双域特征进行联合检测,具有更强的虚警抑制能力。此外,采用成对区域建议的联合检测在某一域特征明显时可以驱使网络在另一域的对应位置搜索目标,使得网络具备弱目标检测能力,从而减缓漏警的发生。然而,式(19)中的强约束条件增大了漏警风险。从全部测试数据的检测结果综合分析,Dual Faster R-CNN基本可以在不牺牲漏警的情况下显著地抑制虚警。基于传统方法的JTA算法较图像域帧间关联方法提升较大,它通过同时引入帧间和域间的联合处理,逐步抑制由图像噪声引起的虚警,同时利用阴影与能量的空时信息完成漏警重建。

    表  2  动目标检测性能统计结果
    Table  2.  Statistical results of moving target detection in SAR imagery
    方法虚警漏警
    图像域帧间关联7563
    Faster R-CNN716
    Dual Faster R-CNN017
    联合域航迹关联(JTA)115
    下载: 导出CSV 
    | 显示表格

    下面对处理耗时进行对比分析。表3给出了4种检测方法的单帧平均处理时间。SAR图像尺寸为1000×1000,RD谱的图像尺寸为500×1000。所采用的计算平台的CPU型号为Intel Xeon(R) E5-2620,内存为64 GB。深度学习方法的统计耗时为测试时间,Dual Faster R-CNN具有更复杂的网络结构和更多的参数量,因此具有单域Faster R-CNN近两倍的耗时。航迹关联方法的统计耗时包含了除配准外的所有处理,它们的主要耗时来自CFAR预检测处理,图像域与RD域的单帧预检测耗时分别为1.52 s和0.62 s。此外频域算法需要额外的配准处理,每帧的配准耗时为2.90 s,若采用时域成像算法则可节省此部分时间。综合来看,两类处理方法有着相近的耗时。相比于单域处理,双域联合处理的性能提升以更多的处理耗时为代价。虽然两种方法的CPU处理耗时高于0.25 s单帧成像时间,但通过后续算法优化加速技术有望实现实时处理要求。

    表  3  处理耗时对比结果
    Table  3.  Comparison of processing times
    方法单帧平均耗时(s)
    图像域帧间关联1.58
    Faster R-CNN1.55
    Dual Faster R-CNN2.89
    联合域航迹关联(JTA)2.21
    下载: 导出CSV 
    | 显示表格

    应当指出,由于实测数据的有限性,不能尽数包含实际目标各种可能的运动状态,如目标运动速度过快导致阴影衰弱、目标机动性过大导致能量较大程度散焦并涂抹阴影等。在有限数据上,双域联合处理的优势较单域方法的性能提升无法全面体现。但可以肯定的是,单独基于阴影的方法在这些情况中将失效。双域联合方法可以很好地利用阴影与能量的特征与空时信息,在上述情况中仍可有效实现稳健的目标检测。

    本文围绕视频SAR动目标的稳健检测需求展开研究,分别使用了两种基于域间联合技术的动目标检测算法对机载视频SAR实测数据进行了处理和分析。结果表明,联合域技术可充分利用目标阴影与能量的空时信息,能显著改善检测过程中的虚警和漏警,有效应对多种情形下的机动目标检测。视频SAR成像与动目标检测跟踪算法的实时实现值得深入研究。

    致谢 感谢中国电子科技集团公司第十四研究所提供雷达数据。感谢吴福伟博士的有益讨论。

  • 图  1  全球主要航母和两栖舰对比图

    Figure  1.  Comparison of major aircraft carriers and amphibious ships in the world

    图  2  数据集构建流程

    Figure  2.  Dataset construction process

    图  3  4个港口光学图像

    Figure  3.  Optical image of four ports

    图  4  停泊关键大型舰船目标数据获取流程

    Figure  4.  Target data acquisition process for key large ships at anchor

    图  5  美国圣迭戈港口的SAR图像和光学图像的对比图

    Figure  5.  Comparison of SAR image and optical image of the port of San Diego, USA

    图  6  舰船目标与海洋背景融合过程

    Figure  6.  Fusion process of ship target and ocean background

    图  7  舰船目标筛选程序的界面及其长度筛选流程

    Figure  7.  The interface of the ship target screening program and its length screening process

    图  8  SAR与运动目标的成像几何

    Figure  8.  SAR geometry of moving targets

    图  9  运动仿真流程

    Figure  9.  Motion simulation flow chart

    图  10  运动仿真及其方位误差曲线

    Figure  10.  Motion simulation images and their azimuth error curves

    图  11  舰船目标数量统计

    Figure  11.  Statistics of the number of ship targets

    图  12  大型舰船目标样本切片

    Figure  12.  Large-scale ship sample slices

    图  13  数据手肘法聚类数估计与聚类可视化结果

    Figure  13.  Data elbow method cluster number estimation and cluster visualization results

    图  14  大型舰船目标运动仿真图像

    Figure  14.  Large ship target motion simulation image

    图  15  数据及识别结果特征可视化

    Figure  15.  Visualization of data and recognition result

    表  1  Sentinel-1图像参数

    Table  1.   Sentinel-1 image parameters

    参数数值
    成像模式IW
    产品类型SLC
    产品级别L1
    极化方式VV+VH/VV
    轨道模式升轨/降轨
    分辨率(m)20
    幅宽(km)250
    下载: 导出CSV

    表  2  复数信息对识别性能影响实验设置

    Table  2.   Experimental setup for the influence of complex information on recognition performance

    组号处理方式是否运动仿真处理
    AA1幅度
    A23通道重组
    BB1幅度二次相位参数设置为k=0.002
    进行运动仿真
    B23通道重组二次相位参数设置为k=0.002
    进行运动仿真
    下载: 导出CSV

    表  3  复数信息对识别性能影响实验结果

    Table  3.   Experimental results of the effect of complex information on recognition performance

    网络数据准确率(%)数据准确率(%)
    VGG16NetA185.19A287.59
    GoogLeNetA185.88A286.13
    ResNet18A187.72A288.35
    VGG16NetB179.87B281.77
    GoogLeNetB184.87B285.94
    ResNet18B186.51B286.89
    下载: 导出CSV

    表  4  民船目标识别实验结果

    Table  4.   Experimental results of civilian ship recognition

    网络数据准确率(%)数据准确率(%)数据准确率(%)
    SVM+GLGMC66.33D65.66E64.70
    VGG16NetC69.10D68.51E67.26
    GoogLeNetC69.96D68.38E68.18
    ResNet18C71.28D70.42E68.18
    下载: 导出CSV

    表  5  混合数据F组识别实验结果

    Table  5.   Mixed data F recognition experimental results

    网络准确率(%)
    SVM+GLGM47.17
    VGG16Net74.43
    GoogLeNet74.36
    ResNet1877.05
    改进ResNet78.29
    下载: 导出CSV

    表  6  运动仿真对识别性能影响实验设置

    Table  6.   Experimental setup of the influence of motion simulation on recognition performance

    组号处理方式
    A2未处理
    B2二次相位参数设置为k=0.002,进行运动仿真
    G2二次相位参数设置为k=0.003,进行运动仿真
    下载: 导出CSV

    表  7  运动仿真对识别性能影响实验结果

    Table  7.   Experimental results of the influence of motion simulation on recognition performance

    组号实验方法实验数据jun0精确率(%)min1精确率(%)min2精确率(%)准确率(%)
    1SVM+GLGMA297.9668.8173.3955.13
    VGG16NetA298.6482.3683.2487.59
    GoogLeNetA299.8077.9682.6886.13
    ResNet18A299.6082.9883.8088.35
    改进ResNetA210090.6083.4490.75
    2SVM+GLGMB298.9862.3975.2353.37
    VGG16NetB298.4472.7276.2881.77
    GoogLeNetB299.4078.3881.6685.94
    ResNet18B299.6083.8079.3686.89
    改进ResNetB210078.7286.4087.02
    3SVM+GLGMG297.9661.4771.5652.75
    VGG16NetG295.7472.2872.6079.11
    GoogLeNetG210076.6882.0685.31
    ResNet18G299.6077.4083.8885.94
    改进ResNetG210076.5485.5086.26
    下载: 导出CSV
  • [1] 邢相薇, 计科峰, 康利鸿, 等. HRWS SAR 图像舰船目标监视技术研究综述[J]. 雷达学报, 2015, 4(1): 107–121. doi: 10.12000/JR14144

    XING Xiangwei, JI Kefeng, KANG Lihong, et al. Review of ship surveillance technologies based on high-resolution wide-swath synthetic aperture radar imaging[J]. Journal of Radars, 2015, 4(1): 107–121. doi: 10.12000/JR14144
    [2] 李健. 星载宽幅 SAR及目标检测算法研究[D]. [博士论文], 西安电子科技大学, 2018: 15–21.

    LI Jian. Study on spaceborne SAR with wide swath and target detection[D]. [Ph. D. dissertation], Xidian University, 2018: 15–21.
    [3] RANEY R K, LUSCOMBE A P, LANGHAM E J, et al. RADARSAT (SAR imaging)[J]. Proceedings of the IEEE, 1991, 79(6): 839–849. doi: 10.1109/5.90162
    [4] 匡燕, 李安, 李子扬, 等. RADARSAT卫星产品[J]. 遥感信息, 2007(2): 82–85, 27. doi: 10.3969/j.issn.1000-3177.2007.02.019

    KUANG Yan, LI An, LI Ziyang, et al. RADARSAT satellite overview[J]. Remote Sensing Information, 2007(2): 82–85, 27. doi: 10.3969/j.issn.1000-3177.2007.02.019
    [5] 张庆君. 高分三号卫星总体设计与关键技术[J]. 测绘学报, 2017, 46(3): 269–277. doi: 10.11947/j.AGCS.2017.20170049

    ZHANG Qingjun. System design and key technologies of the GF-3 satellite[J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(3): 269–277. doi: 10.11947/j.AGCS.2017.20170049
    [6] SUN Zhongzhen, DAI Muchen, LENG Xiangguang, et al. An anchor-free detection method for ship targets in high-resolution SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 7799–7816. doi: 10.1109/JSTARS.2021.3099483
    [7] KANKAKU Y, SUZUKI S, and OSAWA Y. ALOS-2 mission and development status[C]. 2013 IEEE International Geoscience and Remote Sensing Symposium-IGARSS, Melbourne, Australia, 2013: 2396–2399.
    [8] VAN WIMERSMA GREIDANUS H and SANTAMARIA S C. First analyses of Sentinel-1 images for maritime surveillance[R]. JRC92666, 2014.
    [9] SANTAMARIA C, ALVAREZ M, GREIDANUS H, et al. Mass processing of Sentinel-1 images for maritime surveillance[J]. Remote Sensing, 2017, 9(7): 678. doi: 10.3390/rs9070678
    [10] GEUDTNER D, TORRES R, SNOEIJ P, et al. Sentinel-1 system capabilities and applications[C]. 2014 IEEE Geoscience and Remote Sensing Symposium, Quebec City, Canada, 2014: 1457–1460.
    [11] 王玉莹, 张志敏, 李宁, 等. 高分宽幅SAR系统下的方位多通道运动目标成像算法研究[J]. 电子与信息学报, 2020, 42(3): 541–546. doi: 10.11999/JEIT190211

    WANG Yuying, ZHANG Zhimin, LI Ning, et al. A moving target imaging approach for the multichannel in azimuth high resolution wide swath SAR system[J]. Journal of Electronics &Information Technology, 2020, 42(3): 541–546. doi: 10.11999/JEIT190211
    [12] 潘洁, 王帅, 李道京, 等. 基于分布式压缩感知的高分宽幅SAR动目标成像技术[J]. 雷达学报, 2020, 9(1): 166–173. doi: 10.12000/JR19060

    PAN Jie, WANG Shuai, LI Daojing, et al. High-resolution wide-swath SAR moving target imaging technology based on distributed compressed sensing[J]. Journal of Radars, 2020, 9(1): 166–173. doi: 10.12000/JR19060
    [13] 邓云凯, 禹卫东, 张衡, 等. 未来星载SAR技术发展趋势[J]. 雷达学报, 2020, 9(1): 1–33. doi: 10.12000/JR20008

    DENG Yunkai, YU Weidong, ZHANG Heng, et al. Forthcoming spaceborne SAR development[J]. Journal of Radars, 2020, 9(1): 1–33. doi: 10.12000/JR20008
    [14] LI Jianwei, QU Changwen, and SHAO Jiaqi. Ship detection in SAR images based on an improved faster R-CNN[C]. 2017 SAR in Big Data Era: Models, Methods and Applications (BIGSARDATA), Beijing, China, 2017: 1–6.
    [15] WANG Yuanyuan, WANG Chao, ZHANG Hong, et al. A SAR dataset of ship detection for deep learning under complex backgrounds[J]. Remote Sensing, 2019, 11(7): 765. doi: 10.3390/rs11070765
    [16] 孙显, 王智睿, 孙元睿, 等. AIR-SARShip-1.0: 高分辨率SAR舰船检测数据集[J]. 雷达学报, 2019, 8(6): 852–862. doi: 10.12000/JR19097

    SUN Xian, WANG Zhirui, SUN Yuanrui, et al. AIR-SARShip-1.0: High-resolution SAR ship detection dataset[J]. Journal of Radars, 2019, 8(6): 852–862. doi: 10.12000/JR19097
    [17] 包萌, 张杰, 孟俊敏, 等. 高分辨率SAR船只样本集构建与特征分析[J]. 电波科学学报, 2019, 34(6): 789–797. doi: 10.13443/j.cjors.2019043008

    BAO Meng, ZHANG Jie, MENG Junmin, et al. Construction and feature analysis of high resolution SAR ship sample set[J]. Chinese Journal of Radio Science, 2019, 34(6): 789–797. doi: 10.13443/j.cjors.2019043008
    [18] HOU Xiyue, AO Wei, SONG Qian, et al. FUSAR-ship: Building a high-resolution SAR-AIS matchup dataset of Gaofen-3 for ship detection and recognition[J]. Science China Information Sciences, 2020, 63(4): 140303. doi: 10.1007/s11432-019-2772-5
    [19] HUANG Lanqing, LIU Bin, LI Boying, et al. OpenSARShip: A dataset dedicated to Sentinel-1 ship interpretation[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(1): 195–208. doi: 10.1109/JSTARS.2017.2755672
    [20] LI Boying, LIU Bin, HUANG Lanqing, et al. OpenSARShip 2.0: A large-volume dataset for deeper interpretation of ship targets in Sentinel-1 imagery[C]. 2017 SAR in Big Data Era: Models, Methods and Applications (BIGSARDATA), Beijing, China, 2017: 1–5.
    [21] ZÜHLKE M, FOMFERRA N, BROCKMANN C, et al. SNAP (sentinel application platform) and the ESA sentinel 3 toolbox[C]. Proceedings of Sentinel-3 for Science Workshop, Venice, Italy, 2015: 21.
    [22] LENG Xiangguang, JI Kefeng, ZHOU Shilin, et al. Fast shape parameter estimation of the complex generalized Gaussian distribution in SAR images[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(11): 1933–1937. doi: 10.1109/LGRS.2019.2960095
    [23] 张绪锦, 朱兆达, 邓海涛, 等. 一种适用于双通道星载SAR的动目标检测技术[J]. 电子学报, 2007, 35(9): 1794–1798. doi: 10.3321/j.issn:0372-2112.2007.09.037

    ZHANG Xujin, ZHU Zhaoda, DENG Haitao, et al. A moving target detection method for dual-aperture spaceborne SAR[J]. Acta Electronica Sinica, 2007, 35(9): 1794–1798. doi: 10.3321/j.issn:0372-2112.2007.09.037
    [24] 闫贺, 王珏, 黄佳, 等. 基于二维速度搜索的星载SAR运动目标聚焦算法研究[J]. 电子与信息学报, 2019, 41(6): 1287–1293. doi: 10.11999/JEIT180663

    YAN He, WANG Jue, HUANG Jia, et al. A moving-targets detection algorithm for spaceborne SAR system based on two-dimensional velocity search method[J]. Journal of Electronics &Information Technology, 2019, 41(6): 1287–1293. doi: 10.11999/JEIT180663
    [25] 张道成, 张正成. 运动目标对SAR成像的影响[J]. 舰船电子对抗, 2014, 37(1): 49–52, 67. doi: 10.3969/j.issn.1673-9167.2014.01.012

    ZHANG Daocheng and ZHANG Zhengcheng. Influence of moving targets on SAR imaging[J]. Shipboard Electronic Countermeasure, 2014, 37(1): 49–52, 67. doi: 10.3969/j.issn.1673-9167.2014.01.012
    [26] 马琳, 潘宗序, 黄钟泠, 等. 基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别[J]. 雷达学报, 2021, 10(1): 159–172. doi: 10.12000/JR20106

    MA Lin, PAN Zongxu, HUANG Zhongling, et al. Multichannel false-target discrimination in SAR images based on sub-aperture and full-aperture feature learning[J]. Journal of Radars, 2021, 10(1): 159–172. doi: 10.12000/JR20106
    [27] 温雪娇, 仇晓兰, 尤红建, 等. 高分辨率星载SAR起伏运动目标精细聚焦与参数估计方法[J]. 雷达学报, 2017, 6(2): 213–220. doi: 10.12000/JR17005

    WEN Xuejiao, QIU Xiaolan, YOU Hongjian, et al. Focusing and parameter estimation of fluctuating targets in high resolution spaceborne SAR[J]. Journal of Radars, 2017, 6(2): 213–220. doi: 10.12000/JR17005
    [28] HARTIGAN J A and WONG M A. Algorithm AS 136: A k-means clustering algorithm[J]. Journal of the Royal Statistical Society. Series c (Applied Statistics) , 1979, 28(1): 100–108. doi: 10.2307/2346830
    [29] THORNDIKE R L. Who belongs in the family?[J]. Psychometrika, 1953, 18(4): 267–276. doi: 10.1007/bf02289263
    [30] BURGES C J C. A tutorial on support vector machines for pattern recognition[J]. Data Mining and Knowledge Discovery, 1998, 2(2): 121–167. doi: 10.1023/A:1009715923555
    [31] SMOLA A J and SCHÖLKOPF B. A tutorial on support vector regression[J]. Statistics and Computing, 2004, 14(3): 199–222. doi: 10.1023/B:STCO.0000035301.49549.88
    [32] SIMONYAN K and ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]. 3rd International Conference on Learning Representations, San Diego, USA, 2014.
    [33] SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[C]. The 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1–9.
    [34] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. The 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
    [35] 雷禹, 冷祥光, 周晓艳, 等. 基于改进Res Net网络的复数SAR图像舰船目标识别方法[J/OL]. 系统工程与电子技术: 1–11. http://kns.cnki.net/kcms/detail/11.2422.TN.20220225.0948.018.html, 2022.

    LEI Yu, LENG Xiangguang, ZHOU Xiaoyan, et al. Recognition method of ship target in complex SAR image based on improved Res Net network[J/OL]. Systems Engineering and Electronics: 1–11. http://kns.cnki.net/kcms/detail/11.2422.TN.20220225.0948.018.html, 2022.
    [36] VAN DER MAATEN L and HINTON G. Visualizing data using t-SNE[J]. Journal of Machine Learning Research, 2008, 9(86): 2579–2605.
  • 期刊类型引用(4)

    1. 张翼鹏,卢东东,仇晓兰,李飞. 基于散射点拓扑和双分支卷积神经网络的SAR图像小样本舰船分类. 雷达学报. 2024(02): 411-427 . 本站查看
    2. 邰文飞,陈绪慧,张新胜,蔡明勇,任致华,王丽霞,史雪威. 高分三号卫星影像在地表变化检测中的应用试验. 航天返回与遥感. 2024(03): 41-50 . 百度学术
    3. 童亮,刘丹,彭中波,邹涵,王露萌,张春玉. 联合小波阈值和F-NLM去噪的高分辨率SAR舰船检测方法. 中国舰船研究. 2024(06): 275-283 . 百度学术
    4. 姜卫东,薛玲艳,张新禹. 雷达目标识别评估中的数据可分性度量方法. 雷达学报. 2023(04): 860-881 . 本站查看

    其他类型引用(2)

  • 加载中
图(15) / 表(7)
计量
  • 文章访问数: 2964
  • HTML全文浏览量: 1021
  • PDF下载量: 367
  • 被引次数: 6
出版历程
  • 收稿日期:  2021-11-09
  • 修回日期:  2022-03-06
  • 网络出版日期:  2022-03-31
  • 刊出日期:  2022-06-28

目录

/

返回文章
返回