Loading [MathJax]/jax/output/SVG/jax.js

基于视觉显著性的SAR遥感图像NanoDet舰船检测方法

刘方坚 李媛

葛建军, 李春霞. 一种基于信息熵的雷达动态自适应选择跟踪方法[J]. 雷达学报, 2017, 6(6): 587-593. doi: 10.12000/JR17081
引用本文: 刘方坚, 李媛. 基于视觉显著性的SAR遥感图像NanoDet舰船检测方法[J]. 雷达学报, 2021, 10(6): 885–894. doi: 10.12000/JR21105
Ge Jianjun, Li Chunxia. A Dynamic and Adaptive Selection Radar Tracking Method Based on Information Entropy[J]. Journal of Radars, 2017, 6(6): 587-593. doi: 10.12000/JR17081
Citation: LIU Fangjian and LI Yuan. SAR remote sensing image ship detection method NanoDet based on visual saliency[J]. Journal of Radars, 2021, 10(6): 885–894. doi: 10.12000/JR21105

基于视觉显著性的SAR遥感图像NanoDet舰船检测方法

DOI: 10.12000/JR21105
基金项目: 国家自然科学基金(61972021, 61672076)
详细信息
    作者简介:

    刘方坚(1979–),男,山东临沂人,中国科学院空天信息创新研究院副研究员,主要研究方向为遥感卫星地面处理系统技术研究等

    李 媛(1996–),女,河北石家庄人,于北京化工大学获得学士、硕士学位,现为北京理工大学博士生,主要研究方向为遥感图像分类、目标检测等

    通讯作者:

    刘方坚 liufj@aircas.ac.cn

  • 责任主编:孙显 Corresponding Editor: SUN Xian
  • 中图分类号: TN957.52

SAR Remote Sensing Image Ship Detection Method NanoDet Based on Visual Saliency

Funds: The National Natural Science Foundation of China (61972021, 61672076)
More Information
  • 摘要: 在合成孔径雷达遥感图像中,舰船由金属材质构成,后向散射强;海面平滑,后向散射弱,因此舰船是海面背景下的视觉显著目标。然而,SAR遥感影像幅宽大、海面背景复杂,且不同舰船目标特征差异大,导致舰船快速准确检测困难。为此,该文提出一种基于视觉显著性的SAR遥感图像NanoDet舰船检测方法。该方法首先通过自动聚类算法划分图像样本为不同场景类别;其次,针对不同场景下的图像进行差异化的显著性检测;最后,使用优化后的轻量化网络模型NanoDet对加入显著性图的训练样本进行特征学习,使系统模型能够实现快速和高精确度的舰船检测效果。该方法对SAR图像应用实时性具有一定的帮助,且其轻量化模型利于未来实现硬件移植。该文利用公开数据集SSDD和AIR-SARship-2.0进行实验验证,体现了该算法的有效性。

     

  • 分布式多雷达系统节点多、分布广,为了适应复杂战场动态作战需求,需要根据作战任务动态组织各个站点的工作,提高整个系统抗干扰、抗截获、抗摧毁等能力。实际中,受各雷达节点工作参数及相对目标的位置等因素的影响,不同节点观测目标获得的信息量不同,为此,如何根据战场态势,动态优化选择雷达站点“匹配”目标跟踪,是一个重要问题。

    目标跟踪理论是基于状态空间模型的递推结构,利用所有已知信息来求得目标状态变量的后验概率密度。即使用目标运动状态方程预测目标状态的先验概率,再利用最新时刻的雷达观测值来修正,得到状态的后验概率密度。传统多雷达跟踪通常使用所有雷达进行目标跟踪[1,2],研究的重点在于融合结构和融合算法[1,2],在传感器优化选取方面研究较少,目前,主要有基于目标预测的误差协方差矩阵[3,4]和信息增益[5]这两类优化准则的方法。第1类方法主要思想是依据目标跟踪的实际误差协方差矩阵与预设的期望协方差矩阵之间的差别进行雷达节点选择,使实际协方差矩阵在某种意义上逼近期望协方差矩阵;第2类方法主要思想是通过一个测量行为执行前后信息熵的减少求得信息增量,然后根据使信息增量最大的准则对传感器资源进行科学合理的分配。然而,第1类方法,实际中目标跟踪误差协方差矩阵的变化是相对缓慢的,灵敏度并不高,因此选择标准的精度不高;第2类方法仅是基于单部雷达的跟踪效果进行雷达的选取,并不能适用于雷达组合的选择。

    本文提出了使用信息熵定量度量由多雷达联合观测获得的目标的信息量,并给出了该信息量的下界。以此为基础,本文提出基于信息熵的雷达动态自适应选择跟踪方法,该方法通过最小化观测信息熵下界,实时选择信息量高的多个雷达节点进行目标跟踪,从而避免使用信息量低或无信息量的雷达量测。最后,仿真结果表明提出方法的跟踪效果优于任意选择雷达跟踪的平均效果。

    本文结构如下。第2节建立了多雷达跟踪目标的状态空间模型。第3节给出了多雷达观测信息熵的定量度量方法及其下界,进而理论推导了雷达动态自适应选择跟踪方法。第4节仿真对比了不同跟踪方法的效果。第5节为结束语。

    在目标跟踪中,通常使用动态空间模型对目标的运动状态进行描述,包括状态方程和量测方程。其中,状态方程描述了目标运动状态随时间演变的过程,量测方程描述了雷达观测与目标状态的关系。其中,目标运动的状态方程为:

    X(k)=f(X(k1))+V(k) (1)

    其中,X(k)为k时刻目标的状态,f为状态转移函数,V(k)为零均值、协方差矩阵为Q(k)的白色高斯过程噪声序列。

    雷达通常在2维或3维极坐标系中获得观测值,而目标运动则是在直角坐标系中描述[3,4]。假设目标运动在2维平面,雷达在极坐标系下获得探测目标的观测值。针对任意的多雷达探测系统构型,并且不失一般性,考虑各雷达自发自收的情况,k时刻第n部雷达的观测向量记为Zn(k)=[rn(k) an(k)]T。其中,rn(k)为第n部雷达与目标之间的径向距离,an(k)为第n部雷达与目标之间的方位角。由N部雷达组成的多雷达系统形成的观测集合Z(k)={Z1(k) Z2(k) ··· ZN(k)},对应的观测方程为:

    Zn(k)=hn(X(k))+Wn(k),n=1,2,···,N (2)

    其中,hn(X(k))为观测函数,具体计算方程为:

    hn(X(k))=[(x(k)xr,n)2+(y(k)yr,n)2arctan[(y(k)yr,n)/(x(k)xr,n)]] (3)

    其中,(x(k) y(k))为k时刻目标在直角坐标系中的位置,( xr,n , yr,n )为第n部接收雷达的直角坐标位置。并且, xr,n 为位置的横坐标, yr,n 为位置的纵坐标。Wn(k)为与过程噪声不相关的测量噪声, Wn(k)= [wrn(k) wan(k)]T ,测距噪声 wrn(k) 和方位角测角噪声 wan(k) 是均值为零、标准差分别为 σrn σan 的统计独立的高斯白噪声,其中 σrn 表征了第n部雷达径向距离测量值误差的波动大小, σan 表征了第n部雷达方位角测量值误差的波动大小。

    相应的观测协方差矩阵 Rn(k) 为:

    Rn(k)=E(Wn(k)Wn(k)T)=[(σrn)200(σan)2] (4)

    基于上述目标状态方程和观测方法,通常使用所有雷达进行目标跟踪,然而实际中不同雷达观测目标获得的信息量不同,有高有低,甚至有些雷达没有观测到任何目标信息,为此,需要从这些雷达中选择出信息含量高的雷达进行目标跟踪,提高目标跟踪效果。

    N部雷达组成的多雷达系统的观测量可以表示为 r=[rn]1×N , a=[an]1×N ,每个观测量为:

    rn=Rn+wrn (5)
    an=An+wan (6)

    其中, Rn , An分别为目标相对于第n部雷达的真实距离和角度,并且雷达n的目标距离观测噪声 wrnN(0,(σrn)2) ,测角噪声 wanN(0,(σan)2)

    N部雷达构成的多雷达系统极坐标观测的条件下,目标直角坐标位置估计协方差矩阵记为:

    RN,xy=E[(xˆx)(xˆx)(xˆx)(yˆy)(xˆx)(yˆy)(yˆy)(yˆy)] (7)

    多雷达观测是为了更多更准确地获得目标位置信息,将由多雷达的极坐标系观测获得目标直角坐标位置的信息量,定义为多雷达联合观测信息熵,根据信息论原理,推导得N部雷达观测信息熵为:

    HN(x,y|r,a)=12ln((2πe)N|RN,xy|) (8)

    根据参数估计理论[6],由式(8)可知,多雷达联合观测信息熵下界为:

    HN(x,y|r,a)12ln((2πe)N|I1N(x,y|r,a)|) (9)

    其中, IN(x,y|r,a) 为Fisher信息矩阵。根据参数估计理论[6],式(9)中Fisher信息矩阵可以写为:

    \begin{align} &\!\!\!{{{{I}}}\!_N}\left( {x,y|{{{r}}},{{{a}}}} \right) \!\\[ &\!\!\! =\!\! \left[\!\!\!\! {\begin{array}{*{20}{c}} { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {x^2}}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial y\partial x}}} \right]}\\ { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial x\partial y}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {y^2}}}} \right]} \end{array}} \!\!\!\right] \end{align} (10)

    其中,fN(r, a)为由N部自发自收雷达组成的多雷达系统观测的联合概率密度函数。假设各个观测值独立不相关,那么根据式(5),式(6)中各个雷达观测服从的概率分布可知,联合概率密度函数fN(r, a)为:

    fN(r,a)=Nn=112πσrnexp(|rnRn|22(σrn)2)12πσanexp(|anAn|22(σan)2) (11)

    由式(9)、式(10)及式(11)可知,在目标距离雷达站较远时,影响多雷达极坐标量测的信息熵下界的因素包括各雷达站与目标距离、方位角,以及各雷达站的测距精度和测角精度。

    根据贝叶斯理论可知目标跟踪主要过程为,首先使用目标运动状态方程进行预测,获得目标状态的先验信息,然后再结合最新时刻的观测值来更新预测值,获得目标状态的后验概率密度,这样后验概率密度就包含了先验信息和观测在内的所有可利用信息,获得目标状态估计结果。因而,目标跟踪过程可理解为:后验=先验+观测,这表示调节观测会影响目标状态估计结果。

    本文提出的基于信息熵的雷达节点自适应选择跟踪方法通过使用信息含量高的雷达节点而不是全部雷达节点进行目标跟踪,从而避免使用信息含量少甚至没有目标信息的雷达,有效提高目标跟踪效果。本文提出的方法在确定要选择的雷达站数目的情况下,通过最小化多雷达观测信息熵下界对每个时刻的雷达编号进行选择,然后使用所选取的信息量高的雷达对目标进行联合跟踪,从而获得较高的目标跟踪精度。

    不失一般性,假设多雷达系统中共N部雷达,并且自发自收,在目标k时刻多雷达联合跟踪获得的目标状态估计值为 ˆX(k|k) , P(k|k) ,那么由k时刻递推到k+1时刻目标状态估计的过程描述如下。

    •多雷达的选择

    k+1时刻的多个观测量中找出那些具有大的信息量的观测,利用这些观测量来更有效地提高目标跟踪精度。本文以信息熵下界最小,每个时刻自适应从多雷达观测信息熵中选出数值最小的两部(或多部)雷达编号,然后用于目标跟踪。

    假设所选雷达站个数为N0(N0<N),那么计算N部雷达中任意N0部雷达的观测信息熵下界,形成 CN0N 个观测信息熵结果,进而选取具有最小观测信息熵下界的N0部雷达的编号集 ˆΘ ,用这一编号集中的雷达进行多雷达站联合跟踪。为此,由式(9)可得雷达编号集为:

    ˆΘ=argminΘ12ln((2πe)N0|I1N0(x,y|r,a)|) (12)

    由于函数ln(·)单调递增,式(12)中 ˆΘ 的求解等价为:

    ˆΘ=argmaxΘ|IN0(x,y|r,a)| (13)

    其中, IN0 (x, y|r, a)为N0部雷达观测获得目标位置状态估计的Fisher信息矩阵,其求解过程与3.1节中的求N部雷达的类似,仅需要将式(11)中的N部雷达观测的联合概率密度函数替换为N0部雷达观测的联合概率密度函数,其表示为:

    fN0(rN0,aN0)=nΘ12πσrne(|rnRn|22(σrn)2)12πσane(|anAn|22(σan)2) (14)

    式中, rN0,aN0 分别为N0部雷达距离和方位角观测集, Θ N部雷达中任意N0部雷达组成的集合,共有 CN0N 个。其余参数含义同3.1节。

    目前的多雷达融合跟踪算法都与融合结构密切相关,融合结构大致分成3大类:集中式、分布式和混合式[7]。集中式融合也称为中心式融合(centralized fusion)或量测融合(measurement fusion)。分布式融合(distributed fusion)是各传感器都具有自己的局部处理器,能够形成局部航迹,所以在融合中心也主要是对各局部航迹进行融合,所以这种融合方法通常也称为航迹融合(track fusion)。混合式融合(hybrid fusion)是集中式结构和分布式结构的一种综合,融合中心得到的可能是原始量测数据,也可能是局部节点处理过的数据。

    在选择完所用的雷达编号后,可采用这3种融合结构的任何一种进行目标融合跟踪,本文以航迹级融合为例,主要步骤包括使用上一时刻目标融合的位置状态估计对时刻k+1目标状态进行预测,然后使用所选择雷达分别对k+1时刻目标状态进行更新,最后对所选取的雷达的k+1时刻目标状态估计进行融合,获得目标k+1时刻状态估计结果。更为具体的算法描述如下。

    •目标状态预测

    从最优贝叶斯跟踪滤波的角度来看,在获得k时刻的观测值之前,根据目标运动状态转移模型,目标状态预测实现先验概率 p(X(k)|Z1:k) p(X(k+1)|Z1:k) 的求解[8]。假设在k–1时刻, p(X(k)|Z1:k) 是已知的,那么,对于1阶马尔可夫过程(即该时刻的状态仅与上一时刻的状态值有关,而与之前所有时刻的状态值无关),由Chapman- Kolmogorov方程可知

    p(X(k+1)|Z1:k)=p(X(k+1)|X(k))p(X(k)|Z1:k)dX(k) (15)

    其中, p(X(k+1)|X(k)) 为目标状态转移概率, Z1:k 表示从1到k时刻观测量的集合,即 Z1:k= {Z(1),Z(2),···,Z(k)} 。根据目标运动方程,可得式(15)中的目标状态转移概率为:

    p(X(k+1)|X(k))=N(X(k+1);f(X(k)),Q(k)) (16)

    式中, N(X(k+1);f(X(k)),Q(k)) 表示均值为 f(X(k)) ,协方差矩阵为 Q(k) 的高斯分布。

    上述最优贝叶斯跟踪下的目标状态预测过程的具体实现可以采用转换量测卡尔曼滤波(CMKF)、基于泰勒展开式的扩展卡尔曼滤波[911](Extended Kalman Filter, EKF),不敏卡尔曼滤波[12](Unscented Kalman Filter, UKF),粒子滤波[13](PF)等滤波方法中的目标状态预测过程。以EKF预测方法为例,目标状态的一步预测为:

    ˆX(k+1|k)=f(ˆX(k|k)) (17)

    相应地,状态误差协方差矩阵的一步预测为:

    P(k+1|k)=fX(k)P(k|k)fTX(k)+Q(k) (18)

    其中,fX(k)为目标状态转移函数关于 ˆXn (k|k)的雅可比矩阵,Q(k)为白色高斯过程噪声序列的协方差矩阵。

    •目标状态更新

    从最优贝叶斯跟踪滤波的角度来看,目标状态更新是在获得k+1时刻的观测值后,实现先验概率 p(X(k+1)|Z1:k) 至后验概率 p(X(k+1)|Z1:k+1) 的推导。根据贝叶斯定理可知

    p(X(k+1)|Z1:k+1)=p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)dX(k+1) (19)

    其中,根据跟踪滤波的雷达观测模型,式(19)中的似然函数 p(Z(k+1)|X(k+1)) 表达式为:

    p(Z(k+1)|X(k+1))=N(Z(k+1);h(X(k+1)),R(k+1)) (20)

    式中,N(Z(k+1); h(X(k+1)), R(k+1))表示均值为h(X(k+1)),协方差矩阵为R(k+1)的高斯分布。

    同样地,上述最优贝叶斯跟踪下的目标状态更新过程的具体实现可以采用CMKF, EKF, UKF, PF等滤波方法中的目标状态更新过程。本文以EKF目标状态更新过程为例进行描述。

    k+1时刻多雷达观测中的每部雷达观测分别代入滤波中的状态更新,得到对应每部雷达观测的多个目标状态更新值,并将使用第n部雷达观测得到的k+1时刻目标状态更新值记作 ˆX n(k+1|k+1), Pn(k+1|k+1)。具体过程如下:

    由目标跟踪的状态空间方程中的观测方程,可得观测值和观测新息协方差矩阵预测为:

    ˆZn(k+1|k)=hn(ˆX(k+1|k)) (21)
    Sn(k+1|k)=hn,X(k+1)Pn(k+1|k)hTn,X(k+1)+Rn(k+1) (22)

    其中, hn,X(k+1) 为量测函数关于 ˆX n(k+1|k)的雅可比矩阵,即

    hn,X(k+1)=[XhTn(X(k+1))]TX=ˆX(k+1|k)=[x(k+1|k)r(k+1|k)0y(k+1|k)r(k+1|k)0y(k+1|k)(r(k+1|k))20x(k+1|k)(r(k+1|k))20]X=ˆX(k+1|k) (23)

    EKF滤波方法的增益为:

    Pn,XZ=Pn(k+1|k)hn,X(k+1) (24)
    Kn(k+1)=Pn,XZSn(k+1|k)1 (25)

    空间目标状态和协方差矩阵的更新值分别为:

    ˆXn(k+1|k+1)=ˆX(k+1|k)+Kn(k+1)[Zn(k+1)ˆZn(k+1|k)] (26)
    Pn(k+1|k+1)=[IKn(k+1)hn,X(k+1)]P(k+1|k)[I+Kn(k+1)hn,X(k+1)]TKn(k+1)Rn(k+1)KTn(k+1) (27)

    其中,I为4阶单位矩阵,其余变量的含义如上。经由以上步骤,得到了目标在k+1时刻的使用雷达n观测的状态估计 ˆXn (k+1|k+1)及状态协方差矩阵Pn(k+1|k+1)。

    •多雷达跟踪航迹融合

    将选出的N0部雷达的目标状态更新结果进行融合,得到最后的目标状态融合结果作为k+1时刻目标状态估计值。设选择的融合雷达编号集合为 Ω ,并且采用广义凸组合融合1(Generalized Convex Combination 1, GCC1),有时也称为简单凸组合融合(Simple Convex Combination, SCC)[1,2,14],得到的融合结果为:

    ˆX(k+1|k+1)=P(k+1|k+1)nΩP1n(k+1|k+1)ˆXn(k+1|k+1) (28)
    P(k+1|k+1)=(nΩP1n(k+1|k+1))1 (29)

    重复以上步骤直至跟踪结束,便可得到利用雷达观测信息熵下界自适应选择雷达节点,实现目标跟踪的整个过程。

    在目标跟踪中,航迹精度是对跟踪滤波算法性能进行评估的重要指标。航迹精度体现了不同滤波方法对雷达测量误差的平滑程度。概括来讲,航迹精度包括位置精度和速度精度,航迹的位置精度定义为航迹位置估计的均方根误差。目标状态估计的均方根误差越小,滤波器的滤波值与真实值越接近,航迹精度则越高[8]

    m次蒙特卡诺仿真得到滤波估计误差为:

    em(k)=ˆXm(k|k)X(k) (30)

    其中, ˆX m (k+1|k+1)和X(k)分别为k时刻目标状态的跟踪结果和真实值。

    目标跟踪位置和速度估计的均方根误差分别为:

      RMSEPOS(k)=(1MCMCm=1[ˆxm(k|k)x(k)]2+[ˆym(k|k)y(k)]2)1/2 (31)
    \begin{align} {\rm RMSE}_{\rm VEL}\left( k \right) =& \left( \frac{1}{{\rm MC}}\sum\limits_{m = 1}^{\rm MC} {{\left[ {v{{\hat x}_m}\left( {k|k} \right) - vx\left( k \right)} \right]}^2} \right. \\ & + \left. {{\left[ {v{{\hat y}_m}\left( {k|k} \right) - vy\left( k \right)} \right]}^2} \Biggr\right)^{1/2} \end{align} (32)

    其中,向量 (ˆxm ˆym ˆzm) (x y z) 分别为目标在k时刻的位置估计值和真实值,向量 (vˆxm vˆym vˆzm) (vx vy vz) 分别为目标在k时刻的速度估计值和真实值,下标m表示第m次蒙特卡诺仿真,MC为总的蒙特卡诺仿真次数,本文设置为200,并且各部雷达的测距和测角误差方差分别为 σ2r=25 m2 , σ2θ= 0.0003 rad2

    假设在多雷达系统中共有4部雷达,它们在直角坐标系中的位置为:雷达1为(0, 0)、雷达2为(20000, 0) m、雷达3为(20000, 0) m和雷达4为(1000, 20000) m。设置的4部雷达站位置与目标航迹如图1所示。其中,目标运动时间为40 s,运动间隔为1 s,并在前26 s时间内目标做匀速直线运动,在26 s时目标进行了转弯,然后进行匀速直线运动,目标运动方向如图中箭头所示。

    图  1  4部雷达位置与目标航迹图
    Figure  1.  Radars locations and target trajectory

    为了仿真验证提出的方法,需要从场景中的4部雷达选择信息含量高的N0部雷达进行跟踪,而此个数在实际的多目标多任务复杂跟踪场景,需要进行合理设置。本文从验证提出的方法的角度出发,可以将N0进行人为设置。不失一般性,设计N0=2,即从4部雷达选出联合信息量最多的2部雷达进行联合跟踪。根据3.2节中雷达优化选择方法,可知不同时刻跟踪选择的雷达站编号如图2所示。

    图  2  不同时刻选择的信息量高的雷达编号
    Figure  2.  Radars indexes selected by fusion entropy model

    将基于联合信息量最大选出的两部雷达进行融合跟踪的方法记为“基于信息熵的联合跟踪”;将不采用信息量最大选择出的任意两部雷达跟踪的效果的平均记为“传统联合跟踪”。对比单部雷达跟踪、不采用和采用信息熵的联合跟踪效果,结果如图3图4所示。

    图  3  目标位置跟踪精度对比
    Figure  3.  Comparison of target position RMSE
    图  4  目标速度跟踪精度对比
    Figure  4.  Comparison of target velocity RMSE

    图3图4可知,采用基于两部联合信息量最大选出的雷达进行融合跟踪,得到的位置精度和速度精度最好,其次是不采用基于信息熵的任意两部雷达融合跟踪的平均效果,而单雷达跟踪效果最差。

    为了满足现代复杂战场动态作战需求,针对单雷达站信息量少跟踪精度不高,而多雷达系统中不同雷达、不同时刻获得目标信息量的多少不同的问题,提出一种基于信息熵的雷达动态自适应选择跟踪方法。该方法使用信息熵定量刻画了由多雷达极坐标观测获得目标直角坐标位置的信息量,并给出了其下界。进而,通过最小化雷达观测目标的信息熵下界,理论推导了每个时刻实时最优化选取目标信息含量高的雷达站进行跟踪的方法,具有良好的目标跟踪效果。

  • 图  1  系统整体流程示意图

    Figure  1.  Schematic diagram of the overall system process

    图  2  极小PAN结构

    Figure  2.  Structure diagram of minimize PAN

    图  3  FCOS检测头结构图

    Figure  3.  Structure diagram of FCOS detection head

    图  4  多尺度特征提取示意图

    Figure  4.  Schematic diagram of multi-scale feature extraction

    图  5  添加预处理效果图

    Figure  5.  The result diagram of the preprocessing module

    图  6  是否加入本文预处理方法检测结果对比图

    Figure  6.  The result diagram of the ship detection method with the preprocessing module added or not

    图  7  本文方法基于SSDD数据集的检测结果图

    Figure  7.  The ship inspection result diagram based on SSDD dataset of the method proposed in this paper

    图  8  本文方法基于AIR-SARship数据集的检测结果图

    Figure  8.  The detection result diagram based on AIR-SARship dataset of our approach

    图  9  不同方法检测结果对比图

    Figure  9.  Comparison chart of detection results of different methods

    图  10  不同方法精度-召回率曲线

    Figure  10.  Precision-Recall curves of different methods.

    表  1  基于全部实验数据的不同方法检测性能对比

    Table  1.   Comparison of detection performance of different methods based on all dataset

    方法PD (%)PF (%)Precision (%)Recall (%)mAP (%)Time (ms)
    Yolov2-tiny53.1014.9775.3653.1055.209.37
    Yolov3-tiny71.0313.5576.1571.0361.4211.65
    NanoDet83.5610.0383.6483.5676.334.96
    Faster R-CNN84.989.6282.3784.9874.94313.55
    SSD94.367.9685.8392.3682.5253.98
    Yolov494.984.6689.3493.9888.62120.34
    Yolov595.125.4394.6895.1290.5637.52
    PANet93.224.5294.9693.2290.77183.68
    未加预处理方法92.655.5386.7192.6585.895.39
    本文方法95.643.4895.4795.6492.495.22
    下载: 导出CSV
  • [1] MOREIRA A, PRATS-IRAOLA P, YOUNIS M, et al. A tutorial on synthetic aperture radar[J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(1): 6–43. doi: 10.1109/MGRS.2013.2248301
    [2] 郭倩, 王海鹏, 徐丰. SAR图像飞机目标检测识别进展[J]. 雷达学报, 2020, 9(3): 497–513. doi: 10.12000/JR20020

    GUO Qian, WANG Haipeng, and XU Feng. Research progress on aircraft detection and recognition in SAR imagery[J]. Journal of Radars, 2020, 9(3): 497–513. doi: 10.12000/JR20020
    [3] 张杰, 张晰, 范陈清, 等. 极化SAR在海洋探测中的应用与探讨[J]. 雷达学报, 2016, 5(6): 596–606. doi: 10.12000/JR16124

    ZHANG jie, ZHANG Xi, FAN Chenqing, et al. Discussion on application of polarimetric synthetic aperture radar in marine surveillance[J]. Journal of Radars, 2016, 5(6): 596–606. doi: 10.12000/JR16124
    [4] 牟效乾, 陈小龙, 关键, 等. 基于INet的雷达图像杂波抑制和目标检测方法[J]. 雷达学报, 2020, 9(4): 640–653. doi: 10.12000/JR20090

    MOU Xiaoqian, CHEN Xiaolong, GUAN Jian, et al. Clutter suppression and marine target detection for radar images based on INet[J]. Journal of Radars, 2020, 9(4): 640–653. doi: 10.12000/JR20090
    [5] WACKERMAN C C, FRIEDMAN K S, PICHEL W G, et al. Automatic detection of ships in RADARSAT-1 SAR imagery[J]. Canadian Journal of Remote Sensing, 2001, 27(5): 568–577. doi: 10.1080/07038992.2001.10854896
    [6] 陈慧元, 刘泽宇, 郭炜炜, 等. 基于级联卷积神经网络的大场景遥感图像舰船目标快速检测方法[J]. 雷达学报, 2019, 8(3): 413–424. doi: 10.12000/JR19041

    CHEN Huiyuan, LIU Zeyu, GUO Weiwei, et al. Fast detection of ship targets for large-scale remote sensing image based on a cascade convolutional neural network[J]. Journal of Radars, 2019, 8(3): 413–424. doi: 10.12000/JR19041
    [7] AUDEBERT N, LE SAUX B, and LEFÈVRE S. How useful is region-based classification of remote sensing images in a deep learning framework?[C]. 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Beijing, China, 2016: 5091–5094. doi: 10.1109/IGARSS.2016.7730327.
    [8] WANG Wenxiu, FU Yutian, DONG Feng, et al. Remote sensing ship detection technology based on DoG preprocessing and shape features[C]. The 3rd IEEE International Conference on Computer and Communications (ICCC), Chengdu, China, 2017: 1702–1706. doi: 10.1109/CompComm.2017.8322830.
    [9] HOU Xiaodi and ZHANG Liqing. Saliency detection: A spectral residual approach[C]. 2007 IEEE Conference on Computer Vision and Pattern Recognition, Minneapolis, USA, 2007: 1–8. doi: 10.1109/CVPR.2007.383267.
    [10] GOFERMAN S, ZELNIK-MANOR L, and TAL A. Context-aware saliency detection[C]. 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Francisco, USA, 2010: 2376–2383. doi: 10.1109/CVPR.2010.5539929.
    [11] LIU Zhi, ZOU Wenbin, and LE MEUR O. Saliency tree: A novel saliency detection framework[J]. IEEE Transactions on Image Processing, 2014, 23(5): 1937–1952. doi: 10.1109/TIP.2014.2307434
    [12] CHENG Gong, ZHOU Peicheng, and HAN Junwei. Learning rotation-invariant convolutional neural networks for object detection in VHR optical remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(12): 7405–7415. doi: 10.1109/TGRS.2016.2601622
    [13] LIU Li, OUYANG Wanli, WANG Xiaogang, et al. Deep learning for generic object detection: A survey[J]. International Journal of Computer Vision, 2020, 128(2): 261–318. doi: 10.1007/s11263-019-01247-4
    [14] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904–1916. doi: 10.1109/TPAMI.2015.2389824
    [15] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA, 2014: 580–587.
    [16] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137–1149. doi: 10.1109/TPAMI.2016.2577031
    [17] NIE Xuan, DUAN Mengyang, DING Haoxuan, et al. Attention mask R-CNN for ship detection and segmentation from remote sensing images[J]. IEEE Access, 2020, 8: 9325–9334. doi: 10.1109/ACCESS.2020.2964540
    [18] LIU Shu, QI Lu, QIN Haifang, et al. Path aggregation network for instance segmentation[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 8759–8768. doi: 10.1109/CVPR.2018.00913.
    [19] LIU Yudong, WANG Yongtao, WANG Siwei, et al. Cbnet: A novel composite backbone network architecture for object detection[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(7): 11653–11660. doi: 10.1609/aaai.v34i07.6834
    [20] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time objectdetection[C]. The IEEE conference on computer vision and pattern recognition, Las Vegas, USA, 2016: 779–788.
    [21] LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 21–37. doi: 10.1007/978-3-319-46448-0_2.
    [22] REDMON J and FARHADI A. YOLO9000: Better, faster, stronger[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6517–6525. doi: 10.1109/CVPR.2017.690.
    [23] REDMON J and FARHADI A. Yolov3: An incremental improvement[C]. arXiv: 1804.02767, 2018.
    [24] BOCHKOVSKIY A, WANG C Y, and LIAO H Y M. Yolov4: Optimal speed and accuracy of object detection[C]. arXiv: 2004.10934, 2020.
    [25] IANDOLA F N, HAN Song, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5 MB model size[C]. arXiv: 1602.07360, 2016.
    [26] MITTELMANN H and PENG Jiming. Estimating bounds for quadratic assignment problems associated with hamming and Manhattan distance matrices based on semidefinite programming[J]. SIAM Journal on Optimization, 2010, 20(6): 3408–3426. doi: 10.1137/090748834
    [27] LI Yanghao, CHEN Yuntao, WANG Naiyan, et al. Scale-aware trident networks for object detection[C]. 2019 IEEE/CVF International Conference on Computer Vision, Seoul, Korea (South), 2019: 6053–6062.
    [28] PASZKE A, GROSS S, MASSA F, et al. Pytorch: An imperative style, high-performance deep learning library[C]. The 33rd Conference on Neural Information Processing Systems, Vancouver, Canada, 2019: 8026–8037.
    [29] LI Jianwei, QU Changwen, and SHAO Jiaqi. Ship detection in SAR images based on an improved faster R-CNN[C]. 2017 SAR in Big Data Era: Models, Methods and Applications, Beijing, China, 2017: 1–6. doi: 10.1109/BIGSARDATA.2017.8124934.
    [30] 李健伟, 曲长文, 彭书娟. 基于级联CNN的SAR图像舰船目标检测算法[J]. 控制与决策, 2019, 34(10): 2191–2197. doi: 10.13195/j.kzyjc.2018.0168

    LI Jianwei, QU Changwen, and PENG Shujuan. A ship detection method based on cascade CNN in SAR images[J]. Control and Decision, 2019, 34(10): 2191–2197. doi: 10.13195/j.kzyjc.2018.0168
  • 期刊类型引用(3)

    1. 王岩飞,李和平,韩松. 天线阵列编码合成孔径成像. 雷达学报. 2023(01): 1-12 . 本站查看
    2. 彭正翔,张群,刘治东,李开明,蔡斌. 一种基于正交脉冲分集的ISAR欺骗干扰消除与识别方法. 空军工程大学学报(自然科学版). 2022(02): 39-45 . 百度学术
    3. 冯翼,杜好阳,李一木,王磊,王昕,郑益慧. 基于脉冲编码激励超声扩频测距的变压器绕组变形检测技术. 高电压技术. 2020(11): 3960-3969 . 百度学术

    其他类型引用(6)

  • 加载中
图(10) / 表(1)
计量
  • 文章访问数: 2397
  • HTML全文浏览量: 1343
  • PDF下载量: 362
  • 被引次数: 9
出版历程
  • 收稿日期:  2021-07-22
  • 修回日期:  2021-09-18
  • 网络出版日期:  2021-10-19
  • 刊出日期:  2021-12-28

目录

/

返回文章
返回