RSDD-SAR:SAR舰船斜框检测数据集

徐从安 苏航 李健伟 刘瑜 姚力波 高龙 闫文君 汪韬阳

徐从安, 苏航, 李健伟, 等. RSDD-SAR:SAR舰船斜框检测数据集[J]. 雷达学报, 2022, 11(4): 581–599. doi: 10.12000/JR22007
引用本文: 徐从安, 苏航, 李健伟, 等. RSDD-SAR:SAR舰船斜框检测数据集[J]. 雷达学报, 2022, 11(4): 581–599. doi: 10.12000/JR22007
XU Congan, SU Hang, LI Jianwei, et al. RSDD-SAR: Rotated ship detection dataset in SAR images[J]. Journal of Radars, 2022, 11(4): 581–599. doi: 10.12000/JR22007
Citation: XU Congan, SU Hang, LI Jianwei, et al. RSDD-SAR: Rotated ship detection dataset in SAR images[J]. Journal of Radars, 2022, 11(4): 581–599. doi: 10.12000/JR22007

RSDD-SAR:SAR舰船斜框检测数据集

DOI: 10.12000/JR22007
基金项目: 国家自然科学基金(61790550, 61790554, 61971432, 62022092),中国科协青年人才托举工程基金(2020-JCJQ-QT-011),山东省泰山学者人才工程(tsqn201909156)
详细信息
    作者简介:

    徐从安(1987-),男,博士,副教授,主要研究方向为多平台多源预警探测、智能信息处理

    苏 航(1998-),男,海军航空大学在读硕士研究生,主要研究方向为SAR图像舰船目标检测

    李健伟(1989-),男,博士,工程师,主要研究方向为雷达与电子对抗、SAR图像智能处理、计算机视觉

    刘 瑜(1987-),男,博士,教授,主要研究方向为遥感图像处理、多模态数据融合

    姚力波(1980-),男,博士,副教授,主要研究方向为卫星遥感图像处理、目标检测与跟踪

    高 龙(1993-),男,博士,讲师,主要研究方向机器学习、异常检测、SAR图像智能处理

    闫文君(1986-),男,博士,副教授,主要研究方向为智能信息处理、频谱感知

    汪韬阳(1984-),男,博士,副研究员,主要研究方向为航天摄影测量、遥感图像几何处理、卫星视频目标检测与识别

    通讯作者:

    苏航 shpersonal_email@163.com

    李健伟 lgm_jw@163.com

  • 责任主编:孙显 Corresponding Editor: SUN Xian
  • 中图分类号: TN957.51; TN958

RSDD-SAR: Rotated Ship Detection Dataset in SAR Images

Funds: The National Natural Science Foundation of China (61790550, 61790554, 61971432, 62022092), The Young Elite Scientists Sponsorship Program by CAST (2020-JCJQ-QT-011), The Taishan Scholar Project of Shandong Province (tsqn201909156)
More Information
  • 摘要: 针对合成孔径雷达(SAR)舰船斜框检测数据集较少,难以满足算法发展和实际应用需求的问题,该文公开了SAR舰船斜框检测数据集(RSDD-SAR),该数据集由84景高分3号数据和41景TerraSAR-X数据切片及2景未剪裁大图,共127景数据构成,包含多种成像模式、多种极化方式、多种分辨率切片7000张,舰船实例10263个,通过自动标注和人工修正相结合的方式高效标注。同时,该文对几种常用的光学遥感图像斜框检测算法和SAR舰船斜框检测算法进行了实验,其中单阶段算法S2ANet检测效果最佳,平均精度达到90.06%。通过实验对比分析形成基准指标,可供相关学者参考。最后,该文通过泛化能力测试,分析讨论了RSDD-SAR数据集训练模型在其他数据集和未剪裁大图上的性能,结果表明:该数据集训练模型具有较好的泛化能力,说明该数据集具有较强的应用价值。RSDD-SAR数据集可在以下网址下载:https://radars.ac.cn/web/data/getData?dataType=SDD-SAR

     

  • 合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动式微波成像雷达,具有全天时、全天候的观测能力,在民用和军用领域应用广泛。舰船检测作为SAR图像解译的重要分支,对于海上商业和军事活动监管具有重要意义。

    近年来,随着深度学习的发展,基于深度学习的检测算法取得了突破性的进展。相较于传统方法,深度学习算法具有无需手工设计特征、泛化能力强、可端到端训练等优点,精度有了较大提升,因此逐渐成为检测算法的主流。

    但深度学习作为数据驱动的算法,其训练离不开大量数据的支撑,因此相关学者也制作并公布了一些SAR舰船检测数据集。自从Li等人[1]公开第1个SAR舰船检测数据集SSDD,基于深度学习的SAR舰船检测工作开始有了较大的进展[2-4]。SSDD之后,孙显等人[5]公布了AIR-SARShip-1.0和AIR-SARShip-2.0数据集,Wang等人[6]公布了SAR-Ship-Dataset数据集,Wei等人[7]公布了HRSID数据集,Zhang等人[8]公布了LS-SSDD-v1.0数据集,Lei等人[9]公布了SRSDD-v1.0数据集,为SAR舰船检测任务提供了更强力的数据支撑。此外,Huang等人[10]公布了首个用于SAR舰船识别任务的数据集OpenSARShip,Li等人[11]对OpenSARShip进一步扩充,公布了OpenSARShip 2.0,Hou等人[12]公布了高分辨SAR舰船识别数据集FUSAR-Ship。现有公开数据集详细信息如表1所示。

    表  1  现有公开数据集详细信息
    Table  1.  Detailed information of existing public datasets
    数据集公开时间数据来源分辨率(m)图像尺寸图像数量任务
    OpenSARShip-1.0
    OpenSARShip-2.0
    2017Sentinel-12.7×22~
    3.5×22,
    20×22
    9×9~445×445
    1×1~445×445
    11346
    34528
    识别
    SSDD2017RadarSat-2
    TerraSAR-X
    Sentinel-1
    1~15190~6681160垂直边框检测
    斜框检测
    语义分割
    SAR-Ship-Dataset2019Gaofen-3
    Sentinel-1
    3~25256×25643918垂直边框检测
    AIR-SARShip-1.0
    AIR-SARShip-2.0
    2019Gaofen-31, 33000×3000
    1000×1000
    31
    300
    垂直边框检测
    FUSAR-Ship2020Gaofen-31.700×1.124~
    1.754×1.124
    512×5125243识别
    HRSID2021Sentinel-1
    TerraSAR-X
    0.5, 1.0, 3.0800×8005604垂直边框检测
    语义分割
    LS-SSDD-v1.02021Sentinel-15×2024000×1600015垂直边框检测
    SRSDD-v1.02021Gaofen-311024×1024666斜框检测
    识别
    RSDD-SAR2022Gaofen-3
    TerraSAR-X
    2~20512×5127000斜框检测
    下载: 导出CSV 
    | 显示表格

    上述数据集在SAR舰船检测识别中获得了广泛应用,其中,除了SSDD数据集后续添加斜框标注[13],HRSID数据集语义分割标注可转换为斜框标注,及SRSDD-v1.0数据集,其余检测数据集都是基于垂直边框标注。相较于垂直边框标注,斜框标注不仅可以精准地表示舰船目标,减少冗余干扰,而且可以获取航向、长宽比等属性信息。如图1(a)所示,在近岸港口码头区域,环境较复杂,垂直边框标注舰船目标易受岸上建筑物影响,尤其对于密集排列的舰船目标,垂直边框标注会造成舰船目标之间重叠,影响检测性能。如图1(b)所示,使用斜框标注舰船目标则可生成紧密的旋转边框,避免岸上建筑物干扰和重叠问题。如图2所示,使用斜框标注舰船目标还可获取长宽比和航向信息,对后续的航迹预测、态势估计等具有重要意义。

    图  1  不同标注方式比较
    Figure  1.  Comparison of different annotation methods
    图  2  舰船目标航向和长宽比信息
    Figure  2.  The course and aspect ratio information of ship target

    然而现有数据集仅SSDD, HRSID, SRSDD-v1.0可用于斜框检测,数据量远少于垂直边框检测数据集,难以满足算法发展和实际应用需求。因此,本文公开了SAR舰船斜框检测数据集RSDD-SAR,该数据集由84景高分3号数据和41景TerraSAR-X数据[14]切片及2景未剪裁大图,共127景数据构成,包含多种成像模式、多种极化方式、多种分辨率切片7000张,舰船实例10263个,通过自动标注和人工修正相结合的方式高效标注。同时,本文对几种常用的光学遥感图像斜框检测算法及SAR舰船斜框检测算法进行了实验与分析,并形成了基准指标,可供相关学者参考。最后,本文通过泛化能力测试,分析讨论了RSDD-SAR数据集训练模型的泛化能力。

    RSDD-SAR数据集由84景高分3号数据和41景TerraSAR-X数据切片及2景未剪裁大图,共127景数据构成。附录1给出了每景数据的详细信息,包含传感器类型、经纬度、获取时间、成像模式、分辨率、极化方式、产品级别、入射角、成像幅宽、编号信息。如表2所示,以景号为1的数据为例,传感器类型为高分3号,经纬度为(E121.0, N37.9),获取时间为2017年10月17日,成像模式为FSII,分辨率为10 m,极化方式为HH,HV,产品级别为L1A级,入射角为19°~50°,成像幅宽为100 km,编号为0-1。

    表  2  原始数据详细信息
    Table  2.  Detailed information of the raw data
    景号传感器经度纬度成像时间成像模式分辨率(m)极化方式产品级别入射角(°)成像幅宽(km)编号
    1GF-3E121.0N37.920171017FSII10HH,HVL1A19~501000-1
    下载: 导出CSV 
    | 显示表格

    RSDD-SAR数据集斜框定义方式如图3所示,采用长边定义法。记斜框中心点坐标为(cx,cy),长边为h,短边为wx轴正方向与斜框长边之间的夹角为θ,其中θ[π/2,π/2),顺时针为正,逆时针为负,斜框标注记为(cx,cy,h,w,θ)

    图  3  斜框定义方式
    Figure  3.  Rotated bounding box definition method

    RSDD-SAR数据集通过自动标注与人工修正相结合的方式高效标注,流程如图4所示,主要包括以下6个步骤:

    图  4  标注流程图
    Figure  4.  Annotation procedure

    步骤1 数据预处理

    数据预处理流程如图5所示,主要包括5个步骤:(1)原始高分3号数据以.jpgf格式存储,TerraSAR-X数据以.cos格式存储,首先利用软件ENVI[15]和PIE-SAR[16]读取原始SAR数据,获取64位复数数据,由32位浮点型实部和32位浮点型虚部组成;(2)将复数数据转换为32位浮点型幅度数据,幅度是SAR影像最主要的特征之一,反映不同物体后向散射强弱;(3)裁剪多余陆地区域,获取海上感兴趣区域;(4)通过线性灰度拉伸将32位浮点型数据转换为8位整型数据,提高数据的可视性、减少数据量大小;(5)为与PASCAL VOC数据集[17]格式保持一致,将单通道扩展为3通道.jpg格式数据。另外,2景未剪裁大图仅利用步骤1中的(1), (2), (4), (5)步骤处理,其中高分3号未剪裁大图尺寸为14848×40448,TerraSAR-X未剪裁大图尺寸为14336×32256。

    图  5  数据预处理流程
    Figure  5.  Data preprocessing procedure

    步骤2 数据切片

    数据切片方式如图6所示,将步骤1处理好的幅度数据不重叠地切分成尺寸为512×512的切片,并根据切片所在行/列对切片命名,如编号为1的数据,第1行、第3列切片命名为1_0_2。

    图  6  数据切片方式
    Figure  6.  Data cutting method

    步骤3 训练SAR舰船目标斜框检测模型

    在SSDD数据集上训练文献[18]所提Polar Encodings SAR舰船斜框检测模型,迭代轮次设为120,训练批次大小设为4,训练集、测试集图像尺寸统一设为512×512,其余参数设置与文献[18]相同,保存训练过程中的最优模型。

    步骤4 自动标注

    利用步骤3训练好的斜框检测模型对步骤2中的切片自动标注,并设置较低的置信度阈值,初步筛选自动标注切片。由于置信度阈值较低,可筛选更多包含舰船目标的切片,但同样会筛选大量陆地建筑物虚警切片。

    步骤5 人工修正

    步骤4筛选出的自动标注切片主要有3种类型:陆地建筑物虚警切片、简单场景切片、复杂场景切片。陆地建筑物虚警切片如图7(a)所示,从筛选出的自动标注切片中直接剔除虚警切片。简单场景切片如图7(b)所示,自动标注结果较准确,使用roLabelImg工具[19]微调自动标注结果以生成更精准的标注,微调结果如图7(c)所示。复杂场景切片如图7(d)所示,存在大量的虚警和漏检,使用roLabelImg工具结合自动标注结果再标注,再标注结果如图7(e)所示。

    图  7  人工修正示例
    Figure  7.  Manual modification examples

    步骤6 Google Earth纠正

    近岸场景下岸上建筑物、设施等的后向散射系数较强,导致近岸舰船目标标注困难,而光学遥感图像则不受此影响。因此,RSDD-SAR数据集结合Google Earth对近岸场景切片进行纠正。由于Google Earth不能获取实时历史影像,无法直接纠正舰船标注,但岸上建筑物通常不变,可作为标注参考。因此,本文选取与SAR数据成像时间最近的Google Earth历史影像,参考岸上建筑物信息提高标注准确性。如图8所示,图8(b)为希腊比雷埃夫斯港2019年9月4日成像的1景SAR影像,图8(a)为与该港口成像时间最近的Google Earth历史影像,成像时间为2019年8月28日,由于获取时间不同,两幅图像中舰船目标不一致,但是岸上建筑物信息基本无变化。

    图  8  Google Earth纠正
    Figure  8.  Google Earth correction

    最终,从14万余张切片中通过自动标注筛选出3万余张切片,人工修正和Google Earth纠正后形成切片7000张,包含舰船实例10263个,从中随机选取5000张作为训练集,另外2000张作为测试集,其中,测试集被进一步划分为近岸测试集和离岸测试集。

    图9(a)展示了数据集中某幅切片的舰船标注样例,图9(b)为对应的.xml文件,该文件中包含文件名、极化方式、分辨率、切片尺寸、斜框标注等信息。以图9(b)为例,文件名为86_6_14.xml,极化方式为VV,分辨率为3 m,切片尺寸为(512, 512, 3),斜框中心点坐标为(178.58, 87.68),长边为77.73,短边为16.29,角度为0.27。

    图  9  标注示例
    Figure  9.  Annotation example

    RSDD-SAR数据集结构如图10所示,包含JPEGImages, Annotations, Imagesets, JPEGValidation 4个文件夹,其中JPEGImages文件夹中包含7000张切片,Annotations文件夹中包含7000个标注文件,Imagesets文件夹包含训练集、测试集、近岸测试集、离岸测试集等划分方式文件,JPEGValidation文件夹包含2景未剪裁的大图及标注文件。

    图  10  RSDD-SAR数据集结构
    Figure  10.  Structure of RSDD-SAR dataset
    2.3.1   角度及长宽比分布

    RSDD-SAR数据集中舰船目标角度分布图如图11(a)所示,图中横轴代表斜框角度所属区间,纵轴表示该区间范围的舰船数量,舰船目标长宽比分布图如图11(b)所示,图中横轴代表长宽比所属区间,纵轴表示该区间范围的舰船数量。通过分析该数据集舰船目标角度和长宽比分布,可得该数据集中舰船目标的角度较均匀地分布在–90°~90°,长宽比主要分布在1.5~7.5,说明该数据集具有旋转方向任意和长宽比大的特点。

    图  11  数据集舰船角度和长宽比分布图
    Figure  11.  Angle and aspect ratio distribution maps of ships in RSDD-SAR dataset
    2.3.2   尺寸分布

    COCO数据集[20]依据目标面积将目标划分为小目标、中型目标和大目标,其中小目标检测是最具挑战性的任务,检测精度在3类目标中最低。表3依据COCO数据集划分标准统计了RSDD-SAR数据集舰船尺寸类型,其中小目标占比高达81.17%,中型目标占比18.78%。

    表  3  依据COCO划分标准RSDD-SAR舰船尺寸统计
    Table  3.  Area statistics of ships in RSDD-SAR according to COCO
    目标类型数量比例
    Small (area < 322)833181.17%
    Medium (322 < area < 962)192718.78%
    Large (area > 962)50.05%
    下载: 导出CSV 
    | 显示表格

    由于COCO数据集为自然场景垂直边框标注数据集,而RSDD-SAR数据集为斜框标注数据集,且SAR图像中舰船目标面积普遍较小,导致COCO数据集的划分方式不适合RSDD-SAR数据集。因此,本文依据文献[13]划分标准统计了RSDD-SAR数据集舰船尺寸分布,结果如表4所示,其中小目标占比59.88%,中型目标占比40.04%。

    表  4  依据文献[13]划分标准RSDD-SAR舰船尺寸统计
    Table  4.  Area statistics of ships in RSDD-SAR according to Ref. [13]
    目标类型数量比例
    Small (area < 625)614659.88%
    Medium (625 ≤ area ≤ 7500)410940.04%
    Large (area > 7500)80.08%
    下载: 导出CSV 
    | 显示表格

    表3表4可得,无论是依据COCO划分标准还是文献[13]划分标准,RSDD-SAR数据集小目标占比都较高。因此,该数据集具有小目标占比高的特点,可用于验证算法小目标检测性能。

    2.3.3   典型场景示例

    图12为RSDD-SAR数据集典型场景示例,包含图12(a)港口,图12(b)密集排列,图12(c)航道,图12(d)离岸低分辨率,图12(e)离岸高分辨率等典型场景,说明该数据集具有场景丰富的特点。

    图  12  RSDD-SAR数据集典型场景
    Figure  12.  Typical scenarios in RSDD-SAR

    综合上述分析,RSDD-SAR数据集具有旋转方向任意、长宽比大、小目标占比高和场景丰富的特点。

    依据阶段数和是否使用锚框,主流的目标检测算法可以分为基于锚框的两阶段检测算法、基于锚框的单阶段检测算法和无锚框检测算法。垂直边框检测算法中,两阶段检测算法以Faster R-CNN[21]为代表,单阶段检测算法以YOLO[22-24], SSD[25], RetinaNet[26]等为代表,无锚框检测算法以CenterNet[27], FCOS[28]等为代表。斜框检测算法通常基于垂直边框检测算法,通过添加斜框参数、改进模型结构等方式实现。为了充分验证不同类型算法在RSDD-SAR数据集上的性能,以提供广泛的性能基准,本文对几种常用的两阶段、单阶段和无锚框斜框检测算法进行了实验,对比模型包括光学遥感图像两阶段斜框检测算法R-Faster R-CNN, RoI Transformer[29], Gliding Vertex[30], Oriented R-CNN[31], ReDet[32],单阶段斜框检测算法R-RetinaNet, S2ANet[33], R3Det[34],无锚框斜框检测算法R-FCOS, CFA[35],以及SAR舰船单阶段斜框检测算法DRBox-V2[36]和无锚框斜框检测算法Polar Encodings[18]

    R-Faster R-CNN基于Faster R-CNN,通过添加角度参数实现斜框检测,该算法在第1阶段利用区域生成网络(Region Proposal Network, RPN)提取水平候选框,并通过感兴趣区域池化(Region of Intersect Pooling, RoI Pooling)将RPN提取的水平候选框池化至统一尺寸,第2阶段基于水平候选框回归斜框。RoI Transformer提出RRoI Leaner (Rotated RoI Learner)和RPS-RoI-Align (Rotated Position Sensitive RoI Align)改进Faster RCNN中的RPN,该算法第1阶段利用RRoI Leaner将RPN提取的水平候选框转化为旋转候选框,然后利用RPS-RoI-Align将旋转候选框统一尺寸,以提取旋转不变特征,第2阶段基于旋转不变特征回归斜框。不同于RoI Transformer对Faster R-CNN结构的改进,Gliding Vertex提出了更好的斜框定义方式,该算法在垂直边框的基础上,通过学习垂直边框4个角点的偏移量实现斜框检测。Oriented R-CNN在RPN网络的基础上提出了中心点偏移法,通过添加2个角点偏移参数生成高质量的有向候选框。ReDet针对遥感图像中目标方向任意,导致需要更多参数、依赖旋转数据增强的问题,提出了旋转等变骨干网络(Rotation-equivariant Backbone) ReResNet和旋转不变感兴趣区域对齐方法(Rotation-invariant RoI Align, RiRoI Align),利用ReResNet提取旋转等变特征,并利用RiRoI Align实现空间和旋转方向对齐。

    两阶段斜框检测算法取得了较高的检测精度,但是由于需要提取候选框,因此检测速度较慢。单阶段斜框检测算法则无需提取候选框,在检测精度相近的情况下,可以保持较快的检测速度。R-RetinaNet基于RetinaNet,通过在回归分支添加角度参数实现斜框检测,该算法无需RPN网络,通过在特征图中每个位置设置多个锚框直接预测目标斜框。针对单阶段斜框检测算法特征不对齐问题,S2ANet基于可变性卷积提出了用于斜框检测的特征对齐方法,并通过ARF (Active Rotating Filters)编码旋转信息,提取旋转敏感特征和旋转不变特征分别用于斜框回归与分类任务。针对多级单阶段检测算法特征不对齐问题,R3Det提出了特征精炼模块,通过特征差值获取精炼的锚框并重构特征图实现特征对齐。DRBox-V2以VGG-16为骨干网络,通过在Conv3_3层和Conv4_3层特征图生成具有角度的锚框,修改斜框定义方式以提高斜框预测的准确度,并引入Focal Loss, HNM, FPN等对DRBox改进。

    由于SAR舰船目标具有旋转方向任意和长宽比大的特点,基于锚框的斜框检测算法预设的锚框尺寸通常与真实边框差别较大,导致算法计算复杂且速度较慢。无锚框斜框检测算法则无需预设锚框,直接基于特征图中的每个位置预测斜框参数,相较于基于锚框的检测算法,算法流程更加简洁,检测速度较快。R-FCOS基于FCOS,通过将垂直边框表示方法转换为斜框表示方法实现斜框检测,该算法利用真实边框中心点到斜框4条边的距离及角度参数表示斜框,将真实边框中所有点作为正样本直接预测斜框参数。针对遥感图像目标密集排列场景传统矩形框检测受限的问题,Guo等提出了凸包特征适应方法(Convex-hull Feature Adaptation, CFA),通过可变性卷积生成9个特征点,并利用Jarvis March算法生成最小凸包。针对斜框检测存在的边界不连续问题,Polar Encodings提出了Polar Encodings斜框编码方式,通过等角度间隔采样斜框边到中心点的距离作为斜框编码,摆脱了边界角度变化导致的损失不连续问题。

    本节首先将第3节提到的斜框检测算法在RSDD-SAR数据集上进行实验,对比分析不同算法性能,然后基于最优模型对RSDD-SAR数据集泛化能力进行了分析。

    实验平台为Ubuntu20.04操作系统,CPU型号为Intel Core i7-8700,GPU型号为NVIDIA GTX 1080Ti。所有光学遥感图像斜框检测对比算法都基于JDet框架[37]和MMRotate框架[38],数据增强使用概率为0.5的水平随机翻转,优化器使用SGD[39],初始学习率设为0.0025,动量设为0.9,权重衰减设为0.0001,使用L2范数梯度裁剪,最大梯度范数设为35,迭代轮次设为12,第7个和第10个迭代轮次时学习率减少10倍,前500个批次使用线性预热学习率,初始预热学习率为初始学习率的1/3,ReDet模型使用ReResNet-50骨干网络,其余模型使用预训练的ResNet系列[40]骨干网络。其中ResNet-18作为骨干网络时批次大小设为8,ReResNet-50, ResNet-50, ResNet-101作为骨干网络时批次大小设为4。SAR舰船斜框检测对比算法DRBox-V2和Polar Encodings迭代轮次设为12,实验环境和其余参数配置依据文献[36]和文献[18]配置。所有对比算法训练和测试图像尺寸统一设置为512×512,测试置信度阈值设为0.05。模型评价指标为模型参数量(Params)、每秒传输帧数(Frames Per Second, FPS)、近岸场景(Inshore)AP50、离岸场景(Offshore)AP50及所有场景AP50。其中AP50表示交并比(Intersection over Union, IoU)阈值为0.5时的平均准确率(Average Precision, AP),AP定义为

    P=NtdNdR=NtdNrAP=10P(R)dR}
    (1)

    其中,Ntd为检测正确的目标数目,Nd为所有检测到的目标数目,Nr为真实目标数目,P为精准率(Precision),R为召回率(Recall),AP为P-R曲线下的面积。

    不同算法的实验结果如表5所示,从精度指标来看,单阶段斜框检测算法S2ANet取得了最优检测精度;从速度指标来看,无锚框算法最快,单阶段算法次之,两阶段算法最慢,其中无锚框算法CFA在保持了较高的检测精度的前提下,检测速度最快;从模型参数量来看,同一模型检测精度随模型参数量的增加而提高,其中S2ANet-ResNet-101取得了最优的检测精度;SAR舰船斜框检测算法DRBox-V2和Polar Encodings检测精度较高,但距最优模型仍有一定差距;所有算法在近岸场景检测精度都远低于离岸场景检测精度,符合近岸场景干扰较多的实际情况,说明近岸场景舰船检测仍具有挑战性。

    表  5  不同算法实验结果
    Table  5.  Experimental results of different algorithms
    模型骨干网络Params (M)FPSInshore AP50(%)Offshore AP50(%)AP50(%)
    两阶段R-Faster R-CNNResNet-10160.4513.2850.9991.4784.10
    ResNet-5041.4115.8748.7890.9383.29
    ResNet-1828.3022.3643.1888.5780.30
    RoI TransformerResNet-10174.378.1064.4094.8589.48
    ResNet-5055.3211.9360.8394.3588.39
    ResNet-1842.2113.7156.5193.3086.60
    Gliding VertexResNet-10160.4513.3262.2493.5088.16
    ResNet-5041.4116.8255.9391.6585.55
    ResNet-1828.2922.3351.4891.4984.63
    Oriented R-CNNResNet-10160.3421.9066.7790.2888.85
    ResNet-5041.3526.6065.9290.2188.84
    ResNet-1828.2834.3061.8290.0587.50
    ReDetReResNet-5031.5715.9061.9490.3488.40
    单阶段R-RetinaNetResNet-10151.4915.3335.7574.9267.89
    ResNet-5032.4422.3133.2074.0666.66
    ResNet-1819.3834.1530.1072.7465.09
    S2ANetResNet-10155.5015.7466.4394.9490.06
    ResNet-5036.4523.4663.2793.1487.91
    ResNet-1819.8532.0659.6192.5086.88
    R3DetResNet-10160.8024.1057.7390.0980.92
    ResNet-5041.8129.3056.8790.1680.87
    ResNet-1825.2537.6054.9289.6980.44
    DRBox-V2VGG1615.9128.2857.7991.2885.63
    无锚框R-FCOSResNet-10151.2118.8556.1793.7987.31
    ResNet-5032.1731.3950.0293.0985.48
    ResNet-1819.1142.0149.4892.3384.78
    CFAResNet-10155.8225.8067.3590.3389.46
    ResNet-5036.8336.6066.4090.4789.31
    ResNet-1820.2752.2067.3590.2788.97
    Polar EncodingResNet-10171.8316.7162.0289.9987.88
    ResNet-5052.8317.5659.6990.1287.31
    ResNet-1813.3627.4858.0589.3185.28
    下载: 导出CSV 
    | 显示表格

    图13为不同算法在RSDD-SAR典型场景的测试结果,其中,第1行为港口场景,第2行为密集排列场景,第3行为航道场景,第4行为离岸低分辨率场景,第5行为离岸高分辨率场景,从图中可得,不同算法在离岸高分辨率、离岸低分辨率、航道场景检测结果较好,但对小目标存在一定漏检,在近岸港口、密集排列场景存在较多漏检、误检。

    图  13  不同算法检测结果((a) 标注;(b) R-Faster R-CNN-ResNet-101检测结果;(c) RoI Transformer-ResNet-101检测结果;(d) Gliding Vertex-ResNet-101检测结果;(e) Oriented R-CNN-ResNet-101检测结果;(f) R-RetinaNet-ResNet-101检测结果;(g) S2ANet-ResNet-101检测结果;(h) R3Det-ResNet-101检测结果;(i) Redet-ReResNet-50检测结果;(j) DRBox-V2检测结果;(k) R-FCOS-ResNet-101检测结果;(l) CAF-ResNet-101检测结果;(m) Polar Encoding-ResNet-101检测结果)
    Figure  13.  Detection results of different methods ((a) Annotations; (b) Detection results of R-Faster R-CNN-ResNet-101; (c) Detection results of RoI Transformer-ResNet-101; (d) Detection results of Gliding Vertex-ResNet-101; (e) Detection results of Oriented R-CNN-ResNet-101; (f) Detection results of R-RetinaNet-ResNet-101; (g) Detection results of S2ANet-ResNet-101; (h) Detection results of R3Det-ResNet-101; (i) Detection results of Redet-ReResNet-50; (j) Detection results of DRBox-V2; (k) Detection results of R-FCOS-ResNet-101; (l) Detection results of CAF-ResNet-101; (m) Detection results of Polar Encoding-ResNet-101)

    为分析RSDD-SAR数据集训练模型的泛化能力,本文设置3组实验:(1)以SSDD数据集为测试集,分析RSDD-SAR数据集训练模型的泛化能力;(2)以HRSID数据集为测试集,对比分析RSDD-SAR和SSDD数据集训练模型的泛化能力;(3)对比分析RSDD-SAR和SSDD数据集训练模型在未剪裁大图上的泛化能力。

    4.3.1   基于SSDD数据集泛化能力测试与分析

    为分析RSDD-SAR数据集训练模型的泛化能力,本文使用RSDD-SAR数据集训练得到的最优模型S2ANet-ResNet-101对SSDD数据集全部1160张切片进行了测试,AP50指标为60.87%,证明RSDD-SAR数据集训练模型具有一定的泛化能力。图14展示了SSDD数据集检测结果,其中图14(a)为离岸场景正确检测结果,图14(b)为近岸场景正确检测结果,图14(c)为错误检测结果,第1行为真实结果(红色框),第2行为检测结果(绿色框),蓝色框表示漏检舰船目标,黄色框表示误检舰船目标。从图中可得,RSDD-SAR数据集训练模型可较准确地检测近岸和离岸场景不同分辨率的舰船目标,但由于不同数据集之间场景差异大,岸上干扰多,近岸场景存在较多的漏检和误检,离岸场景下对小尺寸目标有一定的漏检。

    图  14  SSDD数据集测试结果
    Figure  14.  Testing results on SSDD
    4.3.2   基于HRSID数据集泛化能力测试与对比分析

    为进一步分析RSDD-SAR数据集训练模型的泛化能力,本文分别基于RSDD-SAR和SSDD数据集训练最优模型S2ANet,并以HRSID数据集作为测试集,对比分析RSDD-SAR和SSDD数据集训练模型的泛化能力。

    由于SSDD数据量较少,为保证模型收敛,迭代轮次设置为80,训练和测试图像尺寸统一设为512×512,其余参数配置不变。S2ANet基于SSDD数据集训练的AP50曲线如图15(b)所示,模型在第75个迭代轮次左右收敛,其中,S2ANet-ResNet-50的AP50指标最高。S2ANet基于RSDD-SAR数据集训练的AP50曲线如图15(a)所示,模型在第8个迭代轮次左右收敛,其中,S2ANet-ResNet-101的AP50指标最高。从图中可得,由于SSDD数据量过少,导致模型收敛较慢,需要更多的训练轮次,且中型模型即可取得较高的检测精度,参数量过大时精度甚至出现负增长,而RSDD-SAR数据集由于数据量更大、场景更丰富,因此模型收敛速度较快,模型精度随参数量增长而提高,可对大模型提供更好的支持。

    图  15  S2ANet AP50曲线
    Figure  15.  AP50 curves of S2ANet

    由于HRSID为垂直边框检测和语义分割数据集,未提供斜框标注,本文通过生成最小包围矩形的方式将HRSID数据集的语义分割标注转换为斜框标注(可在以下网址下载:https://github.com/makabakasu/RSDD-SAR-OPEN/),以HRSID全部5604张切片作为测试数据,分辨率分别设为512×512和800×800进行测试,结果如表6所示。从表中可得,RSDD-SAR数据集训练模型泛化能力远高于SSDD数据集训练模型的泛化能力。

    表  6  泛化能力测试
    Table  6.  Generalization ability testing results
    模型训练集验证集验证集AP50(%)测试集512×512
    AP50(%)
    测试集800×800
    AP50(%)
    S2ANet-ResNet-101RSDD-SAR训练集RSDD-SAR测试集90.0657.47(–32.59)63.04(–27.02)
    SSDD训练集SSDD测试集90.5236.24(–54.28)47.87(–42.65)
    S2ANet-ResNet-50RSDD-SAR训练集RSDD-SAR测试集87.9156.04(–31.87)63.15(–24.76)
    SSDD训练集SSDD测试集92.7341.81(–50.92)51.83(–40.90)
    S2ANet-ResNet-18RSDD-SAR训练集RSDD-SAR测试集86.8855.73(–31.15)62.04(–24.84)
    SSDD训练集SSDD测试集90.3034.52(–55.78)48.89(–41.41)
    下载: 导出CSV 
    | 显示表格
    4.3.3   基于未剪裁大图泛化能力测试与对比分析

    为测试算法在未剪裁大图上的性能,本文利用RSDD-SAR和SSDD数据集训练最优算法S2ANet-ResNet-101在RSDD-SAR数据集2景未剪裁大图上进行了测试,测试结果如表7所示,其中,RSDD-SAR数据集训练模型在未剪裁大图上的AP50远高于SSDD数据集训练模型。

    表  7  未剪裁大图测试结果
    Table  7.  Results on uncropped images
    模型训练集验证集验证集AP50(%)未剪裁大图AP50(%)
    S2ANet-ResNet-101RSDD-SAR训练集RSDD-SAR测试集90.0665.97(–24.09)
    SSDD训练集SSDD测试集90.5251.04(–39.48)
    下载: 导出CSV 
    | 显示表格

    图16为高分3号未剪裁大图上的测试结果,其中图16(a)为高分3号未剪裁大图标注,图16(b)为RSDD-SAR数据集训练模型测试结果,图16(c)为SSDD数据集训练模型测试结果。从图中可得,RSDD-SAR和SSDD数据集训练模型在离岸简单场景检测结果均较好,SSDD数据集训练模型在离岸岛屿场景存在较多误检,RSDD-SAR和SSDD数据集训练模型在近岸复杂场景均存在较多的漏检和误检。

    图  16  未剪裁大图测试
    Figure  16.  Testing on uncropped images

    通过在其他数据集和未剪裁大图上测试与分析数据集泛化能力可得:RSDD-SAR数据集训练模型较SSDD数据集训练模型具有更强的泛化能力,但由于场景、分辨率、获取方式等存在差异,测试精度较验证精度均大幅下降,说明SAR舰船斜框检测模型的泛化能力距实际应用仍有较大差距,是值得研究的课题。

    针对目前SAR舰船斜框检测数据较少,难以满足算法发展和实际应用需求的问题,本文公开了SAR舰船斜框检测数据集RSDD-SAR,该数据集包含7000张切片及2景未剪裁大图,具有旋转方向任意、长宽比大、小目标占比高和场景丰富的特点。同时,本文对几种常用的光学遥感图像斜框检测算法和SAR舰船斜框检测算法进行了对比实验,实验结果为RSDD-SAR数据集构建了性能基准,可供相关学者参考,其中单阶段算法S2ANet检测精度最高,无锚框算法CFA检测速度最快,但所有对比算法近岸场景性能均远低于离岸场景,说明近岸场景舰船斜框检测仍具挑战性。另外,本文在其他数据集和未剪裁大图上测试与分析了RSDD-SAR数据集训练模型的泛化能力,结果表明该数据集训练模型具有较好的泛化能力,但测试精度较验证精度仍有大幅下降,说明SAR船舶斜框检测算法泛化能力距实际应用仍有较大差距。

    SAR舰船斜框检测数据集(RSDD-SAR)依托《雷达学报》官方网站发布,现已上传至学报网站“数据”版块“SAR样本数据集”,网址为:https://radars.ac.cn/web/data/getData?dataType=SDD-SAR,如附图1所示。

    1  RSDD-SAR数据集发布地址
    1.  Release address of RSDD-SAR dataset

    RSDD-SAR数据集依托国家自然科学基金、中国科协青年人才托举工程基金(特殊领域)和山东省泰山学者人才工程支持,构建了一套包含多种成像模式、多种极化方式、多种分辨率的SAR舰船斜框检测数据集,旨在进一步推动SAR目标检测等先进技术的深入研究。该数据集所有权归海军航空大学所有,《雷达学报》编辑部具有编辑出版权。

    1  RSDD-SAR数据集详细信息
    1.  RSDD-SAR dataset information in detail
    景号传感器经度纬度时间成像模式分辨率(m)极化方式产品级别入射角(°)成像幅宽(km)编号
    1GF-3E121.0N37.920171017FSII10HH,HVL1A19~501000-1
    2GF-3E119.3N37.220210809UFS3DHL1A20~50302
    3GF-3E121.3N37.520180901FSI5HH,HVL1A19~50503-4
    4GF-3E120.5N37.920210228FSI5VH,VVL1A19~50505-6
    5GF-3E121.0N35.820210228FSI5VH,VVL1A19~50507-8
    6GF-3E119.1N38.220210619FSI5DVL1A19~50509
    7GF-3E120.5N37.820210526SS25HH,HVL1A17~5013010-11
    8GF-3E120.5N35.620210716SS25HH,HVL1A17~5013012-13
    9GF-3E122.9N37.520191231UFS3DHL1A20~503014
    10GF-3E119.8N35.020210228UFS3DHL1A20~503015
    11GF-3E119.8N35.320210228UFS3DHL1A20~503016
    12GF-3E120.4N37.920210228UFS3DHL1A20~503017
    13GF-3E120.9N37.920210718FSII10HH,HVL1A19~5010018-19
    14GF-3E120.3N36.020210305FSI5VH,VVL1A19~505020-21
    15GF-3E121.6N37.620210802FSI5HH,HVL1A19~505022-23
    16GF-3E122.5N37.520210130SS25VH,VVL1A17~5013024-25
    17GF-3E120.3N35.620210504SS25VH,VVL1A17~5013026-27
    18GF-3E120.6N36.220210519SS25HH,HVL1A17~5013028-29
    19GF-3E121.0N36.020210612SS25VH,VVL1A17~5013030-31
    20GF-3E121.5N38.220210612SS25VH,VVL1A17~5013032-33
    21GF-3E120.1N36.020210723SS25HH,HVL1A17~5013034-35
    22GF-3E120.6N38.120210723SS25HH,HVL1A17~5013036-37
    23GF-3E119.8N35.020210130UFS3DHL1A20~503038
    24GF-3E119.8N35.320210130UFS3DHL1A20~503039
    25GF-3E119.9N35.620210130UFS3DHL1A20~503040
    26GF-3E120.4N37.920210130UFS3DHL1A20~503041
    27GF-3E121.6N37.620210427UFS3DHL1A20~503042
    28GF-3E118.8N38.120210521UFS3DHL1A20~503043
    29GF-3E122.1N37.520210101FSI5VH,VVL1A19~505044-45
    30GF-3E121.1N35.820210113FSI5VH,VVL1A19~505046-47
    31GF-3E120.9N36.120210125FSI5VH,VVL1A19~505048-49
    32GF-3E120.3N38.220210204FSI5VH,VVL1A19~505050-51
    33GF-3E120.7N36.120210329SS25VH,VVL1A17~5013052-53
    34GF-3E119.6N37.920210417SS25VH,VVL1A17~5013054-55
    35TerraSAR-XE056N2720080311SL2HHSSC20~551056
    36TerraSAR-XE100N1320111209SM3HHMGD20~4530×5057
    37TerraSAR-XE013S0820190730SM3HHEEC20~4530×5058
    38TerraSAR-XW090N2920100516SM3HHEEC20~4530×5059
    39TerraSAR-XW090N2920120829SM3HHEEC20~4530×5060
    40TerraSAR-XW090N2920170807SM3HHSSC20~4530×5061
    41TerraSAR-XE023N3720180416SM3HHSSC20~4530×5062
    42TerraSAR-XE023N3720160830SM3HHSSC20~4530×5063
    43TerraSAR-XE023N3720170305SM3HHSSC20~4530×5064
    44TerraSAR-XE023N3720170623SM3HHSSC20~4530×5065
    45TerraSAR-XE023N3720170828SM3HHSSC20~4530×5066
    46TerraSAR-XE023N3720171022SM3HHSSC20~4530×5067
    47TerraSAR-XE023N3720171205SM3HHSSC20~4530×5068
    48TerraSAR-XE023N3720180209SM3HHSSC20~4530×5069
    49TerraSAR-XE023N3720180621SM3HHSSC20~4530×5070
    50TerraSAR-XE023N3720180815SM3HHSSC20~4530×5071
    51TerraSAR-XE023N3720181020SM3HHSSC20~4530×5072
    52TerraSAR-XE023N3720190127SM3HHSSC20~4530×5073
    53TerraSAR-XE023N3720190323SM3HHSSC20~4530×5074
    54TerraSAR-XE023N3720190619SM3HHSSC20~4530×5075
    55TerraSAR-XE023N3720190904SM3HHSSC20~4530×5076
    56TerraSAR-XE023N3720160614SM3HHSSC20~4530×5077
    57TerraSAR-XE121N3120151016SM3VVSSC20~4530×5078
    58TerraSAR-XE121N3120160614SM3VVSSC20~4530×5079
    59TerraSAR-XE121N3120160717SM3VVSSC20~4530×5080
    60TerraSAR-XE121N3120160819SM3VVSSC20~4530×5081
    61TerraSAR-XE121N3120151118SM3VVSSC20~4530×5082
    62TerraSAR-XE121N3120151210SM3VVSSC20~4530×5083
    63TerraSAR-XE121N3120160101SM3VVSSC20~4530×5084
    64TerraSAR-XE121N3120160203SM3VVSSC20~4530×5085
    65TerraSAR-XE121N3120160409SM3VVSSC20~4530×5086
    66TerraSAR-XE121N3120160512SM3VVSSC20~4530×5087
    67TerraSAR-XE119N3720151220SM3HHSSC20~4530×5088
    68TerraSAR-XE023N3720120305SM3HHSSC20~4530×5089
    69TerraSAR-XE023N3720120601SM3HHSSC20~4530×5090
    70TerraSAR-XE023N3720120908SM3HHSSC20~4530×5091
    71TerraSAR-XE023N3720121205SM3HHSSC20~4530×5092
    72TerraSAR-XE023N3720130314SM3HHSSC20~4530×5093
    73TerraSAR-XE023N3720151129SM3HHSSC20~4530×5094
    74TerraSAR-XE023N3720160225SM3HHSSC20~4530×5095
    75TerraSAR-XE023N3720160420SM3HHSSC20~4530×5096
    76GF-3E119.3N35.020200619FSII10HH,HVL1A19~5010097-98
    77GF-3E120.1N38.020200619FSII10HH,HVL1A19~5010099-100
    78GF-3E118.4N38.020200711FSII10HH,HVL1A19~50100101-102
    79GF-3E118.0N38.120200718FSII10HH,HVL1A19~50100103-104
    80GF-3E118.8N38.520200730FSII10HH,HVL1A19~50100105-106
    81GF-3E119.5N34.920200730FSII10HH,HVL1A19~50100107-108
    82GF-3E118.9N37.920200804FSII10HH,HVL1A19~50100109-110
    83GF-3E117.9N38.620200809FSII10HH,HVL1A19~50100111-112
    84GF-3E118.5N38.220200809FSII10HH,HVL1A19~50100113-114
    85GF-3E120.2N35.020201001FSII10VH,VVL1A19~50100115-116
    86GF-3E120.5N36.020201001FSII10VH,VVL1A19~50100117-118
    87GF-3E121.0N38.020201001FSII10VH,VVL1A19~50100119-120
    88GF-3E119.7N35.420200804FSI5HH,HVL1A19~5050121-122
    89GF-3E119.8N35.020200804FSI5HH,HVL1A19~5050123-124
    90GF-3E120.8N38.420201128FSI5VH,VVL1A19~5050125-126
    91GF-3E120.9N37.920201128FSI5VH,VVL1A19~5050127-128
    92GF-3E121.3N36.020201128FSI5VH,VVL1A19~5050129-130
    93GF-3E118.1N38.220200525FSI5HH,HVL1A19~5050131-132
    94GF-3E120.2N35.720200602SS25VH,VVL1A17~50130133-134
    95GF-3E119.5N35.720200711FSII10VH,VVL1A19~50100135-136
    96GF-3E118.8N38.320200728FSII10HH,HVL1A19~50100137-138
    97GF-3E119.6N35.320200728FSII10HH,HVL1A19~50100139-140
    98GF-3E120.2N35.420200519SS25VH,VVL1A17~50130141-142
    99GF-3E119.9N37.720200521SS25VH,VVL1A17~50130143-144
    100GF-3E120.2N35.820200521SS25VH,VVL1A17~50130145-146
    101GF-3E120.4N34.920200521SS25VH,VVL1A17~50130147-148
    102GF-3E121.0N35.820200502FSII10VH,VVL1A19~50100149-150
    103GF-3E120.5N35.920200509FSII10VH,VVL1A19~50100151-152
    104GF-3E120.0N38.520200514FSII10VH,VVL1A19~50100153-154
    105GF-3E120.0N38.320200729FSII10HH,HVL1A19~50100155-156
    106GF-3E120.6N36.020201006FSII10VH,VVL1A19~50100157-158
    107GF-3E122.8N37.220200924QPSI8HH,HV,VH,VVL1A20~4130159-162
    108GF-3E120.0N35.420201030QPSI8HH,HV,VH,VVL1A20~4130163-166
    109GF-3E119.1N37.420200814UFS3DHL1A20~5030167
    110GF-3E119.2N38.020200814UFS3DHL1A20~5030168
    111GF-3E120.1N37.820200926UFS3DHL1A20~5030169
    112GF-3E120.5N36.020200926UFS3DHL1A20~5030170
    113GF-3E121.3N37.720201121UFS3DHL1A20~5030171
    114GF-3E121.6N36.620201121UFS3DHL1A20~5030172
    115GF-3E120.0N38.520201104FSII10VH,VVL1A19~50100173-174
    116GF-3E121.1N35.820201126FSI5VH,VVL1A19~5050175-176
    117GF-3E121.5N37.720201126FSI5VH,VVL1A19~5050177-178
    118GF-3E121.4N38.120200519SS25VH,VVL1A17~50130179-180
    119GF-3E120.9N35.420200531SS25VH,VVL1A17~50130181-182
    120GF-3E119.8N37.920200619SS25VH,VVL1A17~50130183-184
    121GF-3E120.4N35.120200619SS25VH,VVL1A17~50130185-186
    122GF-3E120.3N34.820200704SS25VH,VVL1A17~50130187-188
    123GF-3E120.5N35.820200704SS25VH,VVL1A17~50130189-190
    124GF-3E121.9N37.720201011UFS3DHL1A20~5030191
    125GF-3E118.0N38.320201111UFS3DHL1A20~5030192
    126GF-3E119.8N35.220210619FSI5DVL1A19~5050GF3
    127TerraSAR-XE119N3720151128SM3HHSSC20~4530×50Terra
    下载: 导出CSV 
    | 显示表格
  • 图  1  不同标注方式比较

    Figure  1.  Comparison of different annotation methods

    图  2  舰船目标航向和长宽比信息

    Figure  2.  The course and aspect ratio information of ship target

    图  3  斜框定义方式

    Figure  3.  Rotated bounding box definition method

    图  4  标注流程图

    Figure  4.  Annotation procedure

    图  5  数据预处理流程

    Figure  5.  Data preprocessing procedure

    图  6  数据切片方式

    Figure  6.  Data cutting method

    图  7  人工修正示例

    Figure  7.  Manual modification examples

    图  8  Google Earth纠正

    Figure  8.  Google Earth correction

    图  9  标注示例

    Figure  9.  Annotation example

    图  10  RSDD-SAR数据集结构

    Figure  10.  Structure of RSDD-SAR dataset

    图  11  数据集舰船角度和长宽比分布图

    Figure  11.  Angle and aspect ratio distribution maps of ships in RSDD-SAR dataset

    图  12  RSDD-SAR数据集典型场景

    Figure  12.  Typical scenarios in RSDD-SAR

    图  13  不同算法检测结果((a) 标注;(b) R-Faster R-CNN-ResNet-101检测结果;(c) RoI Transformer-ResNet-101检测结果;(d) Gliding Vertex-ResNet-101检测结果;(e) Oriented R-CNN-ResNet-101检测结果;(f) R-RetinaNet-ResNet-101检测结果;(g) S2ANet-ResNet-101检测结果;(h) R3Det-ResNet-101检测结果;(i) Redet-ReResNet-50检测结果;(j) DRBox-V2检测结果;(k) R-FCOS-ResNet-101检测结果;(l) CAF-ResNet-101检测结果;(m) Polar Encoding-ResNet-101检测结果)

    Figure  13.  Detection results of different methods ((a) Annotations; (b) Detection results of R-Faster R-CNN-ResNet-101; (c) Detection results of RoI Transformer-ResNet-101; (d) Detection results of Gliding Vertex-ResNet-101; (e) Detection results of Oriented R-CNN-ResNet-101; (f) Detection results of R-RetinaNet-ResNet-101; (g) Detection results of S2ANet-ResNet-101; (h) Detection results of R3Det-ResNet-101; (i) Detection results of Redet-ReResNet-50; (j) Detection results of DRBox-V2; (k) Detection results of R-FCOS-ResNet-101; (l) Detection results of CAF-ResNet-101; (m) Detection results of Polar Encoding-ResNet-101)

    图  14  SSDD数据集测试结果

    Figure  14.  Testing results on SSDD

    图  15  S2ANet AP50曲线

    Figure  15.  AP50 curves of S2ANet

    图  16  未剪裁大图测试

    Figure  16.  Testing on uncropped images

    1  RSDD-SAR数据集发布地址

    1.  Release address of RSDD-SAR dataset

    表  1  现有公开数据集详细信息

    Table  1.   Detailed information of existing public datasets

    数据集公开时间数据来源分辨率(m)图像尺寸图像数量任务
    OpenSARShip-1.0
    OpenSARShip-2.0
    2017Sentinel-12.7×22~
    3.5×22,
    20×22
    9×9~445×445
    1×1~445×445
    11346
    34528
    识别
    SSDD2017RadarSat-2
    TerraSAR-X
    Sentinel-1
    1~15190~6681160垂直边框检测
    斜框检测
    语义分割
    SAR-Ship-Dataset2019Gaofen-3
    Sentinel-1
    3~25256×25643918垂直边框检测
    AIR-SARShip-1.0
    AIR-SARShip-2.0
    2019Gaofen-31, 33000×3000
    1000×1000
    31
    300
    垂直边框检测
    FUSAR-Ship2020Gaofen-31.700×1.124~
    1.754×1.124
    512×5125243识别
    HRSID2021Sentinel-1
    TerraSAR-X
    0.5, 1.0, 3.0800×8005604垂直边框检测
    语义分割
    LS-SSDD-v1.02021Sentinel-15×2024000×1600015垂直边框检测
    SRSDD-v1.02021Gaofen-311024×1024666斜框检测
    识别
    RSDD-SAR2022Gaofen-3
    TerraSAR-X
    2~20512×5127000斜框检测
    下载: 导出CSV

    表  2  原始数据详细信息

    Table  2.   Detailed information of the raw data

    景号传感器经度纬度成像时间成像模式分辨率(m)极化方式产品级别入射角(°)成像幅宽(km)编号
    1GF-3E121.0N37.920171017FSII10HH,HVL1A19~501000-1
    下载: 导出CSV

    表  3  依据COCO划分标准RSDD-SAR舰船尺寸统计

    Table  3.   Area statistics of ships in RSDD-SAR according to COCO

    目标类型数量比例
    Small (area < 322)833181.17%
    Medium (322 < area < 962)192718.78%
    Large (area > 962)50.05%
    下载: 导出CSV

    表  4  依据文献[13]划分标准RSDD-SAR舰船尺寸统计

    Table  4.   Area statistics of ships in RSDD-SAR according to Ref. [13]

    目标类型数量比例
    Small (area < 625)614659.88%
    Medium (625 ≤ area ≤ 7500)410940.04%
    Large (area > 7500)80.08%
    下载: 导出CSV

    表  5  不同算法实验结果

    Table  5.   Experimental results of different algorithms

    模型骨干网络Params (M)FPSInshore AP50(%)Offshore AP50(%)AP50(%)
    两阶段R-Faster R-CNNResNet-10160.4513.2850.9991.4784.10
    ResNet-5041.4115.8748.7890.9383.29
    ResNet-1828.3022.3643.1888.5780.30
    RoI TransformerResNet-10174.378.1064.4094.8589.48
    ResNet-5055.3211.9360.8394.3588.39
    ResNet-1842.2113.7156.5193.3086.60
    Gliding VertexResNet-10160.4513.3262.2493.5088.16
    ResNet-5041.4116.8255.9391.6585.55
    ResNet-1828.2922.3351.4891.4984.63
    Oriented R-CNNResNet-10160.3421.9066.7790.2888.85
    ResNet-5041.3526.6065.9290.2188.84
    ResNet-1828.2834.3061.8290.0587.50
    ReDetReResNet-5031.5715.9061.9490.3488.40
    单阶段R-RetinaNetResNet-10151.4915.3335.7574.9267.89
    ResNet-5032.4422.3133.2074.0666.66
    ResNet-1819.3834.1530.1072.7465.09
    S2ANetResNet-10155.5015.7466.4394.9490.06
    ResNet-5036.4523.4663.2793.1487.91
    ResNet-1819.8532.0659.6192.5086.88
    R3DetResNet-10160.8024.1057.7390.0980.92
    ResNet-5041.8129.3056.8790.1680.87
    ResNet-1825.2537.6054.9289.6980.44
    DRBox-V2VGG1615.9128.2857.7991.2885.63
    无锚框R-FCOSResNet-10151.2118.8556.1793.7987.31
    ResNet-5032.1731.3950.0293.0985.48
    ResNet-1819.1142.0149.4892.3384.78
    CFAResNet-10155.8225.8067.3590.3389.46
    ResNet-5036.8336.6066.4090.4789.31
    ResNet-1820.2752.2067.3590.2788.97
    Polar EncodingResNet-10171.8316.7162.0289.9987.88
    ResNet-5052.8317.5659.6990.1287.31
    ResNet-1813.3627.4858.0589.3185.28
    下载: 导出CSV

    表  6  泛化能力测试

    Table  6.   Generalization ability testing results

    模型训练集验证集验证集AP50(%)测试集512×512
    AP50(%)
    测试集800×800
    AP50(%)
    S2ANet-ResNet-101RSDD-SAR训练集RSDD-SAR测试集90.0657.47(–32.59)63.04(–27.02)
    SSDD训练集SSDD测试集90.5236.24(–54.28)47.87(–42.65)
    S2ANet-ResNet-50RSDD-SAR训练集RSDD-SAR测试集87.9156.04(–31.87)63.15(–24.76)
    SSDD训练集SSDD测试集92.7341.81(–50.92)51.83(–40.90)
    S2ANet-ResNet-18RSDD-SAR训练集RSDD-SAR测试集86.8855.73(–31.15)62.04(–24.84)
    SSDD训练集SSDD测试集90.3034.52(–55.78)48.89(–41.41)
    下载: 导出CSV

    表  7  未剪裁大图测试结果

    Table  7.   Results on uncropped images

    模型训练集验证集验证集AP50(%)未剪裁大图AP50(%)
    S2ANet-ResNet-101RSDD-SAR训练集RSDD-SAR测试集90.0665.97(–24.09)
    SSDD训练集SSDD测试集90.5251.04(–39.48)
    下载: 导出CSV

    1  RSDD-SAR数据集详细信息

    1.   RSDD-SAR dataset information in detail

    景号传感器经度纬度时间成像模式分辨率(m)极化方式产品级别入射角(°)成像幅宽(km)编号
    1GF-3E121.0N37.920171017FSII10HH,HVL1A19~501000-1
    2GF-3E119.3N37.220210809UFS3DHL1A20~50302
    3GF-3E121.3N37.520180901FSI5HH,HVL1A19~50503-4
    4GF-3E120.5N37.920210228FSI5VH,VVL1A19~50505-6
    5GF-3E121.0N35.820210228FSI5VH,VVL1A19~50507-8
    6GF-3E119.1N38.220210619FSI5DVL1A19~50509
    7GF-3E120.5N37.820210526SS25HH,HVL1A17~5013010-11
    8GF-3E120.5N35.620210716SS25HH,HVL1A17~5013012-13
    9GF-3E122.9N37.520191231UFS3DHL1A20~503014
    10GF-3E119.8N35.020210228UFS3DHL1A20~503015
    11GF-3E119.8N35.320210228UFS3DHL1A20~503016
    12GF-3E120.4N37.920210228UFS3DHL1A20~503017
    13GF-3E120.9N37.920210718FSII10HH,HVL1A19~5010018-19
    14GF-3E120.3N36.020210305FSI5VH,VVL1A19~505020-21
    15GF-3E121.6N37.620210802FSI5HH,HVL1A19~505022-23
    16GF-3E122.5N37.520210130SS25VH,VVL1A17~5013024-25
    17GF-3E120.3N35.620210504SS25VH,VVL1A17~5013026-27
    18GF-3E120.6N36.220210519SS25HH,HVL1A17~5013028-29
    19GF-3E121.0N36.020210612SS25VH,VVL1A17~5013030-31
    20GF-3E121.5N38.220210612SS25VH,VVL1A17~5013032-33
    21GF-3E120.1N36.020210723SS25HH,HVL1A17~5013034-35
    22GF-3E120.6N38.120210723SS25HH,HVL1A17~5013036-37
    23GF-3E119.8N35.020210130UFS3DHL1A20~503038
    24GF-3E119.8N35.320210130UFS3DHL1A20~503039
    25GF-3E119.9N35.620210130UFS3DHL1A20~503040
    26GF-3E120.4N37.920210130UFS3DHL1A20~503041
    27GF-3E121.6N37.620210427UFS3DHL1A20~503042
    28GF-3E118.8N38.120210521UFS3DHL1A20~503043
    29GF-3E122.1N37.520210101FSI5VH,VVL1A19~505044-45
    30GF-3E121.1N35.820210113FSI5VH,VVL1A19~505046-47
    31GF-3E120.9N36.120210125FSI5VH,VVL1A19~505048-49
    32GF-3E120.3N38.220210204FSI5VH,VVL1A19~505050-51
    33GF-3E120.7N36.120210329SS25VH,VVL1A17~5013052-53
    34GF-3E119.6N37.920210417SS25VH,VVL1A17~5013054-55
    35TerraSAR-XE056N2720080311SL2HHSSC20~551056
    36TerraSAR-XE100N1320111209SM3HHMGD20~4530×5057
    37TerraSAR-XE013S0820190730SM3HHEEC20~4530×5058
    38TerraSAR-XW090N2920100516SM3HHEEC20~4530×5059
    39TerraSAR-XW090N2920120829SM3HHEEC20~4530×5060
    40TerraSAR-XW090N2920170807SM3HHSSC20~4530×5061
    41TerraSAR-XE023N3720180416SM3HHSSC20~4530×5062
    42TerraSAR-XE023N3720160830SM3HHSSC20~4530×5063
    43TerraSAR-XE023N3720170305SM3HHSSC20~4530×5064
    44TerraSAR-XE023N3720170623SM3HHSSC20~4530×5065
    45TerraSAR-XE023N3720170828SM3HHSSC20~4530×5066
    46TerraSAR-XE023N3720171022SM3HHSSC20~4530×5067
    47TerraSAR-XE023N3720171205SM3HHSSC20~4530×5068
    48TerraSAR-XE023N3720180209SM3HHSSC20~4530×5069
    49TerraSAR-XE023N3720180621SM3HHSSC20~4530×5070
    50TerraSAR-XE023N3720180815SM3HHSSC20~4530×5071
    51TerraSAR-XE023N3720181020SM3HHSSC20~4530×5072
    52TerraSAR-XE023N3720190127SM3HHSSC20~4530×5073
    53TerraSAR-XE023N3720190323SM3HHSSC20~4530×5074
    54TerraSAR-XE023N3720190619SM3HHSSC20~4530×5075
    55TerraSAR-XE023N3720190904SM3HHSSC20~4530×5076
    56TerraSAR-XE023N3720160614SM3HHSSC20~4530×5077
    57TerraSAR-XE121N3120151016SM3VVSSC20~4530×5078
    58TerraSAR-XE121N3120160614SM3VVSSC20~4530×5079
    59TerraSAR-XE121N3120160717SM3VVSSC20~4530×5080
    60TerraSAR-XE121N3120160819SM3VVSSC20~4530×5081
    61TerraSAR-XE121N3120151118SM3VVSSC20~4530×5082
    62TerraSAR-XE121N3120151210SM3VVSSC20~4530×5083
    63TerraSAR-XE121N3120160101SM3VVSSC20~4530×5084
    64TerraSAR-XE121N3120160203SM3VVSSC20~4530×5085
    65TerraSAR-XE121N3120160409SM3VVSSC20~4530×5086
    66TerraSAR-XE121N3120160512SM3VVSSC20~4530×5087
    67TerraSAR-XE119N3720151220SM3HHSSC20~4530×5088
    68TerraSAR-XE023N3720120305SM3HHSSC20~4530×5089
    69TerraSAR-XE023N3720120601SM3HHSSC20~4530×5090
    70TerraSAR-XE023N3720120908SM3HHSSC20~4530×5091
    71TerraSAR-XE023N3720121205SM3HHSSC20~4530×5092
    72TerraSAR-XE023N3720130314SM3HHSSC20~4530×5093
    73TerraSAR-XE023N3720151129SM3HHSSC20~4530×5094
    74TerraSAR-XE023N3720160225SM3HHSSC20~4530×5095
    75TerraSAR-XE023N3720160420SM3HHSSC20~4530×5096
    76GF-3E119.3N35.020200619FSII10HH,HVL1A19~5010097-98
    77GF-3E120.1N38.020200619FSII10HH,HVL1A19~5010099-100
    78GF-3E118.4N38.020200711FSII10HH,HVL1A19~50100101-102
    79GF-3E118.0N38.120200718FSII10HH,HVL1A19~50100103-104
    80GF-3E118.8N38.520200730FSII10HH,HVL1A19~50100105-106
    81GF-3E119.5N34.920200730FSII10HH,HVL1A19~50100107-108
    82GF-3E118.9N37.920200804FSII10HH,HVL1A19~50100109-110
    83GF-3E117.9N38.620200809FSII10HH,HVL1A19~50100111-112
    84GF-3E118.5N38.220200809FSII10HH,HVL1A19~50100113-114
    85GF-3E120.2N35.020201001FSII10VH,VVL1A19~50100115-116
    86GF-3E120.5N36.020201001FSII10VH,VVL1A19~50100117-118
    87GF-3E121.0N38.020201001FSII10VH,VVL1A19~50100119-120
    88GF-3E119.7N35.420200804FSI5HH,HVL1A19~5050121-122
    89GF-3E119.8N35.020200804FSI5HH,HVL1A19~5050123-124
    90GF-3E120.8N38.420201128FSI5VH,VVL1A19~5050125-126
    91GF-3E120.9N37.920201128FSI5VH,VVL1A19~5050127-128
    92GF-3E121.3N36.020201128FSI5VH,VVL1A19~5050129-130
    93GF-3E118.1N38.220200525FSI5HH,HVL1A19~5050131-132
    94GF-3E120.2N35.720200602SS25VH,VVL1A17~50130133-134
    95GF-3E119.5N35.720200711FSII10VH,VVL1A19~50100135-136
    96GF-3E118.8N38.320200728FSII10HH,HVL1A19~50100137-138
    97GF-3E119.6N35.320200728FSII10HH,HVL1A19~50100139-140
    98GF-3E120.2N35.420200519SS25VH,VVL1A17~50130141-142
    99GF-3E119.9N37.720200521SS25VH,VVL1A17~50130143-144
    100GF-3E120.2N35.820200521SS25VH,VVL1A17~50130145-146
    101GF-3E120.4N34.920200521SS25VH,VVL1A17~50130147-148
    102GF-3E121.0N35.820200502FSII10VH,VVL1A19~50100149-150
    103GF-3E120.5N35.920200509FSII10VH,VVL1A19~50100151-152
    104GF-3E120.0N38.520200514FSII10VH,VVL1A19~50100153-154
    105GF-3E120.0N38.320200729FSII10HH,HVL1A19~50100155-156
    106GF-3E120.6N36.020201006FSII10VH,VVL1A19~50100157-158
    107GF-3E122.8N37.220200924QPSI8HH,HV,VH,VVL1A20~4130159-162
    108GF-3E120.0N35.420201030QPSI8HH,HV,VH,VVL1A20~4130163-166
    109GF-3E119.1N37.420200814UFS3DHL1A20~5030167
    110GF-3E119.2N38.020200814UFS3DHL1A20~5030168
    111GF-3E120.1N37.820200926UFS3DHL1A20~5030169
    112GF-3E120.5N36.020200926UFS3DHL1A20~5030170
    113GF-3E121.3N37.720201121UFS3DHL1A20~5030171
    114GF-3E121.6N36.620201121UFS3DHL1A20~5030172
    115GF-3E120.0N38.520201104FSII10VH,VVL1A19~50100173-174
    116GF-3E121.1N35.820201126FSI5VH,VVL1A19~5050175-176
    117GF-3E121.5N37.720201126FSI5VH,VVL1A19~5050177-178
    118GF-3E121.4N38.120200519SS25VH,VVL1A17~50130179-180
    119GF-3E120.9N35.420200531SS25VH,VVL1A17~50130181-182
    120GF-3E119.8N37.920200619SS25VH,VVL1A17~50130183-184
    121GF-3E120.4N35.120200619SS25VH,VVL1A17~50130185-186
    122GF-3E120.3N34.820200704SS25VH,VVL1A17~50130187-188
    123GF-3E120.5N35.820200704SS25VH,VVL1A17~50130189-190
    124GF-3E121.9N37.720201011UFS3DHL1A20~5030191
    125GF-3E118.0N38.320201111UFS3DHL1A20~5030192
    126GF-3E119.8N35.220210619FSI5DVL1A19~5050GF3
    127TerraSAR-XE119N3720151128SM3HHSSC20~4530×50Terra
    下载: 导出CSV
  • [1] LI Jianwei, QU Changwen, and SHAO Jiaqi. Ship detection in SAR images based on an improved faster R-CNN[C]. 2017 SAR in Big Data Era: Models, Methods and Applications (BIGSARDATA), Beijing, China, 2017: 1–6.
    [2] ZHANG Xiaohan, WANG Haipeng, XU Congan, et al. A lightweight feature optimizing network for ship detection in SAR image[J]. IEEE Access, 2019, 7: 141662–141678. doi: 10.1109/ACCESS.2019.2943241
    [3] ZHANG Tianwen, ZHANG Xiaoling, SHI Jun, et al. Depthwise separable convolution neural network for high-speed SAR ship detection[J]. Remote Sensing, 2019, 11(21): 2483. doi: 10.3390/rs11212483
    [4] ZHANG Peng, TANG Jinsong, ZHONG Heping, et al. Self-trained target detection of radar and sonar images using automatic deep learning[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 4701914. doi: 10.1109/TGRS.2021.3096011
    [5] 孙显, 王智睿, 孙元睿, 等. AIR-SARShip-1.0: 高分辨率SAR舰船检测数据集[J]. 雷达学报, 2019, 8(6): 852–862. doi: 10.12000/JR19097

    SUN Xian, WANG Zhirui, SUN Yuanrui, et al. AIR-SARShip-1.0: High-resolution SAR ship detection dataset[J]. Journal of Radars, 2019, 8(6): 852–862. doi: 10.12000/JR19097
    [6] WANG Yuanyuan, WANG Chao, ZHANG Hong, et al. A SAR dataset of ship detection for deep learning under complex backgrounds[J]. Remote Sensing, 2019, 11(7): 765. doi: 10.3390/rs11070765
    [7] WEI Shunjun, ZENG Xiangfeng, QU Qizhe, et al. HRSID: A high-resolution SAR images dataset for ship detection and instance segmentation[J]. IEEE Access, 2020, 8: 120234–120254. doi: 10.1109/ACCESS.2020.3005861
    [8] ZHANG Tianwen, ZHANG Xiaoling, KE Xiao, et al. LS-SSDD-v1.0: A deep learning dataset dedicated to small ship detection from large-scale Sentinel-1 SAR images[J]. Remote Sensing, 2020, 12(18): 2997. doi: 10.3390/RS12182997
    [9] LEI Songlin, LU Dongdong, QIU Xiaolan, et al. SRSDD-v1.0: A high-resolution SAR rotation ship detection dataset[J]. Remote Sensing, 2021, 13(24): 5104. doi: 10.3390/rs13245104
    [10] HUANG Lanqing, LIU Bin, LI Boying, et al. OpenSARShip: A dataset dedicated to Sentinel-1 ship interpretation[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(1): 195–208. doi: 10.1109/JSTARS.2017.2755672
    [11] LI Boying, LIU Bin, HUANG Lanqing, et al. OpenSARShip 2.0: A large-volume dataset for deeper interpretation of ship targets in Sentinel-1 imagery[C]. 2017 SAR in Big Data Era: Models, Methods and Applications, Beijing, China, 2017: 1–5.
    [12] HOU Xiyue, AO Wei, SONG Qian, et al. FUSAR-Ship: Building a high-resolution SAR-AIS matchup dataset of Gaofen-3 for ship detection and recognition[J]. Science China Information Sciences, 2020, 63(4): 140303. doi: 10.1007/s11432-019-2772-5
    [13] ZHANG Tianwen, ZHANG Xiaoling, LI Jianwei, et al. SAR ship detection dataset (SSDD): Official release and comprehensive data analysis[J]. Remote Sensing, 2021, 13(18): 3690. doi: 10.3390/rs13183690
    [14] European Space Agency[EB/OL]. https://www.esa.int/, 2022.
    [15] ITTVIS. ENVI-Image processing and analysis software solution[EB/OL]. https://www.ittvis.com/envi/, 2022.
    [16] PIE-SAR[EB/OL]. https://www.piesat.cn/product/PIE-SAR/index.html, 2022.
    [17] EVERINGHAM M, VAN GOOL L, WILLIAMS C K I, et al. The Pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303–338. doi: 10.1007/s11263-009-0275-4
    [18] HE Yishan, GAO Feo, WANG Jun, et al. Learning polar encodings for arbitrary-oriented ship detection in SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 3846–3859. doi: 10.1109/JSTARS.2021.3068530
    [19] RoLabelImg: Label rotated rect on images for training[EB/OL].https://github.com/cgvict/roLabelImg, 2022.
    [20] LIN T Y, MAIRE M, BELONGIE S, et al. Microsoft COCO: Common objects in context[C]. The 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 740–755.
    [21] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[C]. The 28th International Conference on Neural Information Processing Systems, Montreal, Canada, 2015: 91–99.
    [22] REDMON J and FARHADI A. YOLO9000: Better, faster, stronger[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6517–6525.
    [23] REDMON J and FARHADI A. YOLOv3: An incremental improvement[EB/OL]. https://arxiv.org/abs/1804.02767, 2018.
    [24] BOCHKOVSKIY A, WANG C Y, and LIAO H Y M. YOLOv4: Optimal speed and accuracy of object detection[EB/OL]. https://arxiv.org/abs/2004.10934, 2020.
    [25] LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: Single shot MultiBox detector[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 21–37.
    [26] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]. 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 2999–3007.
    [27] ZHOU Xingyi, WANG Dequan, and KRÄHENBÜHL P. Objects as points[EB/OL]. http://arxiv.org/abs/1904.07850, 2019.
    [28] TIAN Zhi, SHEN Chunhua, CHEN Hao, et al. FCOS: Fully convolutional one-stage object detection[C]. 2019 IEEE/CVF International Conference on Computer Vision, Seoul, South Korea, 2019: 9626–9635.
    [29] DING Jian, XUE Nan, LONG Yang, et al. Learning RoI transformer for oriented object detection in aerial images[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 2844–2853.
    [30] XU Yongchao, FU Mingtao, WANG Qimeng, et al. Gliding vertex on the horizontal bounding box for multi-oriented object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(4): 1452–1459. doi: 10.1109/TPAMI.2020.2974745
    [31] XIE Xingxing, CHENG Gong, WANG Jiabao, et al. Oriented R-CNN for object detection[C]. 2021 IEEE/CVF International Conference on Computer Vision, Montreal, Canada, 2021: 3500–3509.
    [32] HAN Jiaming, DING Jian, XUE Nan, et al. ReDet: A rotation-equivariant detector for aerial object detection[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Montreal, Canada, 2021: 2785–2794.
    [33] HAN Jiaming, DING Jian, LI Jie, et al. Align deep features for oriented object detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5602511. doi: 10.1109/TGRS.2021.3062048
    [34] YANG Xue, YAN Junchi, FENG Ziming, et al. R3Det: Refined single-stage detector with feature refinement for rotating object[C]. Thirty-Fifth AAAI Conference on Artificial Intelligence, Vancouver, Canada, 2021.
    [35] GUO Zonghao, LIU Chang, ZHANG Xiaosong, et al. Beyond bounding-box: Convex-hull feature adaptation for oriented and densely packed object detection[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nashville, USA, 2021: 8788–8797.
    [36] AN Quanzhi, PAN Zongxu, LIU Lei, et al. DRBox-v2: An improved detector with rotatable boxes for target detection in SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(11): 8333–8349. doi: 10.1109/TGRS.2019.2920534
    [37] HU Shimin, LIANG Dun, YANG Guoye, et al. Jittor: A novel deep learning framework with meta-operators and unified graph execution[J]. Science China Information Sciences, 2020, 63(12): 222103. doi: 10.1007/s11432-020-3097-4
    [38] ZHOU Yue, YANG Xue, ZHANG Gefan, et al. MMRotate: A rotated object detection benchmark using PyTorch[EB/OL]. https://github.com/open-mmlab/mmrotate, 2022.
    [39] GOYAL P, DOLLÁR P, GIRSHICK R, et al. Accurate, large minibatch SGD: Training ImageNet in 1 hour[EB/OL]. https://arxiv.org/abs/1706.02677, 2018.
    [40] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
  • 期刊类型引用(14)

    1. 薛雅丽,贺怡铭,崔闪,欧阳权. 基于改进YOLOv5的SAR图像有向舰船目标检测算法. 浙江大学学报(工学版). 2025(02): 261-268 . 百度学术
    2. 陈天鹏,胡建文. 基于深度学习的遥感图像旋转目标检测研究综述. 计算机应用研究. 2024(02): 329-340 . 百度学术
    3. 赵志成,蒋攀,王福田,肖云,李成龙,汤进. 基于深度学习的SAR弱小目标检测研究进展. 计算机系统应用. 2024(06): 1-15 . 百度学术
    4. 孙珊珊,张丽娟,赵辉. 基于边缘增强与注意力机制的SAR舰船检测模型. 电光与控制. 2024(08): 92-97+110 . 百度学术
    5. 张玉宁,贾渊,陈越. 改进RTMDet的SAR舰船检测算法. 计算机工程与应用. 2024(22): 314-322 . 百度学术
    6. 陈秋,邵长高,吕建军. 基于深度学习的海上船舶遥感识别方法对比分析. 地理空间信息. 2024(12): 74-78 . 百度学术
    7. 龚峻扬,付卫红,刘乃安. SAR图像目标轮廓增强预处理模块设计. 系统工程与电子技术. 2024(12): 4010-4017 . 百度学术
    8. 薛峰涛,孙天宇,杨益民,杨健. 基于全局特征融合的SAR图像旋转舰船目标检测算法. 系统工程与电子技术. 2024(12): 4044-4053 . 百度学术
    9. 谢兆哲,程永强,吴昊,王宏强. 基于Toeplitz矩阵特征值分解的SAR图像舰船目标检测方法. 信号处理. 2023(03): 496-504 . 百度学术
    10. 袁翔,程塨,李戈,戴威,尹文昕,冯瑛超,姚西文,黄钟泠,孙显,韩军伟. 遥感影像小目标检测研究进展. 中国图象图形学报. 2023(06): 1662-1684 . 百度学术
    11. 王旭,吴艳霞,张雪,洪瑞泽,李广生. 计算机视觉下的旋转目标检测研究综述. 计算机科学. 2023(08): 79-92 . 百度学术
    12. 胥小我,张晓玲,张天文,邵子康,徐彦钦,曾天娇. 基于自适应锚框分配与IOU监督的复杂场景SAR舰船检测. 雷达学报. 2023(05): 1097-1111 . 本站查看
    13. 于飞,隋正伟,邱凤婷,龚婷婷,赵旭东,刘子浩. SAR图像智能解译样本数据集构建进展综述. 网络安全与数据治理. 2023(S1): 97-105 . 百度学术
    14. 顾丹丹,廖意,王晓冰. 雷达目标特性知识引导的智能识别技术进展与思考. 制导与引信. 2022(04): 57-64 . 百度学术

    其他类型引用(15)

  • 加载中
图(17) / 表(8)
计量
  • 文章访问数: 5911
  • HTML全文浏览量: 3806
  • PDF下载量: 630
  • 被引次数: 29
出版历程
  • 收稿日期:  2022-01-09
  • 修回日期:  2022-05-17
  • 网络出版日期:  2022-06-08
  • 刊出日期:  2022-08-28

目录

/

返回文章
返回