Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

基于邻域显著性的可见光和SAR遥感图像海面舰船协同检测方法

张强 王志豪 王学谦 李刚 黄立威 宋慧娜 宋朝晖

张强, 王志豪, 王学谦, 等. 基于邻域显著性的可见光和SAR遥感图像海面舰船协同检测方法[J]. 雷达学报(中英文), 2024, 13(4): 885–903. doi: 10.12000/JR24037
引用本文: 张强, 王志豪, 王学谦, 等. 基于邻域显著性的可见光和SAR遥感图像海面舰船协同检测方法[J]. 雷达学报(中英文), 2024, 13(4): 885–903. doi: 10.12000/JR24037
ZHANG Qiang, WANG Zhihao, WANG Xueqian, et al. Cooperative detection of ships in optical and SAR remote sensing images based on neighborhood saliency[J]. Journal of Radars, 2024, 13(4): 885–903. doi: 10.12000/JR24037
Citation: ZHANG Qiang, WANG Zhihao, WANG Xueqian, et al. Cooperative detection of ships in optical and SAR remote sensing images based on neighborhood saliency[J]. Journal of Radars, 2024, 13(4): 885–903. doi: 10.12000/JR24037

基于邻域显著性的可见光和SAR遥感图像海面舰船协同检测方法

DOI: 10.12000/JR24037
基金项目: 国家重点研发计划(2021YFA0715201),国家自然科学基金(62101303, 62341130),清华大学电子工程系自主科研计划
详细信息
    作者简介:

    张 强,硕士生,主要研究方向为遥感图像处理、目标检测

    王志豪,博士生,主要研究方向为遥感图像处理、变化检测、多源信息融合

    王学谦,博士,助理教授,博士生导师,主要研究方向为多源信息融合、遥感图像处理

    李 刚,博士,教授,博士生导师,主要研究方向为雷达信号处理、稀疏信号处理、分布式信号处理、多源信息融合

    黄立威,博士,工程师,主要研究方向为图像处理、机器学习

    宋慧娜,博士,副教授,硕士生导师,主要研究方向为深度学习模型、图像解译、InSAR数据处理

    宋朝晖,博士,教授,博士生导师,主要研究方向为电磁场与微波技术、空间信息感知与处理、空间信息网络与传输

    通讯作者:

    王学谦 wangxueqian@mail.tsinghua.edu.cn

  • 责任主编:王智睿 Corresponding Editor: WANG Zhirui
  • 中图分类号: TN957.52

Cooperative Detection of Ships in Optical and SAR Remote Sensing Images Based on Neighborhood Saliency

Funds: The National Key R&D Program of China (2021YFA0715201), The National Natural Science Foundation of China (62101303, 62341130), Autonomous Research Program of the Department of Electronic Engineering, Tsinghua University
More Information
  • 摘要: 在遥感图像舰船检测任务中,可见光图像细节和纹理信息丰富,但成像质量易受云雾干扰,合成孔径雷达(SAR)图像具有全天时和全天候的特点,但图像质量易受复杂海杂波影响。结合可见光和SAR图像优势的协同检测方法可以提高舰船目标的检测性能。针对在前后时相图像中,舰船目标在极小邻域范围内发生轻微偏移的场景,该文提出一种基于邻域显著性的可见光和SAR多源异质遥感图像舰船协同检测方法。首先,通过可见光和SAR的协同海陆分割降低陆地区域的干扰,并通过RetinaNet和YOLOv5s分别进行可见光和SAR图像的单源目标初步检测;其次,提出了基于单源检测结果对遥感图像邻域开窗进行邻域显著性目标二次检测的多源协同舰船目标检测策略,实现可见光和SAR异质图像的优势互补,减少舰船目标漏检、虚警以提升检测性能。在2022年烟台地区拍摄的可见光和SAR遥感图像数据上,该方法的检测精度AP50相比现有舰船检测方法提升了1.9%以上,验证了所提方法的有效性和先进性。

     

  • 可见光和合成孔径雷达(Synthetic Aperture Radar, SAR)是遥感领域中常见的两种数据获取手段[1,2]。可见光遥感具备高空间分辨率的优势,可以捕捉地表和海面目标的细节特征与物体纹理,且图像特征更符合人的认知、可解译性强[3]。SAR遥感技术全天候的特点使得其在恶劣天气条件可以穿透云雾的遮挡,且不受光照条件的影响[4]。舰船检测[5,6]是遥感技术的重要应用领域之一,在海运管理、安全救援、海上安防等方面具有重要应用。目前国内外的学者针对单源遥感舰船检测任务已经提出了很多检测方法,即检测方法的输入为可见光或SAR图像。

    针对SAR遥感图像舰船检测,Brusch等人[7]通过分析SAR图像中杂波像素的统计特性来计算恒虚警(Constant False Alarm Rate, CFAR)检测门限,并衍生出基于超像素杂波统计特性的CFAR[8,9]等多种目标检测算法。Zhang等人[10]提出一种YOLO-FA深度神经网络,通过引入频域注意力模块,能够自适应地处理SAR图像中的频域信息,抑制SAR图像中的海杂波,进而提高检测性能。Qin等人[11]提出一种基于自蒸馏的新型半软标签引导的SAR舰船检测网络,相比于经典的硬标签或者软标签能够更好地为近岸舰船目标提供引导知识,避免复杂的近岸场景干扰。Zhang等人[5]设计了一种基于多级辅助监督结构的舰船检测网络,能够融合舰船的多尺度特征,提高多尺度舰船检测性能。刘方坚等人[12]提出一种基于SAR图像视觉显著性的NanoDet网络,将图像划分为不同场景类别并提取目标显著性融入到网络的训练中,实现模型对差异化场景的快速检测。胥小我等人[13]针对SAR图像复杂场景中正负样本不均衡以及定位精度不佳的问题,提出A3-IOUS-Net网络模型,通过自适应锚框分配正负样本和在检测头增加交并比监督机制改善舰船定位质量,增强检测性能。

    针对可见光遥感图像舰船检测,Wang等人[14]针对云和薄雾干扰下低对比度舰船目标检测任务,将超像素分割与CFAR结合提出了SFCFAR方法,利用超像素分割增强目标与背景区域的舰船纹理特征差异来突出舰船目标。Tian等人[15]针对可见光图像中多变的背景和舰船尺度,提出一种新的检测方式,设计了基于协方差统计差异特征的视觉显著性预检测定位机制,利用多尺度和多通道特征融合提高了检测性能。Zhuang等人[16]提出一种结构化稀疏表示模型,模型中的误差矩阵不仅有效避免了正负样本的不平衡问题,而且对舰船和背景区域提供了鲁棒的类内描述。Hu等人[17]提出一种基于视觉显著性模型舰船检测框架,通过融合前景、背景两部分的显著性图来检测舰船目标。Qin等人[18]针对可见光近岸场景干扰问题,提出一种双分离注意网络,构建上下文坐标模块来关注骨干网络在进行特征抽取时的空间坐标信息、全局通道模块来关注颈部网络中的通道特征,增强了对舰船目标与近岸复杂背景的辨别能力。Ren等人[19]设计了一种基于特征融合增强结构和显著性预测分支的深度神经网络,使用显著性筛选机制挖掘更多正样本用于检测模型训练,提高模型在复杂可见光图像中的检测性能。Si等人[20]提出YOLO-RSSD网络结构,在颈部特征融合部分嵌入改进的双向特征金字塔网络结构、在卷积单元中增加通道注意力机制,增强了目标特征信息捕获能力。

    以上方法[5,720]利用单源遥感信息实现舰船目标检测,目前也提出了很多基于多源同质数据融合的检测方法,可以发挥多传感器的优势,实现检测信息增益。Bender等人[21]提出加性融合,Jia等人[22]提出乘性融合的算术逻辑融合方式,可以快速融合同质图像。Jin等人[23]提出主成分分析和小波变换的融合方式,可增强目标和抑制杂波。Fasano等人[24]提出一种基于自相关神经网络的非线性主成分分析方法,从不同散射机制中提取相关特征,增强感兴趣目标区域的特征。Wang等人[4]和Zhu等人[25]利用星载SAR大视场成像,以及机载SAR快速重访、成像视角灵活的优势,在融合多种SAR图像的过程中,根据杂波统计特性抑制背景杂波、增强舰船目标区域,提升了舰船检测性能。但上述方法依旧是利用同质数据,没有突破传感器类型的限制,检测性能仍受到图像类型自身存在的诸多制约。多源异质图像融合处理[26]能够利用不同传感器类型成像的优势,实现优势互补,为减少漏检、降低虚警和提升目标检测的稳健性提供了新的解决思路。目前,在多源异质遥感图像融合处理[3,2631]的图像增强、变化检测[1,2,3235]和地物分类[3639]等场景中,学者已经开展了大量研究,提出了很多有效的方法。但在遥感领域,配对的(近似)同时相异质遥感舰船数据相对稀缺,多源异质图像舰船目标检测研究仍较少[4042]

    近年来单星多载荷共时相成像技术的突破,为多源遥感舰船数据获取及融合舰船检测提供了技术前提。2022年,中国空间技术研究院、北京航空航天大学等单位提出了一系列光学-SAR载荷共时相成像方法,可实现多源异构一体化对海探测[43,44]。2022年,由北京微纳星空科技有限公司总体负责研制的“泰景4-01号”卫星具备单星多载荷探测能力,可实现(近似)同时相的光学、SAR对海异构观测数据获取,同一区域的光学、SAR数据获取间隔已经达到秒级。多源异质遥感图像包含了舰船目标的多维度跨域信息,基于多源异质遥感图像的信息互补,可有效增强单源检测的鲁棒性。

    图1描述了多源异质图像舰船目标检测的主要挑战。(1)可见光图像和SAR图像之间的舰船目标特征差异大,构建有效的跨域特征困难。(2)可见光图像中舰船可能被云雾遮挡,SAR图像中的船体可能存在视觉意义上的离散化现象,而且可能被强杂波干扰。(3)(近似)同时相获取的图像中,由于舰船的主动运动行为或受海况影响的被动移动行为,即使在秒级成像时间间隔内所拍摄的异质图像中,舰船目标往往存在轻微的位置偏移,导致空间失配,单源检测的结果难以直接匹配另一异质源的目标[45,46]

    图  1  多源异质舰船协同检测难点分析
    Figure  1.  Challenges of cooperative detection of multisource heterogeneous ships

    学界针对可见光和SAR异质遥感图像舰船检测已经提出了一些方法。陈俊等人[46]基于可见光遥感数据训练YOLOv3模型并在SAR数据中进行迁移学习,从而使得YOLO模型具备多源舰船检测能力;文献[46]还设计了一种基于形状和偏移距离的欧氏距离相似性度量函数,实现对可见光和SAR图像各自单源检测结果的匹配,将相似度高于决策阈值的配对结果认为是来自共时相异质数据的同一目标,并根据证据融合理论将配对目标的置信度得分进行融合,融合后置信度得分仍然较低的则被认为是虚警目标对,未能找到配对目标的检测结果则直接被复制到另一异质域检测结果中,以降低检测中的漏检。Fang等人[42]提出一种名为FusionDet的决策级融合方式。文献[42]以YOLOv5s作为单源检测网络,分别检测可见光和SAR图像中的舰船目标,通过对异质图像目标框的交并比进行阈值化处理,实现了可见光和SAR图像中目标检测框的匹配。文献[42]将相似性得分高于决策阈值的目标对视为同一目标,并取最大检测框作为可见光和SAR图像的协同检测结果,而相似性得分低于决策阈值的目标则被视为失配目标,会被复制到另一异质域检测结果中。文献[42]还基于加权证据融合理论度量配对目标的冲突程度,据此改善相似性得分高于决策阈值的多源异质域目标对置信度得分。在多源异质遥感图像中的舰船目标没有发生偏移时,上述方法[42,46]能够避免跨域的复杂特征构建过程,能够快速完成决策级融合检测,取得较好的检测性能优势。但是,这种复制检测框到另一异质域检测结果中的假设是漏检目标的空间位置不变,该假设忽略了多源异质遥感图像中同一个/同一批次舰船目标存在轻微偏移,导致难以有效检出另一异质域图像中的漏检目标,甚至会引入新的虚警。

    为解决多源遥感图像中的舰船目标发生轻微偏移时难以有效检出漏检目标甚至引入新虚警目标的问题,本文提出了一种基于邻域显著性的可见光和SAR遥感图像海面舰船决策级协同检测方法,如图2所示,主要包括海陆分割、单源舰船初步检测、多源异质遥感图像协同检测3个环节。此外,需要注意的是,在共视场可见光和SAR图像存在轻微的成像时间间隔情况下,后时相图像作为最新的成像结果(新息)具有更大的参考意义,本文中的“协同”指的是前时相的初步检测结果作为先验信息,辅助提高后时相图像的检测性能,实现前后时相异质数据的协同检测。所以,前后时相的图像类型以实际中卫星或机载平台的拍摄情况为准,本文方法并不限定异质图像的时相顺序。

    图  2  基于邻域显著性的可见光和SAR遥感图像海面舰船协同检测流程
    Figure  2.  Flowchart of cooperative detection of ships in optical and SAR remote sensing images based on neighborhood saliency

    本节介绍本文提出的基于邻域显著性的可见光和SAR遥感图像海面舰船协同检测方法。输入的可见光图像和SAR图像(已配准)分别用IOIS表示,WH分别表示图像的宽和长,其中可见光图像IO为RGB三通道图像,SAR图像IS为单通道图像。本文方法主要包括3个部分。(1)海陆分割:本文提出了一种基于OTSU[47]K-mean[48]的可见光和SAR图像协同海陆分割的方法,对IOIS进行协同分割,获得陆地掩模,得到仅有海面区域的可见光图像IOS和SAR图像ISS。(2)单源舰船初步检测:单源检测器作为目标检测的第1阶段,对剔除陆地干扰的IOSISS分别进行单源检测,获得可见光和SAR初步检测结果BOBS,检测结果包括检测框在图像中的中心坐标、长宽以及相应的置信度得分,为后续协同检测提供有效的先验信息。(3)多源异质遥感图像协同检测:多源协同作为第2检测阶段,检测可见光和SAR图像单源初步检测结果中漏检的目标。尽管可见光和SAR传感器存在短暂的成像时间间隔,导致舰船目标存在轻微偏移,但是舰船目标仍然在原始空间位置的极小邻域范围内。因此,本文提出的基于邻域显著性的可见光和SAR遥感图像海面舰船协同检测方法,会根据前时相可见光/SAR的单源检测框在后时相另一异质域图像中进行邻域开窗处理,在邻域内进行显著性目标二次检测。如果可见光图像为后时相图像,则根据前时相SAR单源检测结果BS在可见光图像中进行N(N3)倍开窗获得邻域子图,利用显著性目标检测的方法检测邻域子图中的目标并与BO合并,生成在前时相SAR单源检测结果辅助下、后时相可见光图像的协同检测结果BOC;同样的,如果SAR图像为后时相图像,则根据前时相可见光单源检测结果BO在SAR图像中进行N倍开窗获得邻域子图,利用显著性目标检测的方法检测邻域子图中的目标并与BS合并,生成在前时相可见光单源检测结果辅助下、后时相SAR图像的协同检测结果BSC,利用多源异质图像的优势补全单源检测器漏检的正确目标,提高检测性能。

    本节介绍本文提出的一种基于OTSU[47]K-means[48]相结合的多源异质遥感图像协同海陆分割方法,如图2所示。海陆分割方法可视为多源舰船检测流程的预处理环节。OTSU利用灰度直方图特征进行分割,具有计算简单、快速的优点,适用于仅具有灰度特征的SAR图像分割。K-means利用多通道图像信息比OTSU仅利用灰度直方图特征,更适合于RGB可见光图像分割。

    首先,采用OTSU算法对SAR图像IS进行分割,并将像素值大于分割阈值的最大连通区域作为二值化陆地分割结果LS,其他区域作为海面区域SS。接下来,根据上述结果确定K-means算法在可见光图像IO中陆地和海面区域的初始聚类中心点Lc, Sc

    {Lc=[l0 l1 l2],lk=1ALHh=1Ww=1IO(h,w,k),k=1,2,3,(h,w)LSSc=[s0 s1 s2],sk=1ASHh=1Ww=1IO(h,w,k),k=1,2,3,(h,w)SS (1)

    其中,(h, w)表示像素在图像中坐标,k是图像的通道维度,k为1, 2, 3时分别对应可见光图像的RGB三通道,l0, l1, l2分别是可见光图像IO中属于LS区域的RGB三通道像素值均值,s0, s1, s2分别是IO属于SS区域的RGB三通道均值,ALAS分别为相应区域的累计像素数量:

    {AL=Hh=1Ww=1I((h,w)LS)AS=HWAL (2)

    其中,I()是二元指示函数,值为0或1。

    I()={1()0() (3)

    接下来,K-means算法根据初始聚类中心点Lc, ScIO进行聚类得到初步二值化陆地分割结果LO,海面区域SO,将LSLO取并集再进行形态学处理。形态处理过程包括膨胀、孔洞填充和腐蚀,使陆地区域闭合连通、保证分割区域的完整性,最后提取最大连通区域作为二值化陆地区域LOSC

    在完成海陆分割后,将海陆分割结果LOSC作为掩模去除待检测图像的陆地区域,得到去除陆地区域的SAR图像ISS和可见光图像IOS,避免陆地区域中的复杂样本的干扰引入虚假目标。接下来,本文采用深度神经网络作为单源检测器,快速获取IOSISS图像上的单源舰船目标初步检测结果,即BO={[bO1,cO1],[bO2,cO2],,[bOn,cOn],,[bON,cON]}BS={[bS1,cS1],[bS2,cS2],,[bSm,cSm],,[bSM,cSM]}b是检测矩形框,包括在图像中的中心坐标和长、宽,c是矩形框相应的置信度得分,N表示在可见光图像单源检测结果中有N个检测框,M表示在SAR图像的单源检测结果中有M个检测框。

    本文训练和测试了RetinaNet[49]以及YOLOv5系列[50]中的YOLOv5s, YOLOv5m, YOLOv5l和YOLOv5x共5种深度神经网络模型,并在3.1节的实测数据上测试检测性能,分析适用于本文提出方法的单源检测器。RetinaNet设计的Focal损失函数,能够调节在训练过程中对简单样本和困难样本的关注程度,避免困难样本被淹没[49]。YOLOv5系列中的金字塔注意网络和数据增强能实现较佳的小目标和多尺度目标检测性能。相比两阶段检测网络模型,近些年来的诸多目标检测研究工作已经验证了,Retinanet和YOLOv5等单阶段检测网络模型在很多检测任务中性能更加稳定[5155]。本文在DOTA[56]可见光图像数据集上训练5种深度神经网络模型,并在本文的可见光实测图像上测试检测性能,同时在SRSDD-v1.0[57]SAR图像数据集上训练5种深度神经网络模型,并在本文的SAR实测图像上测试检测性能。以上单源检测器的检测性能测试结果如表1所示。实验结果表明:RetinaNet模型在可见光实测图像数据上有明显优于其他网络模型的性能,适合作为可见光单源检测器;在SAR图像实测图像数据上,其他模型相比于YOLOv5s表现出一定的性能下降,所以YOLOv5s适合作为SAR单源检测器。为保证单源检测器在实测数据中保持检测性能的相对稳定性,本文采用RetinaNet和YOLOv5s两种模型分别作为可见光和SAR图像数据的单源检测器,进行多源图像中舰船目标的快速初步检测,有效锁定局部的目标区域,辅助后续多源异质遥感图像协同检测步骤完成精细二次检测。

    表  1  单源检测器性能对比(%)
    Table  1.  Performance comparison of single-source detectors (%)
    图像类型 方法 P R F1 AP50
    可见光 RetinaNet 95.7 91.5 93.6 95.3
    YOLOv5s 81.5 75.8 78.6 77.1
    YOLOv5m 81.6 77.1 79.3 79.7
    YOLOv5l 70.6 65.9 68.2 58.6
    YOLOv5x 67.7 65.4 66.5 58.6
    SAR RetinaNet 50.2 39.6 44.3 38.5
    YOLOv5s 62.6 50.0 55.6 50.7
    YOLOv5m 60.0 38.9 47.2 48.6
    YOLOv5l 54.6 37.5 44.5 42.5
    YOLOv5x 40.1 33.3 36.4 31.4
    下载: 导出CSV 
    | 显示表格

    图3所示的可见光图像和SAR图像为单机多载荷共视场成像结果,受遥感成像平台共时相成像的微小时间间隔影响,多源遥感实测图像数据中舰船目标存在轻微偏移现象。图3的红色框为以可见光图像中的舰船目标空间位置为参考的标注结果,可知相对于可见光图像中的舰船目标,SAR图像中的目标存在轻微移动和旋转,难以实现完全的空间对齐。针对舰船目标存在轻微偏移的问题,本节介绍一种基于可见光和SAR单源初步检测结果的多源协同决策级检测方式,检测流程如图2。接下来,将详细介绍SAR图像作为前时相图像时,辅助后时相可见光图像进行显著性舰船目标检测流程,并简要介绍可见光图像作为前时相图像时,辅助后时相SAR图像进行显著性舰船目标检测流程,两种情形下的检测流程基本一致,检测流程中间结果如图4所示。

    图  3  舰船目标空间偏移示意图
    Figure  3.  Example of spatial shift of ships
    图  4  有舰船目标时的邻域子图及多源异质遥感图像协同检测处理中间结果
    Figure  4.  Neighborhood subgraphs including ships and intermediate results of cooperative detection of multisource

    获得SAR单源检测结果BS、可见光单源检测结果BO后,考虑到当前图像中的目标空间位置仅在另一共视场图像对应位置的极小邻域范围内存在偏移,本文根据SAR单源检测结果中第m个检测框[bSm,cSm]在可见光图像上进行邻域开窗,得到一幅长Hm、宽Wm的邻域子图IOm,利用最大对称环绕视觉模型[58]计算IOm的显著性图。将IOm转换到CIELAB色彩空间[58,59]生成转换后的邻域子图ILabm,并计算对应的显著性图SLabm,计算方式如下:

    SLabm(h,w)=(3z=1[ILab,μm(h,w,z)ILab,sm(h,w,z)]2)12 (4)

    其中,z为1, 2, 3时分别是CIELAB域中明度、红色度、蓝色度通道,ILab,sm是邻域子图ILabm经过高斯滤波平滑后的图像、ILab,μm是邻域子图ILabm经过最大环绕子图均值滤波后的图像,最大环绕子图均值滤波的计算方式如图5所示。图5所示蓝色虚线矩形子图是蓝色实心像素点的最大环绕子图,边界为图像边界,子图宽、长分别为蓝色实心像素点距图像垂直、水平边界最小值,目标像素点的代表值即为最大环绕子图的均值。绿色实心目标像素点代表值计算方式与蓝色实心像素点相同。ILab,μm(h,w,z)计算如下:

    图  5  最大对称环绕视觉示意图
    Figure  5.  Schematic diagram of maximum symmetrical surround
    ILab,μm(h,w,z)=1Aoh+hoi=hhow+woj=wwoILabm(i,j,z) (5)

    目标像素点到边界的最小长度ho、宽度wo和最大环绕子图面积Ao计算如下:

    ho=min (6)

    结合图5可知,相比于全局均值滤波处理,式(5)中的最大环绕子图均值滤波操作的特点在于,对邻域子图从图像边缘到图像中心区域的平滑能力逐渐增强。由于在SAR目标检测框的指导下,经过在可见光图像中的 \mathcal{N} 倍邻域开窗处理,可见光邻域子图中的舰船目标通常处于子图的中心区域附近(由于可见光/SAR图像中目标的轻微偏移,目标不一定严格位于子图中心)。对邻域子图中心区域进行增强型平滑处理,使得经过式(4)处理得到的显著性图中,可以更好地凸显邻域子图中心区域附近的舰船目标。根据式(4)—式(6)可以计算得到邻域子图 {\boldsymbol{I}}_m^{\rm O} 相对应的显著性图 {\boldsymbol{S}}_m^{{\mathrm{Lab}}} ,可看出前景舰船目标区域的显著性值高于背景海面区域,且前景、背景差异较为明显。高对比度的显著性图有利于后续检出前景目标区域。

    得到邻域子图的显著性图 {\boldsymbol{S}}_m^{{\mathrm{Lab}}} 后,需要提取前景舰船目标区域,由于前景和背景区域的显著性存在明显差异,适合用OTSU算法实现对显著性图 {\boldsymbol{S}}_m^{{\mathrm{Lab}}} 的分割,进而得到前景目标区域:

    {T_m} = \{ t_{m,1}^{},t_{m,2}^{}, \cdots ,t_{m,i}^{}, \cdots \} = {\text{OTSU}}({\boldsymbol{S}}_m^{{\mathrm{Lab}}}) (7)

    其中, {T_m} 表示当前邻域子图中分割得到的舰船目标区域集合, {t_{m,i}} 表示分割得到的第i个舰船目标区域。在 {T_m} 中易存在异常的大连通区域杂波和小的区块噪声干扰。本文通过面积属性剔除以上异常区域。 {t_{m,i}} 所占目标面积为

    {A_{{t_{m,i}}}} = \displaystyle\sum\limits_{h = 1}^{{H_m}} {\displaystyle\sum\limits_{w = 1}^{{W_m}} {{\mathcal{I}^{((h,w) \in {t_{m,i}})}}} }

    {A_{{t_{m,i}}}} < {\alpha _1}{H_m}{W_m} {A_{{t_{m,i}}}} > {\alpha _2}{H_m}{W_m} 时,则认为 {t_{m,i}} 是应予以剔除的异常区域, {\alpha _1} >0为区块噪声滤除比例因子, {\alpha _2} >0为异常的大连通区域杂波滤除比例因子。

    在完成显著性舰船目标提取之后,需要度量提取到的目标区域置信度。根据前时相单源检测结果目标框的置信度得分 c_m^{\rm S} 和前景目标区域的相对显著性,本文新构建了一种衡量前景舰船目标区域置信度的方式:

    {c_{{t_{m,i}}}} = \exp \left( - \frac{\beta }{{c_m^{\rm S}}}{\left(\frac{1}{{{x_{{t_{m,i}}}}}}\right)^2}\right) (8)

    其中, {c_{{t_{m,i}}}} 表示前景舰船目标区域 {t_{m,i}} 相应的置信度得分, \beta >0表示松弛因子,SAR单源检测结果中第m个检测框置信度 c_m^{\rm S} 得分越高,即当前输入单源检测框越可信,则 {c_{{t_{m,i}}}} 越高。 {x_{{t_{m,i}}}} 是目标区域 {t_{m,i}} 在当前邻域子图中的相对显著性:

    {x_{{t_{m,i}}}} = \frac{{{\mu _{{t_{m,i}}}}}}{{{\mu _{{\boldsymbol{S}}_m^{{\mathrm{Lab}}}}}}} (9)

    其中, {\mu _{{t_{m,i}}}} 是在显著性图 {\boldsymbol{S}}_m^{{\mathrm{Lab}}} 中舰船目标区域 {t_{m,i}} 的平均显著性值, {\mu _{{\boldsymbol{S}}_m^{{\mathrm{Lab}}}}} {\boldsymbol{S}}_m^{{\mathrm{Lab}}} 的平均显著性值,计算方式如下:

    {\mu _{{t_{m,i}}}} = \frac{1}{{{A_{{t_{m,i}}}}}}\sum\limits_{h = 1}^{{H_m}} {\sum\limits_{w = 1}^{{W_m}} {{\boldsymbol{S}}_m^{{\mathrm{Lab}}}(h,w){\mathcal{I}^{((h,w) \in {\text{ }}{t_{m,i}})}}} } (10)
    {\mu _{{\boldsymbol{S}}_m^{{\mathrm{Lab}}}}}{\text{ = }}\frac{1}{{{H_m}{W_m}}}\sum\limits_{h = 1}^{{H_m}} {\sum\limits_{w = 1}^{{W_m}} {{\boldsymbol{S}}_m^{{\mathrm{Lab}}}(h,w)} } (11)

    相对显著性值 {x_{{t_{m,i}}}} 越大,说明前景舰船目标区域和背景差别越大,是舰船目标的可能性越高,则 {c_{{t_{m,i}}}} 置信度得分越高。 {c_{{t_{m,i}}}} 综合衡量了当前单源初步检测结果框的置信度得分和对应的异质图像邻域子图中前景舰船目标区域的相对显著性。在得到舰船目标区域的 {t_{m,i}} 的置信度 {c_{{t_{m,i}}}} 后,计算其相应最大外接矩形框 {b_{{t_{m,i}}}} ,作为此目标区域的检测结果 [{b_{{t_{m,i}}}},{c_{{t_{m,i}}}}] 。根据当前邻域子图中分割得到的舰船目标区域集合 {T_m} ,可以得到当前邻域子图中所有检出的舰船目标区域 B_m^{{\mathrm{OC}}} = \{ [{b_{{t_{m,1}}}},{c_{{t_{m,1}}}}],[{b_{{t_{m,2}}}},{c_{{t_{m,2}}}}], \cdots , [{b_{{t_{m,i}}}},{c_{{t_{m,i}}}}], \cdots ,[{b_{{t_{m,J}}}},{c_{{t_{m,J}}}}]\} ,作为后时相可见光图像邻域子图的二次检测结果。假设SAR单源检测结果中共有M个检测框,当遍历SAR单源检测结果 {B^{\rm S}} 后,获得共M组在前时相SAR单源检测结果辅助下,后时相可见光图像显著性舰船目标检测结果,与可见光单源检测结果 {B^{\rm O}} 合并为 {B^{{\mathrm{OC}}}} = \{ {B^{\rm O}}, B_1^{{\mathrm{OC}}}, B_2^{{\mathrm{OC}}}, \cdots ,B_M^{{\mathrm{OC}}}\}

    在获得可见光合并检测结果 {B^{{\mathrm{OC}}}} 后,后处理步骤去除 {B^{{\mathrm{OC}}}} 中的冗余检测框。后处理包括内部框融合和非极大值抑制(Non-Maximum Suppression, NMS)。由于邻域开窗可能导致可见光多源协同检测结果 {B^{{\mathrm{OC}}}} 中既存在单体舰船目标检测框,也可能存在单体舰船目标的多个较小局部检测框。因此,本文采用内部框融合来降低针对单体舰船目标区域的多个较小局部检测框数量。内部框融合如图6所示,当较小的蓝色检测框有超过 \delta 比例的面积处于较大的红色检测框内时,即将两个检测框合并,更新后的检测框为两个框的最大外接矩形, \delta 设置为0.8。如图6的虚线绿色框,新检测框的置信度得分为蓝色检测框和红色检测框之间的较高得分。经过内部框融合后,再进行NMS处理,去除其他冗余的检测框,达到多源协同降低可见光图像舰船目标漏检率,且减少引入虚警的目标。

    图  6  内部框融合示意图
    Figure  6.  Illustration of inner rectangle box fusion

    可见光图像作为前时相图像、辅助后时相SAR图像进行显著性舰船目标检测流程与前述流程基本一致,利用可见光单源检测结果第n个检测矩形框 [b_n^{\rm O},c_n^{\rm O}] 对SAR图像开窗获得邻域子图 {\boldsymbol{I}}_n^{\rm S} 。不同于可见光图像的三通道信息,SAR图像只有单通道信息,不需要CIELAB色彩空间转换。对 {\boldsymbol{I}}_n^{\rm S} 进行高斯滤波生成平滑图像 {\boldsymbol{I}}_n^{{\mathrm{S}},s} ,并按式(5)计算最大环绕子图均值滤波后的图像 {\boldsymbol{I}}_n^{S,\mu } ,再代入式(4)中计算显著性图 {\boldsymbol{S}}_n^{\rm S} 。接下来,根据式(7)分割 {\boldsymbol{S}}_n^{\rm S} 获得SAR邻域子图中的前景目标区域 T_n^{\rm S} 。通过面积属性剔除异常的大连通区域杂波和小的区块噪声。

    此外,受SAR图像成像机理影响和目标材质影响,SAR图像中目标的散焦[60]、各部分散射点呈现出离散性现象导致较弱的船体组件关联性[61],使得由显著性分割出的单体前景舰船目标区域易表现出视觉意义上的离散化现象,给单体舰船目标的完整检出带来困难。为此,对剔除了面积异常区域的前景舰船目标区域 T_n^{\rm S} 结果进行形态学处理,保证同一目标区域的完整性:对前景舰船目标区域进行膨胀,使表现出弱关联性的单体目标的多个散射区域连通,并进行孔洞填充保证区域完整性,最后进行腐蚀,恢复完整真实目标区域的原始尺寸。进一步地,本文还将通过图7展示形态学处理的有效性,从图7有目标的SAR邻域子图形态学处理过程可知,形态学处理有助于恢复目标原始尺寸,有利于处理离散化现象弱化检测性能问题。此外,图7中无目标的SAR邻域子图中仅有杂波区域,提取出的多个目标区域随机分布在子图中,形态学处理后,几乎整个子图被提取为目标,根据式(8)可知,其置信度很低。

    图  7  后时相SAR图像邻域子图及其显著性检测形态学处理中间结果
    Figure  7.  Neighborhood subgraphs of later temporal SAR images and their morphological processing intermediate results for saliency detection

    完成形态学处理后按照式(8)—式(11),根据可见光图像单源检测结果中第n个检测框的置信度得分 c_n^{\rm O} ,计算形态学处理后的 T_n^{\rm S} 中各目标的置信度得分 c_{{t_{n,i}}}^{\rm S} ,以及最大外接矩形框 b_{{t_{n,i}}}^{\rm S} ,并将后时相SAR图像邻域子图的二次检测结果记为 B_n^{{\mathrm{SC}}} = \{ [b_{{t_{n,1}}}^{\rm S},c_{{t_{n,1}}}^{\rm S}],[b_{{t_{n,2}}}^{\rm S},c_{{t_{n,2}}}^{\rm S}], \cdots ,[b_{{t_{n,i}}}^{\rm S},c_{{t_{n,i}}}^{\rm S}], \cdots [b_{{t_{n,J}}}^{\rm S},c_{{t_{n,J}}}^{\rm S}]\} 。假设可见光单源检测结果 {B^{\rm O}} 中有N个检测结果,遍历 {B^{\rm O}} 后,获得共N组在前时相可见光图像的单源检测结果辅助下,后时相SAR图像显著性舰船目标检测结果,与SAR单源检测结果 {B^{\rm S}} 合并为 {B^{{\mathrm{SC}}}} = \{ {B^{{\mathrm{SC}}}},B_1^{{\mathrm{SC}}},B_2^{{\mathrm{SC}}},\cdots,B_N^{{\mathrm{SC}}}\} ,再经过内部框融合和NMS后处理去除冗余检测框,达到多源协同降低SAR图像舰船目标漏检率且减少虚警引入的目标。

    为说明显著性目标二次检测能够降低无目标邻域子图的干扰、减少虚警的引入,本文还分析了在无舰船目标邻域子图下的结果,如图8所示。后时相图像邻域子图中只有内部相似性较高的海面背景区域,不存在区别于背景区域的前景目标区域。当不存在前景目标时,显著性图的对比度很低。结合式(8)和式(9)中置信度得分函数和显著性图可知,分割并保留下的的虚假目标区域相对显著性较低,相应置信度得分较低。特别地,SAR邻域子图中仅有海杂波,形态学处理后近似整个子图为目标区域,该虚假目标置信度很低。综上可知,包含舰船目标区域的邻域子图与不含舰船目标区域相比,前者显著性图中对比度差异明显,能够突出前景舰船目标并抑制背景区域,真实目标区域置信度得分较高,而后者显著性图对比度低,相对显著性较低的残留杂波区域能够被抑制,本文的显著性二次目标检测方法能够区分真实和虚假目标。

    图  8  无舰船目标时邻域子图及多源异质遥感图像协同检测处理中间结果
    Figure  8.  Neighborhood subgraphs excluding ships and intermediate results of cooperative detection of multisource heterogeneous remote sensing images

    本节介绍了邻域子图中进行显著性目标二次检测的流程,如算法1算法2所示。主要流程包括:根据前时相单源检测框对后时相异质域图像开窗获取邻域子图后,利用最大对称环绕视觉模型[58]计算邻域子图的显著性图;对显著性图进行OTSU分割获得高显著性舰船目标区域;剔除面积异常的大连通区域杂波和小的区块噪声干扰;计算目标检测矩形框与相应置信度得分;显著性目标检测结果与单源检测结果合并,获得后时相异质域协同检测结果;利用后处理去除冗余检测框。

    1  基于前时相SAR单源检测结果辅助的后时相可见光图像显著性舰船目标检测算法
    1.  Algorithm for detecting salient ships in later temporal optical images assisted by prior temporal SAR single-source detection results
     输入:SAR单源检测结果框
      {B^{\rm S}} = \{ [b_1^{\rm S},c_1^{\rm S}],[b_2^{\rm S},c_2^{\rm S}], \cdots ,[b_m^{\rm S},c_m^{\rm S}], \cdots ,[b_M^{\rm S},c_M^{\rm S}]\} ,其中, b_m^{\rm S}
     表SAR单源检测结果中第m个检测结果框, c_m^{\rm S} 代表相应检测框
     的置信度。
     输出:后时相可见光图像检测结果
      {B^{\rm{OC}}} = \{ {B^{\rm O}},B_1^{\rm{OC}},B_2^{\rm{OC}}, \cdots ,B_M^{\rm{OC}}\}
     步骤:
     1. 根据 b_m^{\rm S} 生成可见光图像相应区域的邻域子图 {\boldsymbol I}_m^{\rm O} ,并转换到
     CIELAB色彩空间得到转换后的邻域子图 {\boldsymbol I}_m^{\rm{Lab}}
     2. 对 {\boldsymbol I}_m^{\rm{Lab}} 进行高斯滤波获得平滑图像 {\boldsymbol I}_m^{{\mathrm{Lab}},s}
     3. 按式(5)对 {\boldsymbol I}_m^{\rm{Lab}} 计算均值图像 {\boldsymbol I}_m^{{\mathrm{Lab}},\mu }
     4. 将步骤2和步骤3中的结果代入式(4)计算 {\boldsymbol I}_m^{\rm{Lab}} 对应的显著性图
      {\boldsymbol{S}}_m^{\rm{Lab}}
     5. 利用OTSU方法分割 {\boldsymbol{S}}_m^{\rm{Lab}} 获得所有可能的前景目标区域 {T_m}
     6. 计算前景目标区域面积,剔除 {T_m} 中小的区块噪声和异常大连
     通区域杂波;
     7. 按式(8),根据 c_m^{\rm S} 计算步骤6中 {T_m} 的各个前景目标区域置信度
     得分和最大外接矩形检测框,得到当前邻域子图检测结果 B_m^{\rm{OC}}
     8. 重复步骤1—步骤7直到遍历SAR单源检测结果框 {B^{\rm S}} 中的M
     检测框,获得共M组邻域子图检测结果,再与可见光单源检测结
     果 {B^{\rm O}} 合并,生成前时相SAR单源检测结果辅助后时相可见光
     图像检测结果 {B^{\rm{OC}}} = \{ {B^{\rm O}},B_1^{\rm{OC}},B_2^{\rm{OC}}, \cdots ,B_M^{\rm{OC}}\}
     9. 对 {B^{\rm{OC}}} 进行内部框融合和NMS。
    下载: 导出CSV 
    | 显示表格
    2  基于前时相可见光单源检测结果辅助的后时相SAR图像显著性舰船目标检测算法
    2.  Algorithm for detecting salient ships in later temporal SAR images assisted by prior temporal optical single-source detection results
     输入:可见光单源检测结果框
      {B^{\rm O}} = \{ [b_1^{\rm O},c_1^{\rm O}],[b_2^{\rm O},c_2^{\rm O}], \cdots,[b_n^{\rm O},c_n^{\rm O}], \cdots,[b_N^{\rm O},c_N^{\rm O}]\} ,其中, b_n^{\rm O}
     表可见光单源检测结果中第n个检测结果框, c_n^{\rm O} 代表相应检测框
     的置信度。
     输出:后时相SAR图像检测结果
      {B^{\rm{SC}}} = \{ {B^{\rm{SC}}},B_1^{\rm{SC}},B_2^{\rm{SC}},\cdots,B_N^{\rm{SC}}\}
     步骤:
     1. 根据 b_n^{\rm O} 生成SAR图像相应区域邻域子图 {\boldsymbol I}_n^{\rm S}
     2. 对 {\boldsymbol I}_n^{\rm S} 进行高斯滤波获得平滑图像 {\boldsymbol I}_n^{{\mathrm{S}},s}
     3. 按式(5)对 {\boldsymbol I}_n^{\rm S} 计算均值图 {\boldsymbol I}_n^{{\mathrm{S}},\mu }
     4. 将步骤2和步骤3中的结果代入式(4)计算 {\boldsymbol I}_n^{\rm S} 对应的显著性图
      {\boldsymbol{S}}_n^{\rm S}
     5. 利用OTSU方法分割 {\boldsymbol{S}}_n^{\rm S} 获得所有可能的前景目标区域 T_n^{\rm S}
     6. 计算前景目标区域面积,剔除 T_n^{\rm S} 中小的区块噪声和异常大连
     通区域杂波;
     7. 对步骤6处理后的 T_n^{\rm S} 进行形态学处理,使得弱关联性的单体目
     标的多个散射区域连通完整;
     8. 按式(8)根据 c_n^{\rm O} 计算步骤7中 T_n^{\rm S} 的各个前景目标区域置信度得
     分,以及最大外接矩形检测框,得到当前邻域子图检测框 B_n^{\rm{SC}}
     9. 重复步骤1—步骤8直到遍历可见光单源检测结果框 {B^{\rm O}} N
     检测框,获得共N组邻域子图检测结果框,与SAR单源检测结果
     框 {B^{\rm S}} 合并,生成前时相可见光单源检测结果辅助后时相SAR
     图像检测结果 {B^{\rm{SC}}} = \{ {B^{\rm{SC}}},B_1^{\rm{SC}},B_2^{\rm{SC}},\cdots,B_N^{\rm{SC}}\}
     10. 对 {B^{\rm{SC}}} 进行内部框融合和NMS。
    下载: 导出CSV 
    | 显示表格

    (近似)共时相多源异质遥感实测实验数据如图9所示,可见光和SAR图像均为机载传感器采集的图像,分辨率均为0.1 m,图像长度12961像素,宽度16758像素,2022年1月9日于中国烟台崆峒岛附近拍摄。为验证本文方法的有效性,在可见光图像中添加如图9红色框所示的局部仿真云雾区域,使得该区域变为困难样本。可见光单源检测网络RetinaNet预训练于DOTA数据集,该数据集中RGB图像采集于谷歌地球和CycloMedia B.V.提供的航拍图像、灰度图像来自中国资源卫星数据与应用中心提供的GF-2和JL-1卫星的全色波段,像素尺寸为800×800到4000×4000[56],本文中可见光图像为RGB模态,所以仅选取其中包含舰船目标的RGB图像,训练图片切片长宽均为1024,重叠量200。SAR单源检测网络YOLOv5s预训练于SRSDD-v1.0数据集,该数据集图像采集于GF-3卫星,裁切为666张像素尺寸为1024×1024的切片,共2884个舰船目标,包含近岸和复杂背景的舰船目标[57]。为说明在上述可见光和SAR数据集训练网络,并利用训练好的网络在本文实测数据上进行检测的合理性,本文对比了预训练数据集和本文实测数据中舰船目标尺寸。如图10所示,蓝色实心圆代表DOTA数据集中的舰船目标尺寸分布,红色叉符号表示本文可见光实验数据中舰船目标尺寸分布,两种数据中舰船目标尺寸具有一致性。如图11所示,蓝色实心圆代表SRSDD-v1.0数据集中的SAR舰船目标尺寸分布,红色叉符号表示本文SAR实测实验数据中舰船目标尺寸分布,两种数据中舰船目标尺寸具有一致性。在推理过程中图片切片长宽均为1024,重叠量200,实验实测数据中可见光和SAR图像均有336张切片,其中可见光图像中舰船数量为153艘,SAR图像中舰船数量为144艘。

    图  9  (近似)共时相多源异质遥感图像
    Figure  9.  Approximately co-observed multisource heterogeneous remote sensing images
    图  10  DOTA数据集与本文可见光数据舰船目标尺寸分布图
    Figure  10.  Size distribution of ships in DOTA dataset and optical images used in this paper
    图  11  SRSDD-v1.0数据集与本文SAR数据舰船目标尺寸分布图
    Figure  11.  Size distribution of ships in SRSDD-v1.0 dataset and SAR images used in this paper

    实验过程中,CPU为Intel(R) Xeon(R) Platinum 8280 CPU @ 2.70 GHz,GPU采用 NVIDIA® TITAN RTX™ 24 GB×2,操作系统为Windows Server 2019 Standard,基于开源深度学习框架Pytorch 1.11运行,设置训练初始学习率为0.0001,优化器为Adam,共迭代300个epoch。

    3.2.1   分割结果评价指标

    本文采用精度PL,召回率RL,LF1得分和准确率AccL衡量海陆分割方法的有效性:

    \begin{split} & {\text{PL = }}\frac{{{\text{TPL}}}}{{{\text{TPL + FPL}}}},\;\;{\text{RL = }}\frac{{{\text{TPL}}}}{{{\text{TPL + FNL}}}},\\ & {\text{LF1 = }}\frac{{{\text{2PRL}}}}{{{\text{PL + RL}}}},\\ & {\text{AccL = }}\frac{{{\text{TPL + TNL}}}}{{{\text{TPL + FPL + TNL + FNL}}}} \end{split} (12)

    其中,TPL是指预测并真属于陆地区域的像素数量、FPL是预测属于陆地但实际属于海面区域的像素数量、TNL是预测并真属于海面区域的像素数量、FNL是预测属于海面但实际属于陆地区域的像素数量。

    3.2.2   实验结果比较

    图12的实验结果可知,本文的海陆分割方法能更有效地分割出陆地和海面区域。图12(a)图12(d)是单源图像二值化分割结果,可知依靠单源遥感图像,分割结果中有很大的漏检区域。这是因为OTSU作为经典的二分类算法,需要分割区域存在较大的直方图特征分布差异,且有明显的二波峰存在,当存在如图9中SAR图像中的强海杂波、弱陆地区域散射回波强度时,或如图9中可见光图像中的陆地内部各区域直方图特征分布存在较大差异时难以得到较好的分割性能;K-means算法也易受强杂波、噪声区域和离群点的影响。图12(e)是仅将图12(a)图12(b)二值化分割结果中的陆地区域进行决策级叠加和形态学处理的结果,图12(f)是仅将图12(c)图12(d)二值化分割结果中的陆地区域结果进行决策级叠加和形态学处理的结果,结果较单源分割更好。图12(g)是本文提出的协同海陆分割方法的结果,分割效果好于上述单源分割和决策级叠加的协同方法,更接近陆地区域真实标注。

    图  12  海陆分割结果(白色区域是指预测并真属于陆地区域、黄色区域是预测属于陆地但实际属于海面区域、黑色区域是预测并真属于海面区域、红色区域是预测属于海面但实际属于陆地区域)
    Figure  12.  Sea-land segmentation results (white regions indicate predicted and true land, yellow regions indicate predicted land but sea, black regions indicate predicted and true sea, and red regions indicate predicted sea)

    表2量化对比了本文方法和图12中其他方法分割结果的精度PL、召回率RL、LF1得分和准确率AccL 4种指标,证明了本文提出的利用多源遥感图像实现海陆分割的方法更有优势,结论与图12中一致。从表2仅对可见光图像分割结果看,K-means利用多通道图像信息比OTSU仅利用灰度直方图特征更有利于可见光图像分割;从表2仅对SAR图像分割结果看,OTSU方法更适用于仅具有灰度信息特征的SAR图像分割。可见光+SAR的协同分割结果中,“OTSU+OTSU”对应图12(e),“K-means+K-means”对应图12(f),相比这种仅使用单一方法分割不同图像并进行决策级融合的结果,本文方法首先利用OTSU快速分割SAR图像,并为K-means分割可见光图像提供辅助信息,再将SAR图像的二值化分割结果和可见光图像的二值化分割结果取并集、进行形态学处理的决策级融合,更能发挥K-means和OTSU方法的优势,取得更好的分割性能。

    表  2  海陆分割性能比较(%)
    Table  2.  Performance comparison of sea-land segmentation methods (%)
    图像类型 方法 PL RL LF1 AccL
    可见光 OTSU 92.32 71.10 80.33 87.96
    K-means 98.98 70.13 82.09 89.42
    SAR OTSU 94.44 74.57 83.33 89.69
    K-means 99.04 70.06 82.07 89.42
    可见光+SAR
    协同
    OTSU+OTSU 93.07 89.12 91.05 93.94
    K-means+K-means 94.66 89.82 92.18 94.73
    本文方法 94.20 90.93 92.54 94.93
    下载: 导出CSV 
    | 显示表格
    3.3.1   评价指标

    在本文中我们采用精确率P和召回率R,F1得分以及在交并比IOU为0.5时的平均精度AP50 4种评价指标来评估舰船目标检测性能,而且绘制了精确率P和召回率R构成的PR曲线。

    3.3.2   超参数设置

    当将SAR图像作为仿真前时相图像时,区块噪声滤除因子 {\alpha _1} 等于0.001,异常的大连通区域杂波滤除因子 {\alpha _2} 等于0.05,置信度松弛因子 \beta 为10,内部框融合比例 \delta 为0.8,NMS阈值为0.3;当将可见光图像作为仿真前时相图像时,区块噪声滤除因子 {\alpha _1} 等于0.0005,异常的大连通区域杂波滤除因子 {\alpha _2} 等于0.05,置信度松弛因子 \beta 为10,内部框融合比例 \delta 为0.8,NMS阈值为0.3。

    本文通过分析和讨论开窗倍数 \mathcal{N} 设置对检测性能的影响,选择合适的 \mathcal{N} 值。实验结果如图13所示,这里分析开窗倍数 \mathcal{N} 取值为 \left[ {1,2, \cdots ,9} \right] 的检测性能。当 \mathcal{N} 较小时,邻域子图不足以将偏移的目标完整包含,从而导致漏检,而且可能会引入被认为是虚警的目标局部检测框;而 \mathcal{N} 取值较大时,过大的SAR邻域子图使得目标的显著性主导地位降低,而且更为复杂的背景特征弱化了检测性能。从图13可看出这一规律,因此选择将 \mathcal{N} 设置为5较为合适。

    图  13  开窗倍数设置与检测性能之间的关系
    Figure  13.  The relationship between windowing multiplication setting and detection performance

    图14展示了5倍开窗结果,可知,在秒级成像时间间隔内,近海船只偏移很小,目标空间位置仅在另一共视场图像对应位置的极小邻域范围内存在偏移,跨图像的5倍邻域开窗可以将同一目标完整包含,有利于显著性目标二次检测。此外,在涉及远海区域高速航行的舰船目标时,需要根据可见光、SAR成像间隔和目标速度设计更大的邻域开窗范围并进行目标关联,以降低漏检率。

    图  14  (近似)共时相多源异质遥感数据5倍开窗示意图(舰船目标的真实位置用红色框标出,黄色框为以可见光图像中舰船目标为中心的5倍邻域开窗结果)
    Figure  14.  5-fold windowing of approximately co-observed multisource heterogeneous remote sensing images (the real position of the ship is marked with a red box, while the yellow box represents the 5-fold windowing result centered on the ship in optical images)
    3.3.3   实验结果

    图15展示了可见光和SAR的单源检测网络RetinaNet[49]和YOLOv5s[50]、多源检测方法FusionDet[42]、MFDet[46]以及本文方法的PR曲线。可以看出本文方法取得了最好的PR曲线,包围面积更大,说明性能更加稳定,而相比单源检测结果,FusionDet和MFDet方法性能降低。这是因为单源检测器在面对一些困难样本时,检测性能有限,受云雾遮挡的目标容易被漏检,弱散射和船体离散化的目标也会被漏检。FusionDet方法相比单源检测结果性能降低,是因为该方法会将可见光与SAR多源异质图像中的检测结果进行配对比较,成功配对的多源检测结果会仅保留目标对中的最大检测框,但是忽略了舰船目标偏移误差的存在,进而导致最终检测框只关注某一个类型图像中的目标位置,易增加漏检;未能配对的检测结果,会被复制到异质域检测结果中,而忽视舰船目标偏移误差的存在会增加SAR和可见光检测结果中的虚警,所以该方法相比单源检测器精度上有所下降。MFDet方法中通过证据融合改良符合决策阈值的异质域多源检测框置信度得分,所以在图15中SAR图像检测中,低召回率R条件下优于其他方法,但是同样并未解决目标偏移误差影响检测性能的问题。相比单源检测方法,本文提出的方法会以单源检测结果为先验信息,更关注目标在邻域局部范围内存在的可能性,通过局部显著性检测的方式,减轻了受云雾遮挡或者强海杂波弱化目标可见性的问题。相比于已有的多源协同检测方法,本文方法考虑了舰船目标偏移误差的客观存在,在单源检测结果邻域中进行二次检测的方式,能够在先验单源检测结果辅助下进一步检测目标以减少漏检。而且相比于将单源检测结果直接复制到异质域检测结果中的方式,二次检测的方式能够避免进一步增加虚警目标。

    图  15  不同检测方法检测PR曲线比较
    Figure  15.  Comparison of PR curves for detection methods

    表3所示,本文方法拥有更好的检测性能,量化评价指标优于其他方法,与图15所示PR曲线结果一致。

    表  3  不同检测方法基于可见光图像(SAR图像辅助)和SAR图像(可见光图像辅助)的检测性能比较(%)
    Table  3.  Performance comparison of detection methods based on optical images (assisted by SAR images) and SAR images (assisted by optical images) (%)
    图像类型 方法 P R F1 AP50
    可见光
    (后时相)
    RetinaNet 95.7 91.5 93.6 95.3
    FusionDet 56.5 77.1 65.2 50.1
    MFDet 72.5 85.6 78.5 74.4
    本文方法
    (前时相SAR图像辅助)
    94.7 94.1 94.4 97.2
    SAR
    (后时相)
    YOLOv5s 62.6 50.0 55.6 50.7
    FusionDet 51.6 43.1 46.9 44.7
    MFDet 68.6 41.7 51.8 49.7
    本文方法
    (前时相可见光图像辅助)
    67.5 72.3 69.8 66.9
    下载: 导出CSV 
    | 显示表格

    图16展示了本文方法相比单源检测方法和已有多源异质遥感图像协同检测方法的优势。仿真后时相光学图像中被仿真云雾遮蔽的舰船目标、仿真后时相SAR图像中散射强度相对较低或受强杂波干扰的舰船目标,未能被单源检测器检出;由于缺少后时相图像的检测结果,FusionDet[42]和MFDet[46]方法将前时相图像的检测结果进行跨图像域的复制,而舰船目标存在的轻微偏移,导致被复制的矩形框并不能有效地定位后时相真实目标所在区域,反而更可能成为被新引入的虚警目标。而本文方法进一步考虑了前后时相中目标偏移的存在,在前时相单源检测结果先验信息的辅助下,定位后时相图像漏检目标所在邻域子图。其次,对邻域子图进行邻域显著性目标二次检测的方式能够突出舰船目标区域和背景区域的差别,从而检出单源检测器中漏检的舰船目标(IOU大于0.5),并减少虚假目标的引入。

    图  16  多源异质图像协同检测示例图
    Figure  16.  Example of cooperative detection of multisource heterogeneous images
    3.3.4   消融实验结果

    为说明本方法中添加海陆分割步骤和多源异质遥感图像协同检测步骤的有效性,本文还进行了消融实验,结果如表4所示。为进一步说明本方法中选择单源检测器的有效性,本文对比了单源检测器仅是RetinatNet或YOLOv5s的实验结果,如表5

    表  4  海陆分割以及多源异质遥感图像协同检测步骤的消融实验(%)
    Table  4.  Ablation study on sea-land segmentation and cooperative detection of multisource heterogeneous remote sensing images (%)
    图像类型 海陆分割 多源异质遥感
    图像协同检测
    P R F1 AP50
    可见光
    (后时相)
    95.7 91.5 93.6 95.3
    99.0 92.2 95.5 96.5 (+1.2)
    93.4 94.1 93.8 96.6 (+1.3)
    94.7 94.1 94.4 97.2 (+1.9)
    SAR
    (后时相)
    62.6 50.0 55.6 50.7
    73.6 51.4 60.5 58.5 (+7.8)
    58.3 68.1 62.8 59.1(+8.4)
    67.5 72.3 69.8 66.9 (+16.2)
    注:括号内容表示相对基准方法性能提升结果。
    下载: 导出CSV 
    | 显示表格
    表  5  单源检测器的消融实验(%)
    Table  5.  Ablation study on single-source detectors (%)
    图像类型 可见光图像单源检测器 SAR图像单源检测器 P R F1 AP50
    可见光
    (后时相)
    RetinaNet RetinaNet 84.9 93.5 90.0 92.6
    YOLOv5s YOLOv5s 84.2 80.1 82.1 78.9
    YOLOv5s RetinaNet 84.3 77.1 80.5 79.5
    RetinaNet YOLOv5s 94.7 94.1 94.4 97.2
    SAR
    (后时相)
    RetinaNet RetinaNet 61.6 74.3 67.4 61.6
    YOLOv5s YOLOv5s 70.3 69.2 69.8 65.9
    YOLOv5s RetinaNet 67.4 70.4 68.9 62.6
    RetinaNet YOLOv5s 67.5 72.3 69.8 66.9
    下载: 导出CSV 
    | 显示表格

    (1) 海陆分割步骤:从表4可知,添加海陆分割提升了检测性能,说明海陆分割步骤能够剔除部分虚警。这是因为陆地区域存在复杂干扰,可见光图像中陆地区域存在一些纹理形状和舰船目标相似的地物,而SAR图像中陆地区域存在与海面舰船目标相似散射特性的区域,导致陆地区域复杂样本被误检为海面目标,从而引入虚假目标。而进行海陆分割后,可降低大部分的陆地区域干扰对舰船检测性能的影响。

    (2) 多源异质遥感图像协同检测步骤:从表4的结果可知,多源异质遥感图像协同检测步骤的添加能够提高检测性能。此外,结合对图15图16的分析可知,本文方法能够在单源初步检测结果先验信息的辅助下,通过多源异质遥感图像协同检测步骤,检出单源检测器中漏检的舰船目标。

    (3) 单源检测器:表5展示了可见光和SAR图像单源检测器选择的消融实验结果,结合表1可知,RetinatNet作为SAR单源检测器、YOLOv5s作为可见光单源检测器时,检测性能较差,难以提供有效的先验信息。相比之下,本文方法选择RetinatNet和YOLOv5s分别作为可见光和SAR的单源检测器更具有检测性能优势。

    综上,海陆分割步骤可以有效减少陆地区域的虚假目标数量、抑制虚警率,而多源异质遥感图像协同检测步骤可以新检出单源检测器中的漏检目标、提高检测率,通过消融实验证明了本方法中添加海陆分割步骤、多源异质遥感图像协同检测步骤和选择单源检测器的有效性与合理性。

    本文提出一种基于邻域显著性的可见光和SAR多源异质遥感图像舰船协同检测方法。首先,提出一种多源协同海陆分割方法来降低陆地区域干扰,其次,通过前时相单源检测结果在后时相异质域中进行邻域开窗,根据前时相单源检测结果提供的辅助信息在后时相异质域图像进行显著性目标二次检测,锁定后时相异质域图像中漏检目标的局部空间位置,并构建了一种基于前时相图像先验信息置信度和后时相图像目标相对显著性的置信度得分函数,实现了可见光与SAR图像协同检测。基于烟台地区的多源异质遥感实测数据实验表明,本文提出的方法相比现有方法提升了多源协同舰船检测性能。

    本文进一步讨论检测性能退化的情形:如果可见光和SAR图像中同一个/同一批次舰船目标都漏检,这说明两者的成像质量都差,舰船目标信息较弱或者干扰较多,需要先进行图像质量增强,比如可见光图像要进行去云、去雾和目标边缘增强等预处理,SAR图像要进行图像去噪、海杂波抑制等预处理,以上手段可以增强图像质量,增强目标在图像中的显著性,有利于单源检测器的检出,降低后续的漏检,提升检测性能,但是针对光学、SAR图像数据进行图像质量增强的预处理步骤会增加额外的计算开销。

    下一步,将深入研究基于多源遥感图像多时相目标的数据关联和态势感知。

    致谢 本文作者感谢中国航天科工二院二十三所和中国科学院长春光学精密机械与物理研究所提供的数据;感谢北京微纳星空科技有限公司潘丹高级工程师对光学、SAR共时相成像技术的有益讨论。

  • 图  1  多源异质舰船协同检测难点分析

    Figure  1.  Challenges of cooperative detection of multisource heterogeneous ships

    图  2  基于邻域显著性的可见光和SAR遥感图像海面舰船协同检测流程

    Figure  2.  Flowchart of cooperative detection of ships in optical and SAR remote sensing images based on neighborhood saliency

    图  3  舰船目标空间偏移示意图

    Figure  3.  Example of spatial shift of ships

    图  4  有舰船目标时的邻域子图及多源异质遥感图像协同检测处理中间结果

    Figure  4.  Neighborhood subgraphs including ships and intermediate results of cooperative detection of multisource

    图  5  最大对称环绕视觉示意图

    Figure  5.  Schematic diagram of maximum symmetrical surround

    图  6  内部框融合示意图

    Figure  6.  Illustration of inner rectangle box fusion

    图  7  后时相SAR图像邻域子图及其显著性检测形态学处理中间结果

    Figure  7.  Neighborhood subgraphs of later temporal SAR images and their morphological processing intermediate results for saliency detection

    图  8  无舰船目标时邻域子图及多源异质遥感图像协同检测处理中间结果

    Figure  8.  Neighborhood subgraphs excluding ships and intermediate results of cooperative detection of multisource heterogeneous remote sensing images

    图  9  (近似)共时相多源异质遥感图像

    Figure  9.  Approximately co-observed multisource heterogeneous remote sensing images

    图  10  DOTA数据集与本文可见光数据舰船目标尺寸分布图

    Figure  10.  Size distribution of ships in DOTA dataset and optical images used in this paper

    图  11  SRSDD-v1.0数据集与本文SAR数据舰船目标尺寸分布图

    Figure  11.  Size distribution of ships in SRSDD-v1.0 dataset and SAR images used in this paper

    图  12  海陆分割结果(白色区域是指预测并真属于陆地区域、黄色区域是预测属于陆地但实际属于海面区域、黑色区域是预测并真属于海面区域、红色区域是预测属于海面但实际属于陆地区域)

    Figure  12.  Sea-land segmentation results (white regions indicate predicted and true land, yellow regions indicate predicted land but sea, black regions indicate predicted and true sea, and red regions indicate predicted sea)

    图  13  开窗倍数设置与检测性能之间的关系

    Figure  13.  The relationship between windowing multiplication setting and detection performance

    图  14  (近似)共时相多源异质遥感数据5倍开窗示意图(舰船目标的真实位置用红色框标出,黄色框为以可见光图像中舰船目标为中心的5倍邻域开窗结果)

    Figure  14.  5-fold windowing of approximately co-observed multisource heterogeneous remote sensing images (the real position of the ship is marked with a red box, while the yellow box represents the 5-fold windowing result centered on the ship in optical images)

    图  15  不同检测方法检测PR曲线比较

    Figure  15.  Comparison of PR curves for detection methods

    图  16  多源异质图像协同检测示例图

    Figure  16.  Example of cooperative detection of multisource heterogeneous images

    表  1  单源检测器性能对比(%)

    Table  1.   Performance comparison of single-source detectors (%)

    图像类型 方法 P R F1 AP50
    可见光 RetinaNet 95.7 91.5 93.6 95.3
    YOLOv5s 81.5 75.8 78.6 77.1
    YOLOv5m 81.6 77.1 79.3 79.7
    YOLOv5l 70.6 65.9 68.2 58.6
    YOLOv5x 67.7 65.4 66.5 58.6
    SAR RetinaNet 50.2 39.6 44.3 38.5
    YOLOv5s 62.6 50.0 55.6 50.7
    YOLOv5m 60.0 38.9 47.2 48.6
    YOLOv5l 54.6 37.5 44.5 42.5
    YOLOv5x 40.1 33.3 36.4 31.4
    下载: 导出CSV

    1  基于前时相SAR单源检测结果辅助的后时相可见光图像显著性舰船目标检测算法

    1.   Algorithm for detecting salient ships in later temporal optical images assisted by prior temporal SAR single-source detection results

     输入:SAR单源检测结果框
      {B^{\rm S}} = \{ [b_1^{\rm S},c_1^{\rm S}],[b_2^{\rm S},c_2^{\rm S}], \cdots ,[b_m^{\rm S},c_m^{\rm S}], \cdots ,[b_M^{\rm S},c_M^{\rm S}]\} ,其中, b_m^{\rm S}
     表SAR单源检测结果中第m个检测结果框, c_m^{\rm S} 代表相应检测框
     的置信度。
     输出:后时相可见光图像检测结果
      {B^{\rm{OC}}} = \{ {B^{\rm O}},B_1^{\rm{OC}},B_2^{\rm{OC}}, \cdots ,B_M^{\rm{OC}}\}
     步骤:
     1. 根据 b_m^{\rm S} 生成可见光图像相应区域的邻域子图 {\boldsymbol I}_m^{\rm O} ,并转换到
     CIELAB色彩空间得到转换后的邻域子图 {\boldsymbol I}_m^{\rm{Lab}}
     2. 对 {\boldsymbol I}_m^{\rm{Lab}} 进行高斯滤波获得平滑图像 {\boldsymbol I}_m^{{\mathrm{Lab}},s}
     3. 按式(5)对 {\boldsymbol I}_m^{\rm{Lab}} 计算均值图像 {\boldsymbol I}_m^{{\mathrm{Lab}},\mu }
     4. 将步骤2和步骤3中的结果代入式(4)计算 {\boldsymbol I}_m^{\rm{Lab}} 对应的显著性图
      {\boldsymbol{S}}_m^{\rm{Lab}}
     5. 利用OTSU方法分割 {\boldsymbol{S}}_m^{\rm{Lab}} 获得所有可能的前景目标区域 {T_m}
     6. 计算前景目标区域面积,剔除 {T_m} 中小的区块噪声和异常大连
     通区域杂波;
     7. 按式(8),根据 c_m^{\rm S} 计算步骤6中 {T_m} 的各个前景目标区域置信度
     得分和最大外接矩形检测框,得到当前邻域子图检测结果 B_m^{\rm{OC}}
     8. 重复步骤1—步骤7直到遍历SAR单源检测结果框 {B^{\rm S}} 中的M
     检测框,获得共M组邻域子图检测结果,再与可见光单源检测结
     果 {B^{\rm O}} 合并,生成前时相SAR单源检测结果辅助后时相可见光
     图像检测结果 {B^{\rm{OC}}} = \{ {B^{\rm O}},B_1^{\rm{OC}},B_2^{\rm{OC}}, \cdots ,B_M^{\rm{OC}}\}
     9. 对 {B^{\rm{OC}}} 进行内部框融合和NMS。
    下载: 导出CSV

    2  基于前时相可见光单源检测结果辅助的后时相SAR图像显著性舰船目标检测算法

    2.   Algorithm for detecting salient ships in later temporal SAR images assisted by prior temporal optical single-source detection results

     输入:可见光单源检测结果框
      {B^{\rm O}} = \{ [b_1^{\rm O},c_1^{\rm O}],[b_2^{\rm O},c_2^{\rm O}], \cdots,[b_n^{\rm O},c_n^{\rm O}], \cdots,[b_N^{\rm O},c_N^{\rm O}]\} ,其中, b_n^{\rm O}
     表可见光单源检测结果中第n个检测结果框, c_n^{\rm O} 代表相应检测框
     的置信度。
     输出:后时相SAR图像检测结果
      {B^{\rm{SC}}} = \{ {B^{\rm{SC}}},B_1^{\rm{SC}},B_2^{\rm{SC}},\cdots,B_N^{\rm{SC}}\}
     步骤:
     1. 根据 b_n^{\rm O} 生成SAR图像相应区域邻域子图 {\boldsymbol I}_n^{\rm S}
     2. 对 {\boldsymbol I}_n^{\rm S} 进行高斯滤波获得平滑图像 {\boldsymbol I}_n^{{\mathrm{S}},s}
     3. 按式(5)对 {\boldsymbol I}_n^{\rm S} 计算均值图 {\boldsymbol I}_n^{{\mathrm{S}},\mu }
     4. 将步骤2和步骤3中的结果代入式(4)计算 {\boldsymbol I}_n^{\rm S} 对应的显著性图
      {\boldsymbol{S}}_n^{\rm S}
     5. 利用OTSU方法分割 {\boldsymbol{S}}_n^{\rm S} 获得所有可能的前景目标区域 T_n^{\rm S}
     6. 计算前景目标区域面积,剔除 T_n^{\rm S} 中小的区块噪声和异常大连
     通区域杂波;
     7. 对步骤6处理后的 T_n^{\rm S} 进行形态学处理,使得弱关联性的单体目
     标的多个散射区域连通完整;
     8. 按式(8)根据 c_n^{\rm O} 计算步骤7中 T_n^{\rm S} 的各个前景目标区域置信度得
     分,以及最大外接矩形检测框,得到当前邻域子图检测框 B_n^{\rm{SC}}
     9. 重复步骤1—步骤8直到遍历可见光单源检测结果框 {B^{\rm O}} N
     检测框,获得共N组邻域子图检测结果框,与SAR单源检测结果
     框 {B^{\rm S}} 合并,生成前时相可见光单源检测结果辅助后时相SAR
     图像检测结果 {B^{\rm{SC}}} = \{ {B^{\rm{SC}}},B_1^{\rm{SC}},B_2^{\rm{SC}},\cdots,B_N^{\rm{SC}}\}
     10. 对 {B^{\rm{SC}}} 进行内部框融合和NMS。
    下载: 导出CSV

    表  2  海陆分割性能比较(%)

    Table  2.   Performance comparison of sea-land segmentation methods (%)

    图像类型 方法 PL RL LF1 AccL
    可见光 OTSU 92.32 71.10 80.33 87.96
    K-means 98.98 70.13 82.09 89.42
    SAR OTSU 94.44 74.57 83.33 89.69
    K-means 99.04 70.06 82.07 89.42
    可见光+SAR
    协同
    OTSU+OTSU 93.07 89.12 91.05 93.94
    K-means+K-means 94.66 89.82 92.18 94.73
    本文方法 94.20 90.93 92.54 94.93
    下载: 导出CSV

    表  3  不同检测方法基于可见光图像(SAR图像辅助)和SAR图像(可见光图像辅助)的检测性能比较(%)

    Table  3.   Performance comparison of detection methods based on optical images (assisted by SAR images) and SAR images (assisted by optical images) (%)

    图像类型 方法 P R F1 AP50
    可见光
    (后时相)
    RetinaNet 95.7 91.5 93.6 95.3
    FusionDet 56.5 77.1 65.2 50.1
    MFDet 72.5 85.6 78.5 74.4
    本文方法
    (前时相SAR图像辅助)
    94.7 94.1 94.4 97.2
    SAR
    (后时相)
    YOLOv5s 62.6 50.0 55.6 50.7
    FusionDet 51.6 43.1 46.9 44.7
    MFDet 68.6 41.7 51.8 49.7
    本文方法
    (前时相可见光图像辅助)
    67.5 72.3 69.8 66.9
    下载: 导出CSV

    表  4  海陆分割以及多源异质遥感图像协同检测步骤的消融实验(%)

    Table  4.   Ablation study on sea-land segmentation and cooperative detection of multisource heterogeneous remote sensing images (%)

    图像类型 海陆分割 多源异质遥感
    图像协同检测
    P R F1 AP50
    可见光
    (后时相)
    95.7 91.5 93.6 95.3
    99.0 92.2 95.5 96.5 (+1.2)
    93.4 94.1 93.8 96.6 (+1.3)
    94.7 94.1 94.4 97.2 (+1.9)
    SAR
    (后时相)
    62.6 50.0 55.6 50.7
    73.6 51.4 60.5 58.5 (+7.8)
    58.3 68.1 62.8 59.1(+8.4)
    67.5 72.3 69.8 66.9 (+16.2)
    注:括号内容表示相对基准方法性能提升结果。
    下载: 导出CSV

    表  5  单源检测器的消融实验(%)

    Table  5.   Ablation study on single-source detectors (%)

    图像类型 可见光图像单源检测器 SAR图像单源检测器 P R F1 AP50
    可见光
    (后时相)
    RetinaNet RetinaNet 84.9 93.5 90.0 92.6
    YOLOv5s YOLOv5s 84.2 80.1 82.1 78.9
    YOLOv5s RetinaNet 84.3 77.1 80.5 79.5
    RetinaNet YOLOv5s 94.7 94.1 94.4 97.2
    SAR
    (后时相)
    RetinaNet RetinaNet 61.6 74.3 67.4 61.6
    YOLOv5s YOLOv5s 70.3 69.2 69.8 65.9
    YOLOv5s RetinaNet 67.4 70.4 68.9 62.6
    RetinaNet YOLOv5s 67.5 72.3 69.8 66.9
    下载: 导出CSV
  • [1] JIANG Xiao, LI Gang, LIU Yu, et al. Change detection in heterogeneous optical and SAR remote sensing images via deep homogeneous feature fusion[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 1551–1566. doi: 10.1109/jstars.2020.2983993.
    [2] 王志豪, 李刚, 蒋骁. 基于光学和SAR遥感图像融合的洪灾区域检测方法[J]. 雷达学报, 2020, 9(3): 539–553. doi: 10.12000/JR19095.

    WANG Zhihao, LI Gang, and JIANG Xiao. Flooded area detection method based on fusion of optical and SAR remote sensing images[J]. Journal of Radars, 2020, 9(3): 539–553. doi: 10.12000/JR19095.
    [3] ZHANG Qiang, WANG Xueqian, WANG Zhihao, et al. Heterogeneous remote sensing image fusion based on homogeneous transformation and target enhancement[C]. 2022 IEEE International Conference on Unmanned Systems (ICUS), Guangzhou, China, 2022: 688–693. doi: 10.1109/ICUS55513.2022.9987218.
    [4] WANG Xueqian, ZHU Dong, LI Gang, et al. Proposal-copula-based fusion of spaceborne and airborne SAR images for ship target detection[J]. Information Fusion, 2022, 77: 247–260. doi: 10.1016/j.inffus.2021.07.019.
    [5] ZHANG Yu, WANG Xueqian, JIANG Zhizhuo, et al. An efficient center-based method with multilevel auxiliary supervision for multiscale SAR ship detection[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15: 7065–7075. doi: 10.1109/jstars.2022.3197210.
    [6] 刘泽宇, 柳彬, 郭炜炜, 等. 高分三号NSC模式SAR图像舰船目标检测初探[J]. 雷达学报, 2017, 6(5): 473–482. doi: 10.12000/JR17059.

    LIU Zeyu, LIU Bin, GUO Weiwei, et al. Ship detection in GF-3 NSC mode SAR images[J]. Journal of Radars, 2017, 6(5): 473–482. doi: 10.12000/JR17059.
    [7] BRUSCH S, LEHNER S, FRITZ T, et al. Ship surveillance with TerraSAR-X[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(3): 1092–1103. doi: 10.1109/tgrs.2010.2071879.
    [8] WANG Xueqian, LI Gang, ZHANG Xiaoping, et al. A fast CFAR algorithm based on density-censoring operation for ship detection in SAR images[J]. IEEE Signal Processing Letters, 2021, 28: 1085–1089. doi: 10.1109/lsp.2021.3082034.
    [9] 张帆, 陆圣涛, 项德良, 等. 一种改进的高分辨率SAR图像超像素CFAR舰船检测算法[J]. 雷达学报, 2023, 12(1): 120–139. doi: 10.12000/JR22067.

    ZHANG Fan, LU Shengtao, XIANG Deliang, et al. An improved superpixel-based CFAR method for high-resolution SAR image ship target detection[J]. Journal of Radars, 2023, 12(1): 120–139. doi: 10.12000/JR22067.
    [10] ZHANG Linping, LIU Yu, ZHAO Wenda, et al. Frequency-adaptive learning for SAR ship detection in clutter scenes[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5215514. doi: 10.1109/TGRS.2023.3249349.
    [11] QIN Chuan, WANG Xueqian, LI Gang, et al. A semi-soft label-guided network with self-distillation for SAR inshore ship detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5211814. doi: 10.1109/TGRS.2023.3293535.
    [12] 刘方坚, 李媛. 基于视觉显著性的SAR遥感图像NanoDet舰船检测方法[J]. 雷达学报, 2021, 10(6): 885–894. doi: 10.12000/JR21105.

    LIU Fangjian and LI Yuan. SAR remote sensing image ship detection method NanoDet based on visual saliency[J]. Journal of Radars, 2021, 10(6): 885–894. doi: 10.12000/JR21105.
    [13] 胥小我, 张晓玲, 张天文, 等. 基于自适应锚框分配与IOU监督的复杂场景SAR舰船检测[J]. 雷达学报, 2023, 12(5): 1097–1111. doi: 10.12000/JR23059.

    XU Xiaowo, ZHANG Xiaoling, ZHANG Tianwen, et al. SAR ship detection in complex scenes based on adaptive anchor assignment and IOU supervise[J]. Journal of Radars, 2023, 12(5): 1097–1111. doi: 10.12000/JR23059.
    [14] WANG Wensheng, ZHANG Xinbo, SUN Wu, et al. A novel method of ship detection under cloud interference for optical remote sensing images[J]. Remote Sensing, 2022, 14(15): 3731. doi: 10.3390/rs14153731.
    [15] TIAN Yang, LIU Jinghong, ZHU Shengjie, et al. Ship detection in visible remote sensing image based on saliency extraction and modified channel features[J]. Remote Sensing, 2022, 14(14): 3347. doi: 10.3390/rs14143347.
    [16] ZHUANG Yin, LI Lianlin, and CHEN He. Small sample set inshore ship detection from VHR optical remote sensing images based on structured sparse representation[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 2145–2160. doi: 10.1109/JSTARS.2020.2987827.
    [17] HU Jianming, ZHI Xiyang, ZHANG Wei, et al. Salient ship detection via background prior and foreground constraint in remote sensing images[J]. Remote Sensing, 2020, 12(20): 3370. doi: 10.3390/rs12203370.
    [18] QIN Chuan, WANG Xueqian, LI Gang, et al. An improved attention-guided network for arbitrary-oriented ship detection in optical remote sensing images[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 6514805. doi: 10.1109/LGRS.2022.3198681.
    [19] REN Zhida, TANG Yongqiang, HE Zewen, et al. Ship detection in high-resolution optical remote sensing images aided by saliency information[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5623616. doi: 10.1109/TGRS.2022.3173610.
    [20] SI Jihao, SONG Binbin, WU Jixuan, et al. Maritime ship detection method for satellite images based on multiscale feature fusion[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2023, 16: 6642–6655. doi: 10.1109/JSTARS.2023.3296898.
    [21] BENDER E J, REESE C E, and VAN DER WAL G S. Comparison of additive image fusion vs. feature-level image fusion techniques for enhanced night driving[C]. SPIE 4796, Low-Light-Level and Real-Time Imaging Systems, Components, and Applications, Seattle, USA, 2003: 140–151. doi: 10.1117/12.450867.
    [22] JIA Yong, KONG Lingjiang, YANG Xiaobo, et al. Multi-channel through-wall-radar imaging based on image fusion[C]. 2011 IEEE RadarCon (RADAR), Kansas City, USA, 2011: 103–105. doi: 10.1109/RADAR.2011.5960508.
    [23] JIN Yue, YANG Ruliang, and HUAN Ruohong. Pixel level fusion for multiple SAR images using PCA and wavelet transform[C]. 2006 CIE International Conference on Radar, Shanghai, China, 2006: 1–4. doi: 10.1109/ICR.2006.343209.
    [24] FASANO L, LATINI D, MACHIDON A, et al. SAR data fusion using nonlinear principal component analysis[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(9): 1543–1547. doi: 10.1109/LGRS.2019.2951292.
    [25] ZHU Dong, WANG Xueqian, LI Gang, et al. Vessel detection via multi-order saliency-based fuzzy fusion of spaceborne and airborne SAR images[J]. Information Fusion, 2023, 89: 473–485. doi: 10.1016/j.inffus.2022.08.022.
    [26] 张良培, 何江, 杨倩倩, 等. 数据驱动的多源遥感信息融合研究进展[J]. 测绘学报, 2022, 51(7): 1317–1337. doi: 10.11947/j.AGCS.2022.20220171.

    ZHANG Liangpei, HE Jiang, YANG Qianqian, et al. Data-driven multi-source remote sensing data fusion: Progress and challenges[J]. Acta Geodaetica et Cartographica Sinica, 2022, 51(7): 1317–1337. doi: 10.11947/j.AGCS.2022.20220171.
    [27] 童莹萍, 全英汇, 冯伟, 等. 基于空谱信息协同与Gram-Schmidt变换的多源遥感图像融合方法[J]. 系统工程与电子技术, 2022, 44(7): 2074–2083. doi: 10.12305/j.issn.1001-506X.2022.07.02.

    TONG Yingping, QUAN Yinghui, FENG Wei, et al. Multi-source remote sensing image fusion method based on spatial-spectrum information collaboration and Gram-Schmidt transform[J]. Systems Engineering and Electronics, 2022, 44(7): 2074–2083. doi: 10.12305/j.issn.1001-506X.2022.07.02.
    [28] QUANG N H, TUAN V A, HAO N T P, et al. Synthetic aperture radar and optical remote sensing image fusion for flood monitoring in the Vietnam Lower Mekong Basin: A prototype application for the Vietnam open data cube[J]. European Journal of Remote Sensing, 2019, 52(1): 599–612. doi: 10.1080/22797254.2019.1698319.
    [29] KAUR H, KOUNDAL D, and KADYAN V. Image fusion techniques: A survey[J]. Archives of Computational Methods in Engineering, 2021, 28(7): 4425–4447. doi: 10.1007/s11831-021-09540-7.
    [30] FUENTES REYES M, AUER S, MERKLE N, et al. SAR-to-optical image translation based on conditional generative adversarial networks—optimization, opportunities and limits[J]. Remote Sensing, 2019, 11(17): 2067. doi: 10.3390/rs11172067.
    [31] LEWIS J J, O’CALLAGHAN R J, NIKOLOV S G, et al. Pixel- and region-based image fusion with complex wavelets[J]. Information Fusion, 2007, 8(2): 119–130. doi: 10.1016/j.inffus.2005.09.006.
    [32] JIANG Xiao, HE You, LI Gang, et al. Building damage detection via superpixel-based belief fusion of space-borne SAR and optical images[J]. IEEE Sensors Journal, 2020, 20(4): 2008–2022. doi: 10.1109/jsen.2019.2948582.
    [33] KHELIFI L and MIGNOTTE M. Deep learning for change detection in remote sensing images: Comprehensive review and meta-analysis[J]. IEEE Access, 2020, 8: 126385–126400. doi: 10.1109/access.2020.3008036.
    [34] JIANG Xiao, LI Gang, ZHANG Xiaoping, et al. A semisupervised siamese network for efficient change detection in heterogeneous remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 4700718. doi: 10.1109/TGRS.2021.3061686.
    [35] LI Chengxi, LI Gang, WANG Xueqian, et al. A copula-based method for change detection with multisensor optical remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5620015. doi: 10.1109/TGRS.2023.3312344.
    [36] YU Ruikun, WANG Guanghui, SHI Tongguang, et al. Potential of land cover classification based on GF-1 and GF-3 data[C]. 2020 IEEE International Geoscience and Remote Sensing Symposium, Waikoloa, USA, 2020: 2747–2750. doi: 10.1109/IGARSS39084.2020.9324435.
    [37] MA Yanbiao, LI Yuxin, FENG Kexin, et al. Multisource data fusion for the detection of settlements without electricity[C]. 2021 IEEE International Geoscience and Remote Sensing Symposium, Brussels, Belgium, 2021: 1839–1842. doi: 10.1109/IGARSS47720.2021.9553860.
    [38] KANG Wenchao, XIANG Yuming, WANG Feng, et al. CFNet: A cross fusion network for joint land cover classification using optical and SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15: 1562–1574. doi: 10.1109/JSTARS.2022.3144587.
    [39] YU Yongtao, LIU Chao, GUAN Haiyan, et al. Land cover classification of multispectral LiDAR data with an efficient self-attention capsule network[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 6501505. doi: 10.1109/LGRS.2021.3071252.
    [40] WU Xin, LI Wei, HONG Danfeng, et al. Vehicle detection of multi-source remote sensing data using active fine-tuning network[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 167: 39–53. doi: 10.1016/j.isprsjprs.2020.06.016.
    [41] FANG Qingyun and WANG Zhaokui. Cross-modality attentive feature fusion for object detection in multispectral remote sensing imagery[J]. Pattern Recognition, 2022, 130: 108786. doi: 10.1016/j.patcog.2022.108786.
    [42] FANG Qingyun and WANG Zhaokui. Fusion detection via distance-decay intersection over union and weighted dempster–shafer evidence theory[J]. Journal of Aerospace Information Systems, 2023, 20(3): 114–125. doi: 10.2514/1.I011031.
    [43] 焦洪臣, 张庆君, 刘杰, 等. 基于光电通路耦合的光SAR一体化卫星探测系统[P]. 中国, 115639553B, 2023.

    JIAO Hongchen, ZHANG Qingjun, LIU Jie, et al. Optical and SAR integrated satellite detection system based on photoelectric path coupling[P]. CN, 115639553B, 2023.
    [44] 焦洪臣, 刘杰, 张庆君, 等. 一种基于光SAR共口径集成的多源一体化探测方法[P]. 中国, 115616561B, 2023.

    JIAO Hongchen, LIU Jie, ZHANG Qingjun, et al. A multi-source integrated detection method based on optical and SAR co-aperture integration[P]. CN, 115616561B, 2023.
    [45] ZHANG Lu, ZHU Xiangyu, CHEN Xiangyu, et al. Weakly aligned cross-modal learning for multispectral pedestrian detection[C]. 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, Korea (South), 2019: 5126–5136. doi: 10.1109/ICCV.2019.00523.
    [46] 陈俊. 基于R-YOLO的多源遥感图像海面目标融合检测算法研究[D]. [硕士论文], 华中科技大学, 2019. doi: 10.27157/d.cnki.ghzku.2019.002510.

    CHEN Jun. Research on maritime target fusion detection in multi-source remote sensing images based on R-YOLO[D]. [Master dissertation], Huazhong University of Science and Technology, 2019. doi: 10.27157/d.cnki.ghzku.2019.002510.
    [47] OTSU N. A threshold selection method from gray-level histograms[J]. IEEE Transactions on Systems, Man, and Cybernetics, 1979, 9(1): 62–66. doi: 10.1109/TSMC.1979.4310076.
    [48] HARTIGAN J A and WONG M A. Algorithm AS 136: A K-means clustering algorithm[J]. Journal of the Royal Statistical Society. Series C (Applied Statistics), 1979, 28(1): 100–108. doi: 10.2307/2346830.
    [49] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]. 2017 IEEE International Conference on Computer Vision (ICCV), Venice, Italy, 2017: 2999–3007. doi: 10.1109/ICCV.2017.324.
    [50] JOCHER G, STOKEN A, BOROVEC J, et al. YOLOv5[EB/OL]. https://github.com/ultralytics/yolov5, 2020.
    [51] XIONG Hongqiang, LI Jing, LI Zhilian, et al. GPR-GAN: A ground-penetrating radar data generative adversarial network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024, 62: 5200114. doi: 10.1109/TGRS.2023.3337172.
    [52] WANG Zhixu, HOU Guangyu, XIN Zhihui, et al. Detection of SAR image multiscale ship targets in complex inshore scenes based on improved YOLOv5[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2024, 17: 5804–5823. doi: 10.1109/JSTARS.2024.3370722.
    [53] SHI Jingye, ZHI Ruicong, ZHAO Jingru, et al. A double-head global reasoning network for object detection of remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024, 62: 5402216. doi: 10.1109/TGRS.2023.3347798.
    [54] LI Tianhua, SUN Meng, HE Qinghai, et al. Tomato recognition and location algorithm based on improved YOLOv5[J]. Computers and Electronics in Agriculture, 2023, 208: 107759. doi: 10.1016/j.compag.2023.107759.
    [55] LIU Wei, QUIJANO K, and CRAWFORD M M. YOLOv5-tassel: Detecting tassels in RGB UAV imagery with improved YOLOv5 based on transfer learning[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15: 8085–8094. doi: 10.1109/JSTARS.2022.3206399.
    [56] XIA Guisong, BAI Xiang, DING Jian, et al. DOTA: A large-scale dataset for object detection in aerial images[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 3974–3983. doi: 10.1109/CVPR.2018.00418.
    [57] LEI Songlin, LU Dongdong, QIU Xiaolan, et al. SRSDD-v1.0: A high-resolution SAR rotation ship detection dataset[J]. Remote Sensing, 2021, 13(24): 5104. doi: 10.3390/rs13245104.
    [58] ACHANTA R and SÜSSTRUNK S. Saliency detection using maximum symmetric surround[C]. 2010 IEEE International Conference on Image Processing, Hong Kong, China, 2010: 2653–2656. doi: 10.1109/ICIP.2010.5652636.
    [59] WANG Wensheng, REN Jianxin, SU Chang, et al. Ship detection in multispectral remote sensing images via saliency analysis[J]. Applied Ocean Research, 2021, 106: 102448. doi: 10.1016/j.apor.2020.102448.
    [60] 李志远, 郭嘉逸, 张月婷, 等. 基于自适应动量估计优化器与空变最小熵准则的SAR图像船舶目标自聚焦算法[J]. 雷达学报, 2022, 11(1): 83–94. doi: 10.12000/JR21159.

    LI Zhiyuan, GUO Jiayi, ZHANG Yueting, et al. A novel autofocus algorithm for ship targets in SAR images based on the adaptive momentum estimation optimizer and space-variant minimum entropy criteria[J]. Journal of Radars, 2022, 11(1): 83–94. doi: 10.12000/JR21159.
    [61] 罗汝, 赵凌君, 何奇山, 等. SAR图像飞机目标智能检测识别技术研究进展与展望[J]. 雷达学报, 2024, 13(2): 307–330. doi: 10.12000/JR23056.

    LUO Ru, ZHAO Lingjun, HE Qishan, et al. Intelligent technology for aircraft detection and recognition through SAR imagery: Advancements and prospects[J]. Journal of Radars, 2024, 13(2): 307–330. doi: 10.12000/JR23056.
  • 期刊类型引用(1)

    1. 肖雨晴,罗亮,于博向,杨志渊,郝连东,艾君鹏. 面向海域环境感知的视觉处理方法研究综述. 计算机工程与应用. 2024(23): 62-78 . 百度学术

    其他类型引用(0)

  • 加载中
图(16) / 表(7)
计量
  • 文章访问数: 775
  • HTML全文浏览量: 192
  • PDF下载量: 270
  • 被引次数: 1
出版历程
  • 收稿日期:  2024-03-12
  • 修回日期:  2024-05-11
  • 网络出版日期:  2024-06-07
  • 刊出日期:  2024-08-28

目录

/

返回文章
返回