Processing math: 100%

SARMV3D-1.0: SAR微波视觉三维成像数据集

仇晓兰 焦泽坤 彭凌霄 陈健堃 郭嘉逸 周良将 陈龙永 丁赤飚 徐丰 董秋雷 吕守业

仇晓兰, 焦泽坤, 彭凌霄, 等. SARMV3D-1.0: SAR微波视觉三维成像数据集[J]. 雷达学报, 2021, 10(4): 485–498. doi: 10.12000/JR21112
引用本文: 仇晓兰, 焦泽坤, 彭凌霄, 等. SARMV3D-1.0: SAR微波视觉三维成像数据集[J]. 雷达学报, 2021, 10(4): 485–498. doi: 10.12000/JR21112
QIU Xiaolan, JIAO Zekun, PENG Lingxiao, et al. SARMV3D-1.0: Synthetic aperture radar microwave vision 3D imaging dataset[J]. Journal of Radars, 2021, 10(4): 485–498. doi: 10.12000/JR21112
Citation: QIU Xiaolan, JIAO Zekun, PENG Lingxiao, et al. SARMV3D-1.0: Synthetic aperture radar microwave vision 3D imaging dataset[J]. Journal of Radars, 2021, 10(4): 485–498. doi: 10.12000/JR21112

SARMV3D-1.0: SAR微波视觉三维成像数据集

DOI: 10.12000/JR21112
基金项目: 国家自然科学基金重大项目(61991420, 61991421, 61991424)
详细信息
    作者简介:

    仇晓兰(1982–),女,中国科学院空天信息创新研究院研究员,博士生导师。主要研究领域为SAR成像处理、SAR图像理解,IEEE高级会员、IEEE地球科学与遥感快报副主编、雷达学报青年编委

    丁赤飚(1969–),男,研究员,博士生导师。主要从事合成孔径雷达、遥感信息处理和应用系统等领域的研究工作,先后主持多项国家重点项目和国家级遥感卫星地面系统工程建设等项目,曾获国家科技进步奖一等奖、二等奖,国家发明奖二等奖等奖励

    通讯作者:

    仇晓兰 xlqiu@mail.ie.ac.cn

    丁赤飚 cbding@mail.ie.ac.cn

  • 责任主编:张群 Corresponding Editor: ZHANG Qun
  • 中图分类号: TN957.52

SARMV3D-1.0: Synthetic Aperture Radar Microwave Vision 3D Imaging Dataset

Funds: The National Natural Science Foundation of China (NSFC)(61991420, 61991421, 61991424)
More Information
  • 摘要: 三维成像是合成孔径雷达技术发展的前沿趋势之一,目前的SAR三维成像体制主要包括层析和阵列干涉,但面临数据采集周期长或系统过于复杂的问题,为此该文提出了SAR微波视觉三维成像的新技术思路,即充分挖掘利用SAR微波散射机制和图像视觉语义中蕴含的三维线索,并将其与SAR成像模型有效结合,以显著降低SAR三维成像的系统复杂度,实现高效能、低成本的SAR三维成像。为推动SAR微波视觉三维成像理论技术的发展,在国家自然科学基金重大项目支持下,拟构建一个比较完整的SAR微波视觉三维成像数据集。该文概述了该数据集的构成和构建规划,并给出了第一批发布数据(SARMV3D-1.0)的组成和信息描述方式、数据集制作的方法,为该数据集的共享和应用提供支撑。

     

  • 三维成像是合成孔径雷达(Synthetic Aperture Radar, SAR)技术发展的重要前沿方向之一。SAR三维成像可以直接获得目标的三维电磁散射结构,消除SAR图像中由成像机理导致的收缩、叠掩、顶底倒置等现象,显著提升目标识别和解译能力,对全天时/全天候的三维环境构建、陡峭地形和城市测绘、目标精细化解译和灾害评估等具有重要意义。

    目前国内外提出并开展研究的SAR三维成像技术体制,主要包括单通道层析成像和多通道阵列干涉,其能获得多角度观测信息来供三维成像使用。然而,目前即便是采用稀疏成像等处理方法,通常仍然需要数十次层析飞行或十余个天线阵列单元,数据采集周期长或雷达系统极其复杂,对于星载SAR的控轨要求和机载SAR的航迹控制要求均非常高,大规模推广应用难度很大。因此,亟需创新SAR三维成像的理论方法,实现自动化、高效能、低成本的SAR三维成像技术。

    深入分析现有SAR三维成像处理技术,主要基于合成孔径的理论框架,利用成像观测的精确物理几何模型对雷达回波进行数学建模,基于“双/多角度”观测图像的像素点匹配、相干合成或几何求解来获得三维信息。在三维成像时仅利用了该像素点多角度图像的角度维信息,而并未利用该像素所在二维图像中所包含的物体结构、属性以及该像素的散射机制信息。

    实际上,单幅二维SAR图像已经蕴含了环境与目标的结构、纹理、遮挡关系等许多可被三维空间认知利用的空间线索,如,经过一定训练的判读人员都可以通过观测二维图像,在脑海中形成粗略的“三维影像”;SAR回波的散射机制蕴含着目标的三维结构线索,通过角度/频率/极化等维度的散射机制分析,也可以挖掘出目标三维结构的一些信息。

    为此,中国科学院空天信息创新研究院(下简称“中科院空天院”)牵头,联合复旦大学等单位,提出了一个新的研究思路:能否将雷达回波和二维图像中隐含的三维线索,通过微波散射机制(微波)和图像视觉语义(视觉)挖掘的方法加以提取,并引入到传统的SAR成像方法中,从而降低所需多角度观测的数据量,实现高效的三维成像,发展出全新的“SAR微波视觉三维成像理论与方法”。随后,中科院空天院、复旦大学与中科院自动化所、北京大学、北京市遥感信息研究所等单位一起进行了充分的论证,并向国家自然科学基金委员会提出了建议和申请,获得了国家自然科学基金重大项目的支持。在该项目支持下,在SAR微波视觉三维成像理论方法研究的同时,还拟研制一套小型化无人机载一发四收全极化SAR,称为微波视觉三维SAR验证系统(MV3DSAR),进行数据获取和技术验证,并拟构建和公开发布一套典型场景和目标的SAR微波视觉三维成像数据集,为该领域的研究提供必要的基础平台,也为理论方法的应用转化提供测试数据。

    本文第2小节给出SAR微波视觉三维成像数据集的构建规划;第3小节给出数据集中包含的SAR图像建筑物语义分割数据集1.0版本的的构建方法和数据信息内容;第4小结给出数据集中包含的SAR三维成像数据集1.0版本的构建方法、实验结果和包含的数据信息内容;第5小节总结全文。

    SAR微波视觉三维成像理论方法的研究涉及三维电磁散射机理及微波视觉信息感知逆问题、SAR图像视觉三维认知理论与方法、基于微波视觉的SAR三维成像理论与方法3个关键科学问题。为了促进各个科学问题的研究,SARMV3D数据集构成如图1所示。

    图  1  SARMV3D数据集构成示意图
    Figure  1.  Composition of SARMV3D dataset

    SARMV3D数据集包括三维电磁散射机制研究和SAR图像视觉三维认知研究两个辅助数据集和一个基于微波视觉的SAR三维成像研究综合数据集。其中:

    (1) 三维电磁散射机制研究数据集,主要用于研究和验证典型散射机制及散射机制组合的电磁建模、表征、三维特征参数反演估计的正确性,包括典型散射机制及其组合的仿真、暗室测量和外场测量数据等,主要由复旦大学负责构建;

    (2) SAR图像视觉三维认知研究数据集,主要用于研究和验证从SAR图像中挖掘和识别三维基元、三维结构和三维目标方法的有效性和正确性,包括高分辨率SAR图像以及典型建筑等目标和典型结构基元的标注结果,主要由中科院空天院和自动化所负责构建;

    (3) 基于微波视觉的SAR三维成像数据集,是最主要的综合数据集,包括城镇场景、复杂地形、典型目标3个主要的类型,每个类型将包括SAR层析或阵列干涉获得的单视复图像(SLC)、相关的成像参数文件、光学摄影等获得的三维建模数据以及激光雷达获得的高精度三维点云数据,主要由中科院空天院牵头进行构建。

    现阶段,MV3DSAR正在研制过程中,预计2021年年底完成,待系统研制完成后,将进行大量的数据采集工作,以完成数据集构建。目前,为了推进SAR微波视觉三维成像理论方法的研究,作者基于中科院空天院的阵列干涉SAR实验系统获取的数据,以及高分三号卫星获取的高分辨率SAR图像数据,初步构建SARMV3D的1.0版本。该版本包括了SAR微波视觉三维认知研究数据集中典型建筑物语义分割数据集的1.0版本,以及基于微波视觉的SAR三维成像数据集中城镇场景类数据的1.0版本,见图1中绿色背景部分,上述数据集已经发布在《雷达学报》网站上,具体链接见附录。下面两个小节将分别进行介绍。

    高楼林立的建筑区域场景是SAR三维成像的一个重要应用场景,一方面通过三维成像消除建筑物之间及其与地面目标之间的叠掩,有利于场景的理解与目标的发现和识别,另一方面三维成像与时序干涉相结合,有利于建筑区域的形变监测。为此,在数据集构建方面,将城镇场景作为一类典型场景,将建筑物作为一类典型研究对象开展研究。本文SAR建筑物实例语义分割数据集(Synthetic Aperture Radar Microwave Vision 3D Imaging - Building Instance Segmentation Dataset,简称SARMV3D-BIS)与现有一些遥感图像建筑物分割数据集,如光学遥感图像建筑物分割数据集Inria Aerial Image[1], WHU building dataset[2]等,以及目前仅有的包含SAR图像建筑物分割的数据集SpaceNet[3],有如下几点显著区别:(1)本数据集面向SAR微波视觉三维成像,对建筑物的语义标注更加精细,每个建筑物都标注了建筑物的立面、屋顶和阴影3个部分,并且进行了实例标注;(2)本数据集基于单视复图像数据进行标注,从而能够与三维成像更好结合,也有利于散射特性的挖掘和SAR图像三维认知方法研究。

    本文1.0版本的面向微波视觉三维成像的SAR建筑物语义分割数据集的构成如表1所示。

    表  1  SAR建筑物语义分割数据集构成
    Table  1.  Composition of SARMV3D-BIS dataset
    序号内容文件后缀说明
    11B级图像切片*L1B.jpgf切片尺寸1024×1024
    uint8量化
    2SLC图像切片*L1A.dat切片尺寸1024×1024,与1B图像严格对应,int16量化,实部虚部交替存储
    3叠掩次数图*Layover.jpgf切片每个像素对应的叠掩次数,uint8量化
    4Mask图像*Mask.jpgf每个切片对应的建筑物分割可视化结果图像,黑色表示地面、红色表示立面、白色表示屋顶、蓝色表示阴影,如图2所示
    5标注文件*.json训练、测试和验证各一个JSON文件,详见3.2.3小节
    下载: 导出CSV 
    | 显示表格
    图  2  建筑物语义分割数据集构成示意图
    Figure  2.  Composition of SARMV3D-BIS dataset

    该数据集的原始SAR图像来自GF-3聚束模式的美国奥马哈市地区图像。现阶段选择这个区域进行数据集构建主要基于如下考虑:奥马哈地区为2019年IEEE GRSS Data Fusion大场景三维重建比赛[4]的选定区域,该区域建筑类型丰富,并具有大量的Worldview的光学影像;本团队购买了该地区的Worldview光学立体像对和生成的高精度数字地表模型(Digitul Surface Model, DSM),并申请了GF-3卫星该地区的影像14景用于数据集制作。在数据集后续版本中,将继续增加其他典型建筑区域的数据。

    本数据集构建的难点在于建筑物的实例分割和每栋建筑物立面、屋顶、阴影的精细化语义标注。由于SAR成像几何和散射机制的复杂性,建筑区域的SAR图像人工解译也具有相当大的难度,即使请有经验的判读员也很难人工准确标注出每个建筑和建筑的立面、屋顶和阴影。为此,课题组提出了基于三维模型仿真逆投影进行标注的系统性流程和方法,方法流程如图3所示。首先进行建筑区域场景三维模型的构建;然后根据每景影像的SAR成像参数和带地理信息的三维模型数据进行SAR成像投影几何关系的计算,得到阴影、屋顶、建筑立面在SAR一级图像上的投影范围,并根据每个像素对应的来自不同部分的散射贡献数量,得到叠掩次数图;最后对SAR图像及其对应的Mask图和叠掩次数图进行标准化裁切,并按照既定的格式生成标注文件,从而形成了符合规范的数据集。下面详细介绍每个步骤的处理方法。

    图  3  数据集构建流程图
    Figure  3.  Flow chart of construction of SARMV3D-BIS dataset
    3.2.1   建筑区域场景三维模型构建

    首先通过开源网络资源获取建筑区域的建筑足印地图。课题组基于openstreetmap.org网站提供街道地图数据的下载服务,选择目标区域范围和输出格式后,即可下载该区域的公开地图(Open Street Map, OSM)数据,包括了路网、建筑、路灯、公共区域等多类信息,本团队根据信息类型提取其中的建筑足印信息,提取后的建筑足迹信息可视化结果如图4所示。在具体构建过程中,本团队以geojson格式存储该足印信息,并将该足印信息与该区域的参考高精度DSM进行对齐。由于两个数据的经纬度均具有较高的精度,通过人工寻找特征结构能够很好地实现对齐。然后根据对齐后每个建筑足印中心的经纬度直接提取该位置对应DSM中的高度值作为建筑物高度,从而相当于形成了建筑物的LOD1模型,无建筑物足印的部分高度直接取DSM中对应的高度。

    图  4  建筑足迹信息提取
    Figure  4.  Extraction of building footprint
    3.2.2   SAR图像建筑物实例语义标注方法

    通过上述步骤获取含建筑物LOD1模型的DSM数据后,需要将其投影至SAR图像以确定建筑不同面的投影范围。此处采用SAR图像产品自带的RPC(Rational Polynomial Coefficients)参数进行处理。由于SAR图像定位存在一定的误差,上述DSM数据也存在一定的定位误差。为了保证投影后能够对准,首先根据上述DSM数据及其对应的高分辨率光学影像数据,寻找SAR和光学均可见的特征点(如路灯灯柱等)作为控制点,根据这些点在DSM数据上获取的经纬高信息,修正SAR图像的RPC参数。基于修正后的RPC参数,就可得到大地坐标(Lat,Lon,H)和影像坐标(rl,rs)之间的对应关系,相关计算方法在SAR领域已相当成熟,可参考文献[5,6]等,在此不再赘述。

    明确了投影计算关系后,还需确定能被雷达波照射和不能被雷达波照射的相交关系才能确定阴影等的范围,下面给出具体的计算步骤与方法。

    (1) 屋顶:首先确定建筑物屋顶在SAR 1级图像中的投影范围。根据建筑物足印信息中存储的建筑物屋顶多边形角点的经纬度以及在DSM中获取的高度,利用RPC参数可直接计算得到这些多边形角点在1级图像中的像素号,从而可连接形成一个在1级图像中的封闭区域,如图5所示。通过判断每条边所在的像素在相同方位向的近距是否有其他边存在,可以判断该边所对应的立面能否被雷达波照射到。图5ABBC的立面能被照射到,而CD, DE, EFFA所在的立面则无法被照射到。

    图  5  建筑物屋顶区域示意图
    Figure  5.  Schematic diagram of building roof

    (2) 建筑立面:根据上文的判断规则,对能够照射到的立面,计算建筑立面的投影区域。方法是对该立面在足印中对应边的顶点的经度纬度和所在地面高度以及所在屋顶高度组成的4个点,利用RPC参数,求得其在1级图像中对应的像素点,形成立面区域,如图6(a)AABB, BBCC所示,在斜距轴上,立面为图6(b)中的蓝色区域,屋顶为黄色部分,黑色点为墙面与地面二次散射的汇聚点。由图6可见,立面和屋顶的投影范围是有重叠的,在本数据集的标注json文件中,完整记录了屋顶、立面每个区域的信息,但在Mask图像中,屋顶和立面重叠的部分取的是屋顶的标签。

    图  6  SAR图像中建筑物立面投影示意图
    Figure  6.  Projection of building elevation

    (3) 建筑阴影:建筑阴影区域的计算相对复杂一些,首先根据屋顶投影时确定的未被雷达波照射的边来确定阴影的边界。例如对于FA这条雷达波无法照射到的边,先对A点和F点求关于地面的等效镜像点˜A, ˜F,也即A点的经度纬度高度为[P,L,hg+hA],则˜A[P,L,hghAtan2θ],其中hg为建筑区域周边的地面高度,hA为建筑物屋顶相对于地面的高度,θ为当地的入射角;然后对˜A利用RPC参数求得其在SAR 1级图像中的投影位置,如图7A所示;从图7中可见˜A与SAR的距离和阴影边界A与SAR的距离是一样的,因此可以采用该等效镜像点的投影计算得到阴影边界;同理,可计算得到F, E, D, C,从而AFEDCCDEFA形成了建筑阴影的外边界,如图8所示;将该范围除去屋顶顶面和建筑立面投影范围的交集,就是最终的阴影范围。

    图  7  等效镜像点示意图
    Figure  7.  Schematic diagram of equivalent mirror point
    图  8  SAR图像中建筑物阴影投影示意图
    Figure  8.  Projection of building shadow in SAR image

    上述解释了单个建筑的投影范围计算方法,对于建筑物与建筑物之间离得比较远,没有复杂叠掩和遮挡关系的情况,就可以根据上述投影结果进行语义分割标注。然而,对于建筑物与建筑物之间离得比较近的情况,还需额外考虑相互之间的影响关系,判断的方法如下:

    (1) 首先,根据建筑物足印多边形在地面上的位置和高度信息,得到其在SAR 1级图像的投影,如图9中的蓝色图像多边形所示,并根据投影多边形的斜距大小,判断哪个建筑在前、哪个建筑在后。

    图  9  SAR图像中多个建筑物的投影示意图
    Figure  9.  Projection of multiple buildings in SAR image

    (2) 其次,采用上述屋顶、立面和阴影范围的计算方法,得到每个建筑的屋顶、立面和阴影在1级图像中的范围;从而对于该SAR图像的每个像素,都可以得到其对应的语义属性,对于那些存在复杂叠掩和遮挡关系的地区,每个像素都存在多个属性。

    (3) 对标注的语义根据遮挡关系进行约简。如后一个建筑的立面或屋顶位于前一个建筑的阴影区域,如图9(a)所示,则该区域为阴影,在Mask图中标识为阴影;如后一个建筑的立面或屋顶位于前一个建筑的立面和屋顶区域,如图9(b)所示,则Mask图中优先标识为立面,其次为屋顶;在标注的JSON文件中则完整保留每个建筑实例的各个区域信息。

    3.2.3   数据集标注规范

    基于上述方法,中科院空天院基于GF-3卫星聚束模式数据构建了SARMV3D-BIS 1.0版本。需要说明的是,由于本数据集制作采用的建筑足印数据和Worldview获取的DSM数据与SAR影像数据时不相同,因此难免存在标注噪声。本团队通过人工目视判读进行了一定的筛选剔除,并综合考虑建筑物语义分割的难度和标注的置信度,将数据集分成了困难(D)、中等(M)和简单(S) 3种不同难度的子数据集。其中,困难版包含尺寸为1024×1024大小的图像1588张,涵盖建筑实例4.8万余个,其中小型建筑比较多;中等版和简单版分别包含尺寸为1024×1024大小的图像773张和234张,分别涵盖建筑实例1.5万和6000余个。为了便于研究者基于相同的数据集进行方法的比较,本团队按照6:2:2的比例,随机分成了训练集、验证集和测试集,每个子集的标注规范是完全一致的。SARMV3D-BIS 1.0数据集的构成已在表1中明确,下面重点给出标注JSON文件的信息格式。

    为了与国际已有的图像语义分割数据集保持一致,便于研究者应用,本数据集的标注JSON文件格式参考了微软发布的MSCOCO数据集[7]。JSON文件包含的结构体类型有info, images和annotations 3种,info数组只有一组,在文件起始处描述文件整体的基本信息,而images数组、annotations数组的数量均等于图像切片的数量,对每个图像切片进行分别描述。JSON文件的字段及含义如表2表3所示。

    表  2  SARMV3D-BIS数据集的标注文件
    Table  2.  Annotation file of SARMV3D-BIS dataset
    层级1字段层级2字段说明
    infodescription描述数据集基本信息
    url数据集的网络链接
    version数据集版本
    contributor数据集贡献的单位和团队等信息
    imagesfile_name对应图像切片的文件名,包含切片编号
    height图像切片的高度尺寸
    width图像切片的宽度尺寸
    date_captured标注信息生成时间
    annotationsinstance_id建筑实例的唯一编号
    segmentation实例分割信息,见表3
    area建筑物投影于图像上所占的像素面积(不含阴影区域)
    image_id该建筑实例对应的图像切片编号
    bbox包括[X,Y,W,H]四个数值,[X,Y]为该建筑实例的外接矩形在对应图像切片中的左上角像素,[W,H]为外接矩形的宽度及高度
    下载: 导出CSV 
    | 显示表格
    表  3  segmentation字段信息
    Table  3.  Information of ‘segmentation’ field
    层级2字段层级3字段说明
    segmentationcategory_id1;表示立面
    mask[X1,Y1], [X2,Y2], ···, [Xn,Yn],为立面多边形的角点像素坐标
    category_id2;表示屋顶
    mask[X1,Y1], [X2,Y2], ···,[Xn,Yn],为屋顶多边形的角点像素坐标
    category_id3;表示阴影
    mask[X1,Y1], [X2,Y2], ···, [Xn,Yn],为阴影多边形的角点像素坐标
    下载: 导出CSV 
    | 显示表格

    实例分割不仅要正确找到图像中的目标,还要对其进行精确的语义分割,分割任务与检测、分类任务是同时进行的。目前,计算机视觉中实现SOTA的实例分割神经网络主要有Mask RCNN[8], SOLOv2[9], Yolact[10]等。其中,Mask RCNN具有极高的实例分割性能和较好的泛化能力。Mask RCNN通过感兴趣区域像素到像素的对齐(RoI Align),保留真实确定的空间位置,很好地解决了感兴趣区域池化(ROI Pooling)操作中两次量化造成的区域不匹配的问题,同时为每个感兴趣区域增加一个和边界框回归平行的分支区预测目标的掩膜,实现了掩码预测和类别预测的解耦。为此,本文选择Mask RCNN来进行本数据集的测试,验证数据集的可用性。

    Mask RCNN能够检测SAR图像中的建筑物,同时为每个建筑物实例生成高质量的分割掩膜。由于当前实例分割研究的主流方法均认为一个实例中只有一个语义类别,因此本团队将SARMV3D-BIS 1.0数据集中的叠掩和屋顶之和(不计阴影)作为SAR图像建筑物的实例掩膜,使用Mask RCNN进行初步实验,并给出该数据集的实例分割性能基准。

    Mask RCNN训练SARMV3D-BIS 1.0分为两阶段。第1阶段为头部训练,学习率为0.001,训练轮数为500,第2阶段为对网络所有层的微调,训练轮数为300,学习率为0.0001。实验平台为pytorch 1.4,硬件为RTX 8000 GPU,以ResNet-101-FPN为骨干的Mask RCNN在SARMV3D-BIS 1.0数据集中的训练速度为3.3 fps。

    Mask RCNN的损失函数[8]包括分类损失、回归损失和掩码损失。使用Mask RCNN在SARMV3D-BIS 1.0(S)上的训练过程中验证集损失变化曲线如图10所示,最终的各类实例分割损失[7]表4所示。评价标准方面,采用均值平均精度(mAP)来衡量检测及分割性能,实验结果如表5表6所示,其中,第3列为MSCOCO评价标准[11],评估在共10个不同的交并比(IoU)[0.5:0.05:0.95]下的平均mAP,第4列为Pascal VOC[12]评判标准,评测IoU在阈值为0.5下的mAP值,第5~8列为符合MSCOCO评价标准[11]中的其余几项指标。SARMV3D-BIS 1.0(S)数据集的建筑物实例分割结果如图11所示。

    图  10  使用Mask RCNN在SARMV3D-BIS 1.0(S)上的训练过程中验证集损失变化曲线
    Figure  10.  Loss curve in the train process on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN
    表  4  使用Mask RCNN在SARMV3D-BIS 1.0(S)验证集上的实例分割损失
    Table  4.  Loss of instance segmentation on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN
    backboneLOSSLOSSbbmrcnnLOSSclsmrcnnLOSSmmrcnnLOSSbbRPNLOSSclsRPN
    ResNet-50-FPN0.37850.04780.04050.18900.06670.0346
    ResNet-101-FPN0.34730.04220.03590.18560.04980.0338
    下载: 导出CSV 
    | 显示表格
    表  5  使用Mask RCNN在SARMV3D-BIS 1.0(S)验证集上的检测框mAP
    Table  5.  mAP of bounding box on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN
    backboneAPbbAPbb50APbb75APbbSAPbbMAPbbL
    ResNet-50-FPN16.929.217.423.923.215.9
    ResNet-101-FPN19.130.422.527.428.216.1
    下载: 导出CSV 
    | 显示表格
    表  6  使用Mask RCNN在SARMV3D-BIS 1.0(S)验证集上的掩膜mAP
    Table  6.  mAP of mask on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN
    backboneAPmAPm50APm75APmSAPmMAPmL
    ResNet-50-FPN14.427.014.723.718.813.7
    ResNet-101-FPN16.829.518.628.624.114.5
    下载: 导出CSV 
    | 显示表格
    图  11  使用Mask RCNN在SARMV3D-BIS 1.0(S)验证集上的实例分割结果
    Figure  11.  Results of instance segmentation on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN

    由结果可见,直接采用当前SOTA方法进行本数据集的实例分割达到的精度尚较低,与光学数据集分割精度指标相比存在较大差距。原因是SAR图像与光学图像存在很大的差别,例如SAR图像中建筑物轮廓往往不够明显,屋顶等平坦表面大多呈现弱散射,不易与地面区分。这说明SAR图像建筑物实例分割具有很大的挑战性,还有很大的研究空间。SARMV3D-BIS 1.0作为首个公开高精度标注的SAR图像建筑物实例分割数据集,能够为本领域研究提供良好的支撑,具有较高的可用性和研究价值。

    目前,国际上发布的可用于三维成像研究的数据集还非常少,仅有的是美国空军实验室发布的GOTCHA数据集[13]。其为X波段圆迹SAR模式获取目标全方位角的观测数据,并通过改变轨道高度获取了8个不同俯仰角的观测,所用的极化方式为全极化,带宽640 MHz。该数据场景范围为100 m×100 m左右,场景中的主要目标为车辆,叠掩情况相对而言不是很严重,如图12所示。

    图  12  GOTCHA数据集幅度图像
    Figure  12.  Amplitude image of GOTCHA dataset

    2015年,中科院空天院成功研制了国际上第一部高分辨率分布式阵列干涉合成孔径雷达三维成像实验系统[14],该系统采用侧视成像模式,天线等效相位中心沿交轨向分布,利用阵列天线结合MIMO技术,通过一次飞行获取三维观测数据,相干性好、时效性强,具备单次航过实现三维成像的能力,图13为该阵列干涉SAR系统。

    图  13  阵列SAR飞行平台及天线
    Figure  13.  Array InSAR

    为促进SAR三维成像领域的技术发展,中科院空天院基于该系统获取的数据,首次于《雷达学报》网站上发布了机载阵列干涉SAR三维成像数据。

    本文发布的1.0版本SARMV3D Imaging数据集,选用2015年和2019年阵列干涉SAR系统在山西运城和四川峨眉山开展飞行试验获取数据中的部分数据,数据信息如表7所示。数据集中两个区域主要包含的地物均为叠掩较为严重的建筑物,如图14图15所示。数据集的构成如表8所示。

    表  7  SARMV3D Imaging数据集信息
    Table  7.  Information of SARMV3D Imaging dataset
    地区通道数带宽图像尺寸极化
    山西运城8500 MHz3100(方位)×1220(距离)HH
    四川峨眉山12810 MHz3600(方位)×1800(距离)HH
    下载: 导出CSV 
    | 显示表格
    图  14  运城区域数据影像
    Figure  14.  Data of Yuncheng area
    图  15  峨眉山区域SAR图像
    Figure  15.  Data of mount Emei area
    表  8  SARMV3D Imaging数据集构成
    Table  8.  Composition of SARMV3D Imaging dataset
    文件夹名文件名后缀说明
    运城、峨眉山*.jpg1B级SAR图像,uint16量化
    *ch1~chN.datSLC数据,float32格式,实部虚部交替存放
    *3Dresult.dat三维成像结果数据,float32格式,5个一组,记录每个散射点(X, Y、高度、散射系数实部及散射系数虚部)
    *Layover.jpg叠掩次数图,uint8格式
    *AuxPara.dat三维成像所需辅助数据,数据格式见辅助数据说明文件
    *readme.pdf说明文件,包括各个通道天线相位中心相对位置等处理所需要的信息
    下载: 导出CSV 
    | 显示表格

    为了便于本领域研究人员应用该数据集开展研究,本团队对机载阵列干涉SAR数据进行了一系列预处理,从而规避系统误差带来的影响。下面简要给出处理方法。

    4.2.1   幅相误差估计补偿方法

    受工艺水平等的限制,阵列天线多通道回波信号之间难免存在幅度和相位误差,而由于SAR成像主要利用了多通道回波信号之间的相位关系,通道间的幅相误差将会严重影响三维成像的质量。图16展示了通道间幅相误差对于三维重建结果的影响。因此,通道间幅相误差需要高精度的估计和补偿。

    图  16  幅相误差补偿前后的三维点云结果对比
    Figure  16.  Comparison of 3D point cloud results

    课题组采用基于定标器估计和基于场景三维图像熵优化估计两种方法相互验证的策略,获取准确可靠的幅相误差估计结果来进行补偿。

    首先基于场景中的定标器的幅相误差估计方法[15],通过精确测量定标器的三维位置结合飞行平台的差分GPS信息,可以计算SAR图像中定标点的理想幅度与相位。通过比较定标点的理想相位历程和真实图像相位,结合地面建筑结构先验知识,可以迭代估计通道间幅相误差。

    定标器数量非常有限,并且由于摆放误差等原因,也存在一定的可靠性风险。为此课题组提出基于三维图像熵约束的估计方法。假设不存在通道相位误差的情况下,传统的层析SAR三维成像模型如式(1)所示:

    g=(ej2πζ1s1···ej2πζ1sMej2πζNs1···ej2πζNsM)(γ1γM) (1)

    如果考虑到通道间的相位误差,则上述表达式转化为

    g=(ej(2πζ1s1+δ1)···ej(2πζ1sM+δ1)ej(2πζNs1+δN)···ej(2πζNsM+δN))(γ1γM) (2)
    g=ej(2πζs+δ)γ (3)

    其中,δ1,δ2,···,δN为每个通道的相位误差,如以第1个通道为基准,则存在N–1个未知量。针对上述模型,本团队提出以重建三维点云的三维图像熵为优化准则的相位误差估计方法,以式(3)中的相位误差δ作为待优化变量,在重建三维模型的同时对通道间的相位误差进行了估计补偿,具体实现方法可参考团队前期工作[16]

    图17展示了本方法对整幅图像分块处理后10个区域估计的结果,可见估计得到的通道间相位误差基本一致,侧面说明了估计的可靠性;其中有1个区域的误差估计结果与整体结果有些偏差,经检验该区域对应图像为水体,信噪比较低,因此应用时将其剔除。图18给出了基于三维图像熵估计的相位误差平均结果和基于定标点估计结果差值的曲线,去除因采用参考高程不一致带来的线性偏差后,两者的差异在8°以内,验证了两种估计方法的可靠性。

    图  17  通道间相位误差估计结果
    Figure  17.  Results of phase error estimation between channels
    图  18  两种相位估计结果的比较
    Figure  18.  Comparison results of two phase estimation methods

    基于上述相位误差估计方法,本团队对运城区域和峨眉山区域的数据进行了相位误差补偿,同时采用幅度比值法进行了通道幅度误差估计和补偿,从而减小了系统误差的影响。

    4.2.2   三维成像方法

    利用上述经过幅相误差补偿的三维成像数据,采用团队近期提出的基于邻域约束的稀疏重建算法[17]进行三维成像。传统SAR三维成像算法逐像素孤立求解,不考虑像素邻域信息,重建结果杂散点多、信杂比低。为此本团队引入了与语义相关的概率约束,在每个像素的8-邻域内通过相邻像素高程位置的相关性对杂散点位置进行约束。研究发现,通常散射系数相关性越大,空间分布聚集性越强,基于此结论,采用局部高斯-马尔可夫随机场对邻域高程分布进行建模,对相邻像素的高度进行联合求解,有效提升了重建精度并减少了杂散点数量。处理得到的三维成像结果如图19所示,图中颜色代表了散射点的海拔。

    图  19  SARMV3D Imaging数据集三维成像结果
    Figure  19.  3D imaging results of SARMV3D Imaging dataset
    4.2.3   叠掩次数图生成方法

    在获得三维成像结果的同时,为了给SAR微波视觉三维成像研究提供额外的辅助参考信息,本团队同步生成了一个叠掩次数图。研究表明,受限于图像信噪比等原因,SAR三维重建得到的点云往往存在大量的杂散点。为了滤除杂散点,可以通过幅值检验或广义似然比检验来判断重建的散射点是否为真实散射点。若某个散射点判断为虚假散射点,则将其从三维点云中剔除。本数据集中提供的Layover.jpg文件包含了图像中每个像素包含的真实散射点个数,即叠掩次数。本团队采用基于幅值检验的方法生成上述叠掩次数图,将散射系数幅值小于事先设定阈值的散射点剔除后,统计二维图像每个像素经三维成像后分离出来的有效散射点个数,作为参考叠掩次数。图20为运城和峨眉山两块区域的叠掩次数图。

    图  20  SARMV3D Imaging数据集区域叠掩次数图
    Figure  20.  Overlay times map of SARMV3D Imaging dataset

    本文介绍了SAR微波视觉三维成像数据集的构建规划,并介绍了本次发布的1.0版本数据集(SARMV3D-1.0)的构成信息和构建方法。SARMV3D-1.0数据集包括了SAR建筑物实例语义分割数据集1.0版本(SARMV3D-BIS 1.0)和SAR三维成像数据集1.0版本(SARMV3D-Imaging 1.0)。目前在SAR三维成像领域,国际上公开可用的数据集非常稀缺,本文在国际上首次发布了机载阵列干涉SAR三维成像数据集,希望为SAR三维成像研究提供急需的测试和验证平台。

    在国家自然科学基金重大项目的支持下,项目团队后续将持续致力于该数据集的构建和发展,并将根据数据集的应用反馈持续改进完善。

    致谢 本数据集的构建得到了国家自然基金委重大项目的支持和指导专家组的指导,得到了项目组课题承担单位复旦大学、中科院自动化所、北京市遥感信息研究所等的帮助,构建本数据集的GF-3卫星图像数据由国家卫星海洋应用中心无偿提供,在此一并表示感谢。

    SAR微波视觉三维成像数据集公开共享将依托《雷达学报》官方网站进行,数据于每次更新后上传至“SAR微波视觉三维成像数据集1.0”页面中,如附图1所示,具体网址为http://radars.ie.ac.cn/web/data/getData?dataType=SARMV3D,数据将根据SAR微波视觉三维成像相关飞行试验的开展和数据集的制作进度不定期更新。

    1  SAR微波视觉三维成像数据集发布网页
    1.  Release webpage of Synthetic Aperture Radar Microwave Vision 3D Imaging Dataset
  • 图  1  SARMV3D数据集构成示意图

    Figure  1.  Composition of SARMV3D dataset

    图  2  建筑物语义分割数据集构成示意图

    Figure  2.  Composition of SARMV3D-BIS dataset

    图  3  数据集构建流程图

    Figure  3.  Flow chart of construction of SARMV3D-BIS dataset

    图  4  建筑足迹信息提取

    Figure  4.  Extraction of building footprint

    图  5  建筑物屋顶区域示意图

    Figure  5.  Schematic diagram of building roof

    图  6  SAR图像中建筑物立面投影示意图

    Figure  6.  Projection of building elevation

    图  7  等效镜像点示意图

    Figure  7.  Schematic diagram of equivalent mirror point

    图  8  SAR图像中建筑物阴影投影示意图

    Figure  8.  Projection of building shadow in SAR image

    图  9  SAR图像中多个建筑物的投影示意图

    Figure  9.  Projection of multiple buildings in SAR image

    图  10  使用Mask RCNN在SARMV3D-BIS 1.0(S)上的训练过程中验证集损失变化曲线

    Figure  10.  Loss curve in the train process on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN

    图  11  使用Mask RCNN在SARMV3D-BIS 1.0(S)验证集上的实例分割结果

    Figure  11.  Results of instance segmentation on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN

    图  12  GOTCHA数据集幅度图像

    Figure  12.  Amplitude image of GOTCHA dataset

    图  13  阵列SAR飞行平台及天线

    Figure  13.  Array InSAR

    图  14  运城区域数据影像

    Figure  14.  Data of Yuncheng area

    图  15  峨眉山区域SAR图像

    Figure  15.  Data of mount Emei area

    图  16  幅相误差补偿前后的三维点云结果对比

    Figure  16.  Comparison of 3D point cloud results

    图  17  通道间相位误差估计结果

    Figure  17.  Results of phase error estimation between channels

    图  18  两种相位估计结果的比较

    Figure  18.  Comparison results of two phase estimation methods

    图  19  SARMV3D Imaging数据集三维成像结果

    Figure  19.  3D imaging results of SARMV3D Imaging dataset

    图  20  SARMV3D Imaging数据集区域叠掩次数图

    Figure  20.  Overlay times map of SARMV3D Imaging dataset

    1  SAR微波视觉三维成像数据集发布网页

    1.  Release webpage of Synthetic Aperture Radar Microwave Vision 3D Imaging Dataset

    表  1  SAR建筑物语义分割数据集构成

    Table  1.   Composition of SARMV3D-BIS dataset

    序号内容文件后缀说明
    11B级图像切片*L1B.jpgf切片尺寸1024×1024
    uint8量化
    2SLC图像切片*L1A.dat切片尺寸1024×1024,与1B图像严格对应,int16量化,实部虚部交替存储
    3叠掩次数图*Layover.jpgf切片每个像素对应的叠掩次数,uint8量化
    4Mask图像*Mask.jpgf每个切片对应的建筑物分割可视化结果图像,黑色表示地面、红色表示立面、白色表示屋顶、蓝色表示阴影,如图2所示
    5标注文件*.json训练、测试和验证各一个JSON文件,详见3.2.3小节
    下载: 导出CSV

    表  2  SARMV3D-BIS数据集的标注文件

    Table  2.   Annotation file of SARMV3D-BIS dataset

    层级1字段层级2字段说明
    infodescription描述数据集基本信息
    url数据集的网络链接
    version数据集版本
    contributor数据集贡献的单位和团队等信息
    imagesfile_name对应图像切片的文件名,包含切片编号
    height图像切片的高度尺寸
    width图像切片的宽度尺寸
    date_captured标注信息生成时间
    annotationsinstance_id建筑实例的唯一编号
    segmentation实例分割信息,见表3
    area建筑物投影于图像上所占的像素面积(不含阴影区域)
    image_id该建筑实例对应的图像切片编号
    bbox包括[X,Y,W,H]四个数值,[X,Y]为该建筑实例的外接矩形在对应图像切片中的左上角像素,[W,H]为外接矩形的宽度及高度
    下载: 导出CSV

    表  3  segmentation字段信息

    Table  3.   Information of ‘segmentation’ field

    层级2字段层级3字段说明
    segmentationcategory_id1;表示立面
    mask[X1,Y1], [X2,Y2], ···, [Xn,Yn],为立面多边形的角点像素坐标
    category_id2;表示屋顶
    mask[X1,Y1], [X2,Y2], ···,[Xn,Yn],为屋顶多边形的角点像素坐标
    category_id3;表示阴影
    mask[X1,Y1], [X2,Y2], ···, [Xn,Yn],为阴影多边形的角点像素坐标
    下载: 导出CSV

    表  4  使用Mask RCNN在SARMV3D-BIS 1.0(S)验证集上的实例分割损失

    Table  4.   Loss of instance segmentation on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN

    backboneLOSSLOSSbbmrcnnLOSSclsmrcnnLOSSmmrcnnLOSSbbRPNLOSSclsRPN
    ResNet-50-FPN0.37850.04780.04050.18900.06670.0346
    ResNet-101-FPN0.34730.04220.03590.18560.04980.0338
    下载: 导出CSV

    表  5  使用Mask RCNN在SARMV3D-BIS 1.0(S)验证集上的检测框mAP

    Table  5.   mAP of bounding box on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN

    backboneAPbbAPbb50APbb75APbbSAPbbMAPbbL
    ResNet-50-FPN16.929.217.423.923.215.9
    ResNet-101-FPN19.130.422.527.428.216.1
    下载: 导出CSV

    表  6  使用Mask RCNN在SARMV3D-BIS 1.0(S)验证集上的掩膜mAP

    Table  6.   mAP of mask on the SARMV3D-BIS 1.0(S) validation set by using Mask RCNN

    backboneAPmAPm50APm75APmSAPmMAPmL
    ResNet-50-FPN14.427.014.723.718.813.7
    ResNet-101-FPN16.829.518.628.624.114.5
    下载: 导出CSV

    表  7  SARMV3D Imaging数据集信息

    Table  7.   Information of SARMV3D Imaging dataset

    地区通道数带宽图像尺寸极化
    山西运城8500 MHz3100(方位)×1220(距离)HH
    四川峨眉山12810 MHz3600(方位)×1800(距离)HH
    下载: 导出CSV

    表  8  SARMV3D Imaging数据集构成

    Table  8.   Composition of SARMV3D Imaging dataset

    文件夹名文件名后缀说明
    运城、峨眉山*.jpg1B级SAR图像,uint16量化
    *ch1~chN.datSLC数据,float32格式,实部虚部交替存放
    *3Dresult.dat三维成像结果数据,float32格式,5个一组,记录每个散射点(X, Y、高度、散射系数实部及散射系数虚部)
    *Layover.jpg叠掩次数图,uint8格式
    *AuxPara.dat三维成像所需辅助数据,数据格式见辅助数据说明文件
    *readme.pdf说明文件,包括各个通道天线相位中心相对位置等处理所需要的信息
    下载: 导出CSV
  • [1] MAGGIORI E, TARABALKA Y, CHARPIAT G, et al. Can semantic labeling methods generalize to any city? The Inria aerial image labeling benchmark[C]. IEEE International Geoscience and Remote Sensing Symposium, Fort Worth, USA, 2017: 3226–3229.
    [2] 季顺平, 魏世清. 遥感影像建筑物提取的卷积神经元网络与开源数据集方法[J]. 测绘学报, 2019, 48(4): 448–459. doi: 10.11947/j.AGCS.2019.20180206.

    JI Shunping and WEI Shiqing. Building extraction via convolutional neural networks from an open remote sensing building dataset[J]. Acta Geodaetica et Cartographica Sinica, 2019, 48(4): 448–459. doi: 10.11947/j.AGCS.2019.20180206.
    [3] https://spacenet.ai/sn6-challenge/.
    [4] LE S B, YOKOYA N, HAENSCH R, et al. 2019 IEEE GRSS data fusion contest: Large-scale semantic 3D reconstruction [technical committees][J]. IEEE Geoscience and Remote Sensing Magazine, 2019, 7(4): 33–36. doi: 10.1109/MGRS.2019.2949679.
    [5] ZHANG Guo, QIANG Qiang, LUO Ying, et al. Application of RPC model in orthorectification of spaceborne SAR imagery[J]. The Photogrammetric Record, 2012, 27(137): 94–110. doi: 10.1111/j.1477-9730.2011.00667.x.
    [6] ZHANG Guo, FEI Wenbo, LI Zhen, et al. Evaluation of the RPC model for spaceborne SAR imagery[J]. Photogrammetric Engineering &Remote Sensing, 2010, 76(6): 727–733.
    [7] LIN T Y, MAIRE M, BELONGIE S, et al. Microsoft COCO: Common objects in context[C]. The 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 740–755.
    [8] HE Kaiming, GKIOXARI G, DOLLÁR P, et al. Mask R-CNN[C]. IEEE International Conference on Computer Vision, Venice, Italy, 2017: 2980–2988.
    [9] WANG Xinlong, ZHANG Rufeng, KONG Tao, et al. SOLOv2: Dynamic, faster and stronger[OL]. https://arxiv.org/abs/2003.10152v2. 2020.
    [10] BOLYA D, ZHOU Chong, XIAO Fanyi, et al. YOLACT: Real-time instance segmentation[C]. IEEE/CVF International Conference on Computer Vision, Seoul, Korea, 2019: 9156–9165.
    [11] https://cocodataset.org/#detection-eval.
    [12] Everingham M, Gool L V, Williams C K I, et al. The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303–338.
    [13] ERTIN E, AUSTIN C D, SHARMA S, et al. GOTCHA experience report: Three-dimensional SAR imaging with complete circular apertures[C]. Proceedings of SPIE, Algorithms for Synthetic Aperture Radar Imagery XIV, Orlando, USA, 2007: 656802.
    [14] 丁赤飚, 仇晓兰, 徐丰, 等. 合成孔径雷达三维成像——从层析、阵列到微波视觉[J]. 雷达学报, 2019, 8(6): 693–709. doi: 10.12000/JR19090.

    DING Chibiao, QIU Xiaolan, XU Feng, et al. Synthetic aperture radar three-dimensional imaging—from TomoSAR and array InSAR to microwave vision[J]. Journal of Radars, 2019, 8(6): 693–709. doi: 10.12000/JR19090.
    [15] 卜运成. 阵列干涉SAR定标技术研究[D]. [博士论文], 中国科学院大学, 2018: 71–95.

    BU Yuncheng. Research on calibration technology of array synthetic aperture radar interferometry[D]. [Ph.D. dissertation], University of Chinese Academy of Sciences, 2018: 71–95.
    [16] 崔磊, 仇晓兰, 郭嘉逸, 等. 一种基于误差反向传播优化的多通道SAR相位误差估计方法[J]. 雷达学报, 2020, 9(5): 878–885. doi: 10.12000/JR20096.

    CUI Lei, QIU Xiaolan, GUO Jiayi, et al. Multi-channel phase error estimation method based on an error backpropagation algorithm for a multichannel SAR[J]. Journal of Radars, 2020, 9(5): 878–885. doi: 10.12000/JR20096.
    [17] JIAO Zekun, DING Chibiao, QIU Xiaolan, et al. Urban 3D imaging using airborne TomoSAR: Contextual information-based approach in the statistical way[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 170: 127–141. doi: 10.1016/j.isprsjprs.2020.10.013.
  • 期刊类型引用(17)

    1. 管浩良,张广滨,王岩. 融合特征金字塔和自注意力机制的SAR三维点云目标识别方法. 信号处理. 2025(01): 70-83 . 百度学术
    2. 姬昂,裴昊,张邦杰,徐刚. 阵列SAR高分辨三维成像与点云聚类研究. 电子与信息学报. 2024(05): 2087-2094 . 百度学术
    3. 刘慧,程碧辉,庞蕾,郭子夜,王潜. 非盲源KPCA剩余噪声比阈值层析SAR成像方法. 现代雷达. 2024(05): 13-18 . 百度学术
    4. 焦润之,邓嘉,韩亚权,黄海风,王青松,赖涛,王小青. 3DSARBuSim 1.0:人造建筑高分辨星载SAR三维成像仿真数据集. 电子与信息学报. 2024(07): 2681-2693 . 百度学术
    5. Xiaolan Qiu,Zekun Jiao,Zhe Zhang,Qiancheng Yan,Chibiao Ding. Advances and prospects in SAR microwave vision three-dimensional imaging. National Science Open. 2024(05): 53-83 . 必应学术
    6. Wei Wang,Haixia Wang,Liankun Yu,Qiulei Dong,Zhanyi Hu. Exploiting SAR visual semantics in Tomo SAR for 3D modeling of buildings. National Science Open. 2024(05): 6-25 . 必应学术
    7. Xinyuan Liu,Shunjun Wei,Wei Pu,Xiang Cai,Yanbo Wen,Shisheng Guo,Lingjiang Kong,Xiaoling Zhang. RM-CSTV: An effective high-resolution method of non-line-of-sight millimeter-wave radar 3-D imaging. National Science Open. 2024(05): 36-52 . 必应学术
    8. 车蕴佳,张彦敏,王运华,李倩. 针对非稳定运动平台的毫米波雷达三维成像优化算法. 中国海洋大学学报(自然科学版). 2024(12): 120-129 . 百度学术
    9. 龚峻扬,付卫红,刘乃安. SAR图像目标轮廓增强预处理模块设计. 系统工程与电子技术. 2024(12): 4010-4017 . 百度学术
    10. 刘慧,郭馨宇,郭子夜,程碧辉. 基于交替方向乘子法的Capon层析SAR成像方法. 雷达科学与技术. 2023(03): 303-313 . 百度学术
    11. 任子帅,张照,高雨欣,郭睿. 基于自适应高程约束的TomoSAR三维成像. 雷达学报. 2023(05): 1056-1068 . 本站查看
    12. 仇晓兰,焦泽坤,杨振礼,程遥,蔺蓓,罗一通,王卫,董勇伟,周良将,丁赤飚. 微波视觉三维SAR关键技术及实验系统初步进展. 雷达学报. 2022(01): 1-19 . 本站查看
    13. 赵曜,许俊聪,全相印,崔莉,张柘. 基于稀疏和低秩结构的层析SAR成像方法. 雷达学报. 2022(01): 52-61 . 本站查看
    14. 任烨仙,徐丰. 若干层析SAR成像方法在解叠掩性能上的对比分析. 雷达学报. 2022(01): 71-82 . 本站查看
    15. 王伟,许华荣,魏含玉,董秋雷. 面向阵列InSAR点云规则化的渐近式建筑立面检测. 雷达学报. 2022(01): 144-156 . 本站查看
    16. 杜邦,仇晓兰,张柘,雷斌,丁赤飚. 基于扰动的结合Off-grid目标的层析SAR三维成像方法. 雷达学报. 2022(01): 62-70 . 本站查看
    17. 黄钟泠,姚西文,韩军伟. 面向SAR图像解译的物理可解释深度学习技术进展与探讨. 雷达学报. 2022(01): 107-125 . 本站查看

    其他类型引用(14)

  • 加载中
图(21) / 表(8)
计量
  • 文章访问数: 4690
  • HTML全文浏览量: 2700
  • PDF下载量: 777
  • 被引次数: 31
出版历程
  • 收稿日期:  2021-08-20
  • 修回日期:  2021-08-24
  • 网络出版日期:  2021-08-28
  • 刊出日期:  2021-08-28

目录

/

返回文章
返回