Loading [MathJax]/jax/output/SVG/jax.js

基于散射信息和元学习的SAR图像飞机目标识别

吕艺璇 王智睿 王佩瑾 李盛阳 谭洪 陈凯强 赵良瑾 孙显

张凌志, 刘飞峰, 胡程. 基于导航卫星的干涉SAR数据采集策略优选方法分析[J]. 雷达学报, 2019, 8(5): 624–630. doi: 10.12000/JR19065
引用本文: 吕艺璇, 王智睿, 王佩瑾, 等. 基于散射信息和元学习的SAR图像飞机目标识别[J]. 雷达学报, 2022, 11(4): 652–665. doi: 10.12000/JR22044
ZHANG Lingzhi, LIU Feifeng, and HU Cheng. Optimization method and analysis of data acquisition strategy based on interference SAR with GNSS transmitters[J]. Journal of Radars, 2019, 8(5): 624–630. doi: 10.12000/JR19065
Citation: LYU Yixuan, WANG Zhirui, WANG Peijin, et al. Scattering information and meta-learning based SAR images interpretation for aircraft target recognition[J]. Journal of Radars, 2022, 11(4): 652–665. doi: 10.12000/JR22044

基于散射信息和元学习的SAR图像飞机目标识别

DOI: 10.12000/JR22044 CSTR: 32380.14.JR22044
基金项目: 国家自然科学基金(61725105, 62076241)
详细信息
    作者简介:

    吕艺璇(1997–),女,中国科学院大学信息与通信工程专业硕士研究生,2019年获得西安电子科技大学学士学位,主要研究方向为计算机视觉与SAR图像智能解译,小样本SAR图像识别等

    王智睿(1990–),男,2018年获得清华大学博士学位,现为中国科学院空天信息创新研究院助理研究员,主要研究方向为SAR图像智能解译

    王佩瑾(1996–),女,中国科学院空天信息创新研究院研究实习员,主要研究方向为遥感图像智能解译技术

    孙 显(1981–),男,中国科学院空天信息创新研究院研究员,博士生导师,IEEE高级会员,《雷达学报》青年编委,主要研究方向为计算机视觉与遥感图像理解

    通讯作者:

    孙显 sunxian@mail.ie.ac.cn

  • 责任主编:徐丰 Corresponding Editor: XU Feng
  • 中图分类号: TP753

Scattering Information and Meta-learning Based SAR Images Interpretation for Aircraft Target Recognition

Funds: The National Natural Science Foundation of China (61725105, 62076241)
More Information
  • 摘要: SAR图像由于数据获取难度大,样本标注难,目标覆盖率不足,导致包含地理空间目标的影像数量稀少。为了解决这些问题,该文开展了基于散射信息和元学习的SAR图像飞机目标识别方法研究。针对SAR图像中不同型号飞机空间结构离散分布差异较大的情况,设计散射关联分类器,对飞机目标的离散程度量化建模,通过不同目标离散分布的差异来动态调整样本对的权重,指导网络学习更具有区分性的类间特征表示。考虑到SAR目标成像易受背景噪声的影响,设计了自适应特征细化模块,促使网络更加关注飞机的关键部件区域,减少背景噪声干扰。该文方法有效地将目标散射分布特性与网络的自动学习过程相结合。实验结果表明,在5-way 1-shot的极少样本新类别识别任务上,该方法识别精度为59.90%,相比于基础方法提升了3.85%。减少一半训练数据量后,该方法在新类别的极少样本识别任务上仍然表现优异。

     

  • 基于导航卫星的双基地SAR(Bistatic Synthetic Aperture Radar based on Global Navigation Satellite System, GNSS-BSAR)是空-地双基地SAR中一种典型的应用[1],使用在轨的导航卫星作为发射源,地面部署接收机(地基、车载、机载)构成双基地SAR系统[2]。由于导航星座的日趋完善,其全球覆盖性以及重轨特性所带来的优势是其他照射源暂时所不能替代的,其中以地基接收机为主的导航卫星干涉合成孔径雷达(Interference Synthetic Aperture Radar based on the Global Navigation Satellite System, GNSS-InSAR)在场景形变监测领域有着广阔的应用前景[3],成为了近年来研究热点。

    在GNSS-BSAR系统成像方面,已有研究者分别使用不同的导航卫星星座进行了成像验证,包括了北斗[4,5]、GPS[6]、格洛纳斯[7]、伽利略[8]。除此以外文献[9]还提出了多角度融合方法以增强图像信噪比。在形变监测方面,来自伯明翰大学的学者们[10]使用直达波天线,配合长约50 m的线缆构建了理想点目标,并使用格洛纳斯作为发射源,首次实现了精度约为1 cm的1维形变反演结果。该实验初步验证了GNSS-InSAR应用于形变监测的可行性。为了进一步验证场景形变监测的可能,2017年文献[11]通过对接收机进行高精度移位来模拟场景建筑形变,成功反演出了形变,精度约为1 cm。在3维形变方面,2018年北京理工大学的技术团队[12]通过人为构建转发器,进行了精度可控的强点目标形变模拟,使用我国的北斗IGSO卫星,成功实现了精度优于5 mm的3维形变反演,这些验证性实验充分表明了GNSS-InSAR应用于场景形变检测的可能。

    若要实现GNSS-InSAR场景的3维形变反演,需要同时至少3颗卫星从不同角度照射场景。由于GNSS-InSAR系统的拓扑高度非对称性以及导航信号的窄带特性[13],加上导航卫星的重轨并非是严格意义上的重轨,除了不可避免的空间基线外,重轨时间也并非严格一致,因此在实际数据采集中,需要对系统构型以及数据采集时间进行严格的优化设计。文献[14]提出了一种联合优化方法,解决了面向大场景下的多星多角度构型优化问题,配合多个接收机实现综合分辨性能优异的大场景成像。文献[15]提出了空间去相干的理论描述框架,表明了空间去相干在GNSS-InSAR中的必要性,但未对数据采集时间进行说明。从当前实际情况出发,不精确的数据采集时间可能会造成存储资源浪费,空间去相干导致的数据截取进一步降低了数据有效性。具体如图1所示:

    图  1  数据截取与有效数据示意图
    Figure  1.  Effective data interception diagram

    针对上述问题,本文提出了一种GNSS-InSAR场景连续数据采集优化方法,通过结合当前数据的卫星轨迹和两行星历数据文件(STK Two-Line Element sets, TLE)预测轨迹,基于相干系数轨迹对齐,获取卫星重轨时间间隔,得到最优的数据采集策略,从源头上降低数据的空间去相干性,提升所采集数据有效性,节约存储资源。在第2部分对GNSS-InSAR场景数据采集优化方法进行了详细介绍。第3部分针对提出的方法进行了实验设计,开展了实测数据采集,并针对采集的数据进行了初步分析。第4部分对全文进行总结。

    对于GNSS-InSAR图像而言,经过保相成像处理后,场景中任意一点(x0,y0)的像素信息分别对应分辨单元内所有散射体回波的相参叠加,可建模为

    s(x0,y0)=f(x,y;t)exp[j2πλr(x,y;P)]W(xx0,yy0;P)dxdy+n(x0,y0;t) (1)

    其中,f(x,y;t)为时间t下的地表散射系数,P为对应的合成孔径中心位置矢量,W(x,y;P)表示系统的点扩散函数(PSF), n(x,y;t)为图像的加性噪声。对于SAR图像的同名点像素,其相干系数可表示为[16]

    ρ=sm(x0,y0)ss(x0,y0)dxdysm(x0,y0)sm(x0,y0)dxdyss(x0,y0)ss(x0,y0)dxdy (2)

    其中,下标m表示主图像,s表示辅图像。根据柯西不等式可以判断:0ρ1,当ρ=0时表示同名点完全不相干,当ρ=1时,同名点完全相干。

    将点目标像素模型式(1)带入到式(2)并化简得到

    ρ=sav(x,y)exp[j2πλ(r(x,y;Pm)r(x,y;Ps))]|W(xx0,yy0;Pm)|2dxdy(sm(x,y)exp[j2πλr(x,y;Pm)]|W(xx0,yy0;Pm)|2dxdy+nm)×(ss(x,y)exp[+j2πλr(x,y;Ps)]|W(xx0,yy0;Pm)|2dxdy+ns) (3)

    式(3)的推导使用了如下近似:

    (1) 由于导航卫星的高轨道特性,使得W(xx0,yy0;Pm)W(xx0,yy0;Ps)成立;

    (2) 相邻两天的噪声相干系数为0,即

    n(x0,y0;tm)×n(x0,y0;ts)=0 (4)

    (3) 相邻两天的目标散射系数为sav(x,y),即

    sav(x,y)f(x,y;tm)f(x,y;ts) (5)

    对式(3)中的相干系数ρ进一步分解得到

    ρ=ρth×ρti×ρsp (6)

    其中,热噪声相干系数ρth与时间相干系数ρti分别由系统与实际目标决定。

    对于PS点[17]而言,地表散射系数相对稳定,不随时间变化,同时为了便于后续分析,假定散射系数为1得到空间相干系数ρsp的简化式为

    ρsp=exp[j2πλ(r(x,y;Pm)r(x,y;Ps))]|W(xx0,yy0;Pm)|2dxdy(|W(xx0,yy0;Pm)|2dxdy)(|W(xx0,yy0;Pm)|2dxdy) (7)

    从式(7)推导结果可以知道,空间基线主要是影响r(x,y;P)从而导致空间去相干。

    导航卫星的重轨时间并非稳定不变,因此需要对数据采集时间进行有效预测,从源头上降低空间去相干,提高数据有效性。

    假定主图像数据采集时间为tm,该采集时间可以通过文献[14]中的广义优化模型进行求解,辅图像数据采集时间为ts=tm+Δt, Δt为时间间隔,那么最优化数据采集模型可通过式(7)推导而来

    Δt=argmax{|˜W(x,y;Pm)|2exp[j2πλ(r(x,y;Pm)r(x,y;P(tm+Δt)))]dxdy} (8)

    其中,˜W(x,y;Pm)tm下等效归一化PSF, P(tm+Δt)Δt时间偏置下得合成孔径中心位置矢量。

    第1天数据采集需要进行实验设计以确定最优数据采集时刻,往后的重轨天数据采集可以根据数据采集优化模型,同时结合星历文件进行预测。整体的预测流程如图2所示,n为任意一天采集的数据,k为重轨天数间隔。

    图  2  GNSS-InSAR数据采集时间优化流程
    Figure  2.  Time optimization process of GNSS-InSAR data acquisition

    实际卫星位置对应的实际时间设为tn,经过模型优化得到的时间偏差为Δt,那么第n+k天对应的实际数据采集时间可表示为

    tn+k=tn+Δt (9)

    对于固定场景的形变监测,首次数据采集的时候需要严格设计系统构型,使分辨率达到最优化。本次实验接收机部署在北京理工大学信息科学试验楼楼顶西北角,实施监测场景位于西偏北30°。使用理论分辨率计算公式[18]对该场景进行分辨率设计。仿真参数具体参见表1

    表  1  数据采集试验仿真参数
    Table  1.  Data acquisition test simulation parameters
    参数
    照射源北斗 IGSO1~5
    PRF1000 Hz
    带宽10.23 MHz
    合成孔径时间600 s
    TLE文件更新日期2019年4月29日
    预定数据采集日期2019年4月30日
    下载: 导出CSV 
    | 显示表格

    以分辨单元面积作为判定依据,得到预定采集日期当天全时段下各个卫星在预定场景下所能得到的分辨单元面积如图3所示。

    图  3  全时段下场景分辨单元面积
    Figure  3.  Scene resolution unit area in full time

    为了实现3维形变反演,需要同一时间下有3颗卫星对场景进行照射。图3中10点前后与17点前后满足当前场景上空有3颗IGSO卫星可见的条件。更进一步,为了使分辨单元面积达到最优,可以得到具体的数据采集时间。具体如图4红框标注,分别是9点30分前后与17点30分前后。

    图  4  首次数据采集时间设计结果
    Figure  4.  Design results of first data acquisition time

    为了配合实验,在场景布置转发器,整体的系统构型如图5所示。

    图  5  GNSS-InSAR场景3维形变反演实验拓扑构型设计结果
    Figure  5.  GNSS-InSAR topological configuration design results of 3D deformation retrieval experiment

    以2019年4月30日采集的实测数据作为第n天数据,对于北斗的IGSO而言,重轨时间约为1天,即m=1,同时下载当天最新的TLE文件。以IGSO1为例,结合图2进行详细说明:

    (1) 使用实测数据的直达波进行卫星位置解算,同时根据TLE文件推算当天和相邻天的卫星轨迹。经过相干系数轨迹匹配之后,得到的轨迹如图6所示。

    图  6  对齐后的TLE卫星轨迹与实测数据卫星轨迹
    Figure  6.  Aligned TLE satellite trajectory and measured data satellite trajectory

    (2) 以匹配得到的TLE卫星轨迹作为参考,对重轨天的TLE卫星轨迹进行数据采集优化模型求解,系统的PSF与优化模型仿真结果分别如图7图8所示。

    图  7  场景[–147, 20, 0]处理论PSF
    Figure  7.  Theoretical PSF in scene at position of [–147, 20, 0]
    图  8  数据采集优化模型仿真结果
    Figure  8.  Simulation results of data acquisition optimization model

    图8的结果分析可知,第1个峰值点为其本身,由于空间基线为0,相干系数为1。第2个峰值点相干系数为0.999644,满足除了第1个峰值点外相邻天相干系数最大值条件,因此第2个峰值点就是最佳重轨时的空间相干系数。此时经过模型优化得到的时间间隔为:Δt=86163s=23h56min3s,结合第1天的实测数据轨迹对应的时间t1=9h26min0s,第2天准确的数据采集时间为:t2=9h22min3s

    为了说明优化结果的正确性,在实验场景中放置转发器模拟理想点目标(图5),同时按照优化后的时间进行5月1日数据采集。实际采集时间为9h21min53s,总采集时间约650 s。相邻两天的空间相干系数轨迹匹配结果如图9所示。

    图  9  实测数据重轨空间相干系数
    Figure  9.  The spatial coherence coefficient of measured data

    图9中峰值点位置来看,重轨数据采集优化模型得到的结果和实际结果相吻合。为了进一步说明,图10给出了IGSO1卫星实测数据成像结果。

    图  10  场景成像结果
    Figure  10.  Imaging results of scene

    对相邻两天的图像相干系数进行求解,得到图11所示结果。在同一坐标系下,仿真目标位于[–147, 20, 0],空间相干系数为0.999644;转发器位于[–147, 20, 0],相干系数为0.9996;两者的相干系数基本保持一致。

    图  11  相干系数结果
    Figure  11.  Coherence coefficient result

    图9图10的结果表明经过数据采集优化模型后得到的时间间隔与实际卫星轨迹的重轨时间相互吻合,在保证600 s预期合成孔径时间下,可以最大限度减少数据采集时间,节约存储资源。同时避免后期由于数据对齐带来的数据有效性降低问题。

    在GNSS-InSAR场景1维/3维形变反演应用中,针对由于导航卫星重轨时间的非严格一致性与有效数据截取带来的数据冗余,数据有效性低等问题,本文提出了一种面向GNSS-InSAR场景数据采集的优化模型,采用实测数据与TLE文件相结合,根据当天数据采集时间,预测相邻天重轨时间,从而实现精确的数据采集。实测数据验证结果表明了数据采集时间优化模型的正确性。该方法的提出有利于GNSS-InSAR场景1维/3维形变反演实验的开展,在降低原始数据冗余度基础上,保证了有效数据时间长度大于预期合成孔径时间。

  • 图  1  5-way 1-shot设置

    Figure  1.  The 5-way 1-shot setup

    图  2  不同机型的散射点提取结果

    Figure  2.  Scattering point extraction results of different models

    图  3  不同机型不同聚类点数下的散射点提取结果

    Figure  3.  Scattering point extraction results for different models and different clustering points

    图  4  不同朝向的同型号飞机对应的离散因子

    Figure  4.  Discrete factors corresponding to the same type of aircraft with different orientations

    图  5  本文方法的整体结构

    Figure  5.  The overall structure of the method in this paper

    图  6  散射关联分类器的网络结构

    Figure  6.  Network structure of scattering association classifier

    图  7  注意力嵌入模块网络结构

    Figure  7.  The attention embedding module network structure

    图  8  SAR-ACD中的民用飞机及其对应的光学图像

    Figure  8.  Civil aircraft in SAR-ACD and their corresponding optical images

    图  9  各型号民用飞机的原始数量

    Figure  9.  The original quantity of each type of civil aircraft

    图  10  不同方法对应的卷积层输出特征图可视化

    Figure  10.  Visualization of corresponding layer feature map of different methods

    图  11  不同训练数据占比时的测试准确率

    Figure  11.  Test accuracy with different proportions of training data

    图  12  预训练阶段基本原理和流程展示

    Figure  12.  The basic principle and process display of the pre-training stage

    图  13  5-way 1-shot条件下在元测试数据集上不同模块的混淆矩阵

    Figure  13.  Confusion matrix on meta-test dataset on the 5-way 1-shot condition

    图  14  5-way 1-shot条件下不同方法模块的训练损失变化曲线

    Figure  14.  The loss curve with different modules during training on the 5-way 1-shot condition

    图  15  大场景复杂机场下的识别性能测试

    Figure  15.  Recognition performance test under large scene and complex airport

    表  1  实验中训练和测试期间数据设置

    Table  1.   Data setup during training and testing

    设置5-way 5-shot5-way 1-shot
    支持集查询集支持集查询集
    元训练515115
    元测试515115
    下载: 导出CSV

    表  2  自适应特征细化模块和散射关联分类器的消融实验

    Table  2.   Ablation study on adaptive feature refinement module and scattering association module

    散射关联分类器自适应特征细化模块5-way 1-shot (%)5-way 5-shot (%)
    ××56.05 ± 0.866.71 ± 0.7
    ×57.57 ± 0.967.80 ± 0.7
    ×58.31 ± 0.968.20 ± 0.7
    58.43 ± 0.868.52 ± 0.7
    下载: 导出CSV

    表  3  结合预训练过程的消融实验

    Table  3.   Ablation study combined with the pre-training process

    散射关联分类器自适应特征细化模块5-way 1-shot (%)5-way 5-shot (%)
    ××57.33 ± 0.967.60 ± 0.7
    ×58.86 ± 0.868.72 ± 0.7
    ×59.60 ± 0.968.85 ± 0.7
    59.90 ± 0.970.13 ± 0.7
    下载: 导出CSV

    表  4  本文方法和其他方法的识别精度对比

    Table  4.   Comparison of recognition accuracy between our method and other methods

    模型5-way 1-shot
    准确率(%)
    5-way 5-shot
    准确率(%)
    KNN22.5036.30
    MAML[32]52.2067.50
    MatchingNet[33]54.5458.90
    PrototypicalNet[34]53.1868.66
    MSAR[26]56.5765.15
    ResNet50[31]+微调29.6542.30
    本文散射辅助方法59.9070.13
    下载: 导出CSV
  • [1] DONG Ganggang and KUANG Gangyao. Classification on the monogenic scale space: Application to target recognition in SAR image[J]. IEEE Transactions on Image Processing, 2015, 24(8): 2527–2539. doi: 10.1109/TIP.2015.2421440
    [2] NOVAK L M, OWIRKA G L, and BROWER W S. Performance of 10-and 20-target MSE classifiers[J]. IEEE Transactions on Aerospace and Electronic Systems, 2000, 36(4): 1279–1289. doi: 10.1109/7.892675
    [3] WAGNER S A. SAR ATR by a combination of convolutional neural network and support vector machines[J]. IEEE Transactions on Aerospace and Electronic Systems, 2016, 52(6): 2861–2872. doi: 10.1109/TAES.2016.160061
    [4] 康健, 王智睿, 祝若鑫, 等. 基于监督对比学习正则化的高分辨率SAR图像建筑物提取方法[J]. 雷达学报, 2022, 11(1): 157–167. doi: 10.12000/JR21124

    KANG Jian, WANG Zhirui, ZHU Ruoxin, et al. Supervised contrastive learning regularized high-resolution synthetic aperture radar building footprint generation[J]. Journal of Radars, 2022, 11(1): 157–167. doi: 10.12000/JR21124
    [5] HE Chu, TU Mingxia, XIONG Dehui, et al. Adaptive component selection-based discriminative model for object detection in high-resolution SAR imagery[J]. ISPRS International Journal of Geo-Information, 2018, 7(2): 72. doi: 10.3390/ijgi7020072
    [6] KANG Yuzhuo, WANG Zhirui, FU Jiamei, et al. SFR-Net: Scattering feature relation network for aircraft detection in complex SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 5218317. doi: 10.1109/TGRS.2021.3130899
    [7] 赵鹏菲, 黄丽佳. 一种基于EfficientNet与BiGRU的多角度SAR图像目标识别方法[J]. 雷达学报, 2021, 10(6): 895–904. doi: 10.12000/JR20133

    ZHAO Pengfei and HUANG Lijia. Target recognition method for multi-aspect synthetic aperture radar images based on EfficientNet and BiGRU[J]. Journal of Radars, 2021, 10(6): 895–904. doi: 10.12000/JR20133
    [8] ZHANG Jinsong, XING Mengdao, and XIE Yiyuan. FEC: A feature fusion framework for SAR target recognition based on electromagnetic scattering features and deep CNN features[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(3): 2174–2187. doi: 10.1109/TGRS.2020.3003264
    [9] HUANG Zhongling, DATCU M, PAN Zongxu, et al. Deep SAR-Net: Learning objects from signals[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 161: 179–193. doi: 10.1016/j.isprsjprs.2020.01.016
    [10] YANG Yue, ZHANG Zhuo, MAO Wei, et al. Radar target recognition based on few-shot learning[J]. Multimedia Systems, 2021: 3. doi: 10.1007/s00530-021-00832-3
    [11] CAO Changjie, CUI Zongyong, CAO Zongjie, et al. An integrated counterfactual sample generation and filtering approach for SAR automatic target recognition with a small sample set[J]. Remote Sensing, 2021, 13(19): 3864. doi: 10.3390/rs13193864
    [12] GUO Jiayi, LEI Bin, DING Chibiao, et al. Synthetic aperture radar image synthesis by using generative adversarial nets[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(7): 1111–1115. doi: 10.1109/LGRS.2017.2699196
    [13] RADFORD A, METZ L, and CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv: 1511. 06434v1, 2015.
    [14] CUI Zongyong, ZHANG Mingrui, CAO Zongjie, et al. Image data augmentation for SAR sensor via generative adversarial nets[J]. IEEE Access, 2019, 7: 42255–42268. doi: 10.1109/ACCESS.2019.2907728
    [15] KUSK A, ABULAITIJIANG A, and DALL J. Synthetic SAR image generation using sensor, Terrain and target models[C]. EUSAR 2016: 11th European Conference on Synthetic Aperture Radar, Hamburg, Germany, 2016: 1–5.
    [16] LIN Zhao, JI Kefeng, KANG Miao, et al. Deep convolutional highway unit network for SAR target classification with limited labeled training data[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(7): 1091–1095. doi: 10.1109/LGRS.2017.2698213
    [17] 喻玲娟, 王亚东, 谢晓春, 等. 基于FCNN和ICAE的SAR图像目标识别方法[J]. 雷达学报, 2018, 7(5): 622–631. doi: 10.12000/JR18066

    YU Lingjuan, WANG Yadong, XIE Xiaochun, et al. SAR ATR based on FCNN and ICAE[J]. Journal of Radars, 2018, 7(5): 622–631. doi: 10.12000/JR18066
    [18] PAN Zongxu, BAO Xianjie, ZHANG Yueting, et al. Siamese network based metric learning for SAR target classification[C]. IGARSS 2019–2019 IEEE International Geoscience and Remote Sensing Symposium, Yokohama, Japan, 2019: 1342–1345.
    [19] MA Yu, LIANG Yan, ZHANG Wanying, et al. SAR target recognition based on transfer learning and data augmentation with LSGANs[C]. 2019 Chinese Automation Congress (CAC), Hangzhou, China, 2019: 2334–2337.
    [20] WANG Ke, ZHANG Gong, and LEUNG H. SAR target recognition based on cross-domain and cross-task transfer learning[J]. IEEE Access, 2019, 7: 153391–153399. doi: 10.1109/ACCESS.2019.2948618
    [21] ZHANG Wei, ZHU Yongfeng, and FU Qiang. Semi-supervised deep transfer learning-based on adversarial feature learning for label limited SAR target recognition[J]. IEEE Access, 2019, 7: 152412–152420. doi: 10.1109/ACCESS.2019.2948404
    [22] KANG Chenyao and HE Chu. SAR image classification based on the multi-layer network and transfer learning of mid-level representations[C]. 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Beijing, China, 2016: 1146–1149.
    [23] HUANG Zhongling, PAN Zongxu, and LEI Bin. What, where, and how to transfer in SAR target recognition based on deep CNNs[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(4): 2324–2336. doi: 10.1109/TGRS.2019.2947634
    [24] DU Lan, CAO Lanying, and LIU Hongwei. Few-shot learning neural network for SAR target recognition[C]. 2019 6th Asia-Pacific Conference on Synthetic Aperture Radar (APSAR), Xiamen, China, 2019: 1–4.
    [25] WANG Ke, ZHANG Gong, XU Yanbing, et al. SAR target recognition based on probabilistic meta-learning[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(4): 682–686. doi: 10.1109/LGRS.2020.2983988
    [26] FU Kun, ZHANG Tengfei, ZHANG Yue, et al. Few-shot SAR target classification via metalearning[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 2000314. doi: 10.1109/TGRS.2021.3058249
    [27] DIEMUNSCH J R and WISSINGER J. Moving and stationary target acquisition and recognition (MSTAR) model-based automatic target recognition: Search technology for a robust ATR[C]. The SPIE 3370, Algorithms for Synthetic Aperture Radar Imagery V, Orlando, FL, USA, 1998: 481–492.
    [28] FU Kun, FU Jiamei, WANG Zhirui, et al. Scattering-Keypoint-Guided network for oriented ship detection in high-resolution and large-scale SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 11162–11178. doi: 10.1109/JSTARS.2021.3109469
    [29] GUO Qian, WANG Haipeng, and XU Feng. Scattering enhanced attention pyramid network for aircraft detection in SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(9): 7570–7587. doi: 10.1109/TGRS.2020.3027762
    [30] HOU Xiyue, AO Wei, SONG Qian, et al. FUSAR-Ship: building a high-resolution SAR-AIS matchup dataset of Gaofen-3 for ship detection and recognition[J]. Science China Information Sciences, 2020, 63(4): 140303. doi: 10.1007/s11432-019-2772-5
    [31] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. The 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
    [32] FINN C, ABBEEL P, and LEVINE S. Model-agnostic meta-learning for fast adaptation of deep networks[C]. 34th International Conference on Machine Learning, Sydney, Australia, 2017: 1126–1135.
    [33] VINYALS O, BLUNDELL C, LILLICRAP T, et al. Matching networks for one shot learning[C]. The 30th International Conference on Neural Information Processiing Systems, Red Hook, USA, 2016: 3637–3645.
    [34] SNELL J, SWERSKY K, and ZEMEL R S. Prototypical networks for few-shot learning[C]. 31st International Conference on Neural Information Processing Systems, Red Hook, USA, 2017: 4080–4090.
  • 加载中
图(15) / 表(4)
计量
  • 文章访问数: 2264
  • HTML全文浏览量: 1970
  • PDF下载量: 437
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-03-11
  • 修回日期:  2022-04-12
  • 网络出版日期:  2022-04-29
  • 刊出日期:  2022-08-28

目录

/

返回文章
返回