Loading [MathJax]/jax/output/SVG/jax.js

多方位角观测星载SAR技术研究

陈杰 杨威 王鹏波 曾虹程 门志荣 李春升

吕小玲, 仇晓兰, 俞文明, 等. 基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析[J]. 雷达学报, 2022, 11(1): 168–182. doi: 10.12000/JR21179
引用本文: 陈杰, 杨威, 王鹏波, 等. 多方位角观测星载SAR技术研究[J]. 雷达学报, 2020, 9(2): 205–220. doi: 10.12000/JR20015
LYU Xiaoling, QIU Xiaolan, YU Wenming, et al. Simulation-assisted SAR target classification based on unsuperviseddomain adaptation and model interpretability analysis[J]. Journal of Radars, 2022, 11(1): 168–182. doi: 10.12000/JR21179
Citation: CHEN Jie, YANG Wei, WANG Pengbo, et al. Review of novel azimuthal multi-angle observation spaceborne SAR technique[J]. Journal of Radars, 2020, 9(2): 205–220. doi: 10.12000/JR20015

多方位角观测星载SAR技术研究

DOI: 10.12000/JR20015
基金项目: 国家自然科学基金(61861136008, 61701012)
详细信息
    作者简介:

    陈 杰(1973–),男,河南郑州人,博士,教授。2002年在北京航空航天大学电子信息工程学院获博士学位,现为北京航空航天大学教授。主要研究方向包括:高分辨率宽覆盖星载SAR成像探测机理、超高分辨率星载SAR成像理论与方法、星载SAR电离层效应精细补偿等。发表SCI论文近60篇,授权发明专利30余项。曾获得军队科技进步一等奖1项、国防科技进步二等奖1项、霍英东青年教师奖等。E-mail: chenjie@buaa.edu.cn

    杨 威(1983–),男,湖北宜昌人,博士,副教授。北京航空航天大学,信号与信息处理专业,主要从事星载SAR高分辨率雷达信号仿真与成像技术、新体制雷达技术的研究。E-mail: yangweigigi@buaa.edu.cn

    王鹏波(1979–),男,江西波阳人,副教授。研究方向为新体制合成孔径雷达成像,高分辨率雷达成像处理技术,多元信息融合技术。E-mail: wangpb7966@buaa.edu.cn

    曾虹程(1989–),男,四川宣汉人,博士,讲师。2016年在北京航空航天大学电子信息工程学院获博士学位,现为北京航空航天大学讲师。主要研究星载SAR成像处理、外辐射源雷达运动目标探测、星载SAR闪烁补偿等。发表SCI论文6篇,授权发明专利7项。E-mail: zenghongcheng@buaa.edu.cn

    门志荣(1988–),男,山东莱西人,博士,北京航空航天大学,信号与信息处理专业,主要从事新体制成像雷达系统设计和仿真技术等方面的研究工作。E-mail: menzhirong@buaa.edu.cn

    李春升(1963–),男,天津人,北京航空航天大学教授,博士生导师,主要从事星载SAR系统总体与仿真、多源遥感图像信息融合、信息获取与处理等方面的研究工作。E-mail: lichunsheng@buaa.edu.cn

    通讯作者:

    杨威 yangweigigi@buaa.edu.cn

    李春升 lichunsheng@buaa.edu.cn

  • 责任主编:王宇 Corresponding Editor: WANG Yu
  • 中图分类号: TN957

Review of Novel Azimuthal Multi-angle Observation Spaceborne SAR Technique

Funds: The National Natural Science Foundation of China (NSFC)(61861136008, 61701012)
More Information
  • 摘要: 该文针对多方位角观测星载SAR新技术进行综述。首先分析了当前国内外SAR卫星发展现状和趋势,并从多个角度对比综述了其对地观测的能力。在此基础上,结合当前应用需求对多方位角观测星载SAR工作新模式进行了综述,解析其工作机理,并结合试验结果总结分析了多方位角观测星载SAR在目标散射信息、几何信息和运动信息获取方面的优势。最后,对多方位角观测星载SAR技术的发展进行了总结和展望。

     

  • 合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动式微波遥感成像系统,具有全天时、全天候的观测能力。随着SAR成像技术的不断发展,SAR自动目标识别(Automatic Target Recognition, ATR)成为SAR图像智能解译的一个重要组成部分。SAR ATR主要由3个阶段组成:检测、鉴别和分类[1]。近年来,随着深度学习的快速发展,SAR ATR领域也涌现了很多基于深度学习的优秀算法[2,3]

    然而,目前将深度学习应用于SAR ATR领域主要面临两方面的问题:一是深度神经网络往往需要大量标注数据才能有效提取目标特征,但SAR样本标注难度大、成本高,标注数量严重不足,很难达到和自然图像领域相当的标注样本量级;二是深度学习方法一直以来被视为“黑盒模型”,内部工作机理不透明,缺乏可解释性,难以为SAR ATR提供可靠的、可信任的应用服务。

    针对SAR目标识别中标注样本不足的问题,Chen等人[2]提出了全卷积网络(All-Convolutional Networks, A-ConvNets),使用卷积层代替全连接层,减少了需要训练的参数,有效缓解了直接使用SAR数据训练CNN容易导致过拟合的情况,在MSTAR数据集上取得了很好的分类效果。Pan等人[4]提出了一种基于度量学习(Metric learning)的孪生网络(Siamese network),以样本对的形式输入训练图像,显著增加了训练数据量。但这些方法仍然不能完全摆脱对标注样本的依赖。

    为此,已有研究者尝试利用仿真的SAR图像样本来支撑真实样本的分类任务。关于SAR图像仿真技术的研究已有很多,其中经典方法是建立物体的3D模型,结合电磁计算和计算机图形学方法,得到SAR仿真图像[5]。随着SAR仿真技术的发展,对于某些目标而言,仿真图像与实际图像可以达到目视难以分辨的程度。然而,利用仿真图像训练的神经网络很难直接对真实图像精确分类,文献[6]和文献[7]都指出SAR仿真图像与实测图像属于非同源图像,在背景纹理、目标结构等方面不可避免地存在一定差异,其实验结果也表明仿真图像难以直接支撑零标注样本下的真实图像分类任务。目前已有一些在小样本或零样本情况下提升仿真辅助SAR目标分类性能的相关研究。文献[8]首次探讨了结合仿真图像进行迁移学习实现真实SAR目标分类的可行性,其结果表明,当真实样本标注数量不足时,利用仿真数据进行预训练可以有效加快模型收敛。Zhang等人[9]提出了一种双流深度网络结构,通过利用方位角、幅度和相位信息等SAR领域知识进行数据增强,提升小样本情况下SAR目标识别的性能。这些研究表明,在小样本情况下,SAR仿真样本可以为实测SAR目标分类任务提供可用信息,但未对零样本情况下的仿真辅助SAR目标分类的效果进行验证。Song等人[6]提出了一种非必要因素抑制的方法,对仿真图像和真实图像进行非极大值抑制、风格调整和分割这一系列预处理后输入神经网络,实现了仿真辅助的零样本SAR目标识别。然而,其实验中只是将MSTAR数据集中10类目标之一T72目标图像替换为仿真图像,这对仿真图像支撑真实图像分类效果的验证是有限的。

    笔者认为,为提高仿真辅助SAR图像分类的性能,需要找到一种可以有效拉近仿真图像和真实图像特征分布距离的方法以实现特征迁移。如何解决不同来源数据之间的特征迁移问题,是域自适应(Domain Adaptation)方法的研究内容。无监督域适应(Unsupervised Domain Adaptation, UDA)方法可以实现从带标注源域(Source domain)数据集到无标注目标域(Target domain)数据集上的信息迁移,找到不同域之间通用的分类特征提取方法。现有的UDA方法主要可分为4种[10]:(1)基于领域分布差异的方法[11-14];(2)基于对抗学习的方法[15-19];(3)基于重构的方法[20,21];(4)基于样本生成的方法[22]

    目前已有一些将域自适应方法应用到SAR目标识别领域的研究[23-26]。Huang等人[23]从迁移什么、迁移到哪、如何迁移3方面展开探讨,提出了一种结合多源数据的域适应传递方法。Wang等人[24]提出了一个结合域对抗训练和元学习(Meta-learning)的模型,使用大量仿真数据预训练网络后再使用少量带标签真实数据微调网络,实现了跨域和跨任务的迁移学习。Zhang等人[25]提出了一种基于对抗学习的多级无监督域适应方法,用以解决多波段SAR图像分类问题。Xu等人[26]提出的基于判别适应正则化的迁移学习方法D-ARTL实现了由自动识别系统AIS信息到SAR图像域舰船分类任务的知识迁移。

    上述研究表明,域适应的方法在SAR遥感领域有很好的应用前景,但这些研究更多地关注了不同域之间的特征迁移是否成功,对域适应前后模型提取特征的变化分析不足。

    为此,本文针对利用SAR仿真样本来实现无须实测标注样本的SAR目标分类问题开展研究,提出了一个集成域对抗训练和距离度量的神经网络模型;同时,对模型进行了可解释性分析,结合逐层相关性传播(Layer-wise Relevance Propagation, LRP)[27]和对比层关联传播(Contrastive Layer-wise Relevance Propagation, CLRP)[28]分析了域适应前后模型决策依据的变化。实验表明,本文方法能够显著提升仿真辅助SAR目标分类的准确率,可解释性分析的结果证明本文方法通过修正模型关注区域来提升仿真辅助SAR图像分类的性能,具有一定的合理性。本文的主要贡献可以概括如下:

    (1) 提出了一种新的基于无监督域适应的仿真辅助SAR目标分类的网络框架,不同于以往的利用仿真数据进行数据增强或网络预训练工作的方法[6-8],本文方法不需要人为设计复杂的图像预处理过程,而是通过网络学习来提升域混淆程度、缩小仿真样本和实测样本的域差异,在完全不使用实测数据类别标签的情况下实现了较高精度的仿真辅助SAR目标分类,为当下SAR样本标注少、目标识别难的问题提供了新的解决思路;

    (2) 本文通过LRP, CLRP等神经网络可解释性方法定位同类目标仿真和实测SAR图像中导致网络做出不同决策的区域,分析了域适应前后模型决策依据的变化,从可解释性角度分析了本文方法提升仿真辅助SAR目标分类性能的原因,可以为仿真方法的优化调整提供思路。

    本文的其余部分内容安排如下:第2节介绍了本文提出的基于无监督域适应的仿真辅助SAR图像分类方法;第3节介绍了本文采用的可解释性方法;第4节给出了实验数据、实验结果以及详细的解释分析;第5节进行总结与展望。

    图1所示,当网络提取到的特征越是局限于特定的域,就越难找到两个域可共用的分类边界;而当提取到的特征越能体现不同域间的共性,就越易于找到可共用的分类边界。为了使特征提取器提取到域不变特征且尽量缩小域间差异,本文提出了一种集成域对抗训练和域差异度量多核最大均值差异(Multi-Kernel Maximum Mean Discrepancy, MK-MMD)[29]的模型。其中,域对抗训练是指特征提取器和域判别器之间的对抗训练,域判别器通过最小化域分类损失来提升域判别能力,特征提取器则致力于学习可以“欺骗”域判别器的特征提取方法,以提取到域不变特征。域对抗训练虽然可以促进域混淆,但是不能保证拉近不同域样本在分类器隐藏层中的特征差异,为此本文方法在模型中添加域差异度量器,使用MK-MMD进行域差异计算,并以此为优化目标训练模型。2.1节对所提模型框架和网络结构进行介绍,2.2节给出了模型优化目标。

    图  1  特征是否具备域不变性对找到不同域通用分类器的影响
    Figure  1.  The influence of domain invariance of features on finding a general classifier between different domains

    图2所示,本文提出的网络模型可分为4个部分:特征提取器、目标分类器、域判别器和域差异度量器。本文方法使用带标签的仿真数据(即源域S)训练得到可以对仿真数据准确分类的特征提取器和分类器;同时利用无标签的实测样本(即目标域T)同仿真样本一起进行域对抗训练,帮助特征提取器提取到域不变特征,并结合MK-MMD度量进一步缩小仿真数据特征和真实数据特征在网络隐层中的差异;完成训练后,由特征提取器和分类器最终实现对实测样本的分类。图3给出了本文所提方法的网络结构参数,其中虚线所示结构仅在训练过程中激活,考虑到仿真SAR图像直接训练网络容易导致过拟合,特征提取器的网络层数不宜过多,因此参考了AlexNet[30]的卷积层设计,分类器和域判别器由两个全连接层组成。

    图  2  模型框架示意图
    Figure  2.  Schematic diagram of the model framework
    图  3  网络结构示意图
    Figure  3.  Schematic diagram of the model structure

    在网络训练过程中,源域S为网络模型提供带标签仿真样本Ds={(xsi,ysi)ni=1},其中xsi为源域的第i个样本,ysi为该样本的类别标签,ysi{1,2,,N}N代表类别数目;目标域T提供无标签实测样本Dt={(xti)mi=1}。同时每个训练样本带有域标签di,当样本来自源域即xiDs时,di=0;当xiDt时,di=1。对于每个输入样本x,特征提取器计算得到其特征向量f,分类器对f进行类别预测得到ˆy,域判别器对f进行域判别得到ˆd。对于来自不同域的样本xsxt,域差异度量器计算二者在全连接层fc1, fc2处的MK-MMD,作为域差异优化目标。使用θe, θcθd分别代表特征提取器、分类器和域判别器的参数,Ge(), Gc(), Gd()表示对应的映射函数,则有特征向量f=Ge(x;θe),类别预测结果ˆy=Gc(f;θc),域预测结果ˆd=Gd(f;θd)

    训练时,将仿真数据和真实数据同时输入到网络模型。首先,基于仿真数据的标签真值ysi和分类器预测输出ˆysi计算得到Losscls,以此优化分类器和特征提取器。其次,引入梯度反转层(Gradient Reversal Layer, GRL)[15]实现特征提取器和域判别器之间的对抗训练,以使特征提取器提取到域不变特征。最后,使用MK-MMD在分类器全连接层(fc1, fc2)处计算每层输入特征的域差异(记为Lossdd),以更好地拉近网络深层处不同域样本特征的距离。此处Losscls, Lossdd以及域对抗训练的优化目标Lossda将在2.2节给出说明。

    本文所提模型的整体优化目标可分为3部分:一是源域样本分类损失Losscls最小化,保证特征提取器和分类器可以实现源域样本的精确分类;二是域对抗训练损失Lossda最小化,以实现域混淆,使特征提取器提取到域不变特征;三是域差异Lossdd最小化,进一步缩小不同域样本在网络隐层中的特征距离。下面分别给出计算公式。

    源域样本分类损失Losscls的计算方法如式(1)所示。

    Losscls=1nni=1di=0Jy(Gc(Ge(xi;θe);θc),yi) (1)

    其中,n是源域训练样本总数量,Jy()为softmax交叉熵损失函数,Ge()Gc()分别代表特征提取器和分类器的映射函数,θeθc分别为特征提取器和分类器的参数,yi为样本类别标签。

    本文方法借助GRL实现域对抗训练,文献[15]最早将生成对抗网络(Generative Adversarial Network, GAN)[31]中对抗学习的思想引入到域适应任务中,通过GRL实现特征提取器和域判别器之间的博弈训练,之后的很多域适应模型都使用了这一结构[32,33]。GRL不影响网络训练的前向传播过程,只是在反向传播的过程中将后一层的梯度乘以一个负常数(λ),完成梯度反转后再传递给前一层,这样使得在训练过程中域判别器致力于分辨特征来自源域还是目标域,特征提取器则致力于提取到可以骗过域判别器的特征,通过二者之间的对抗训练使特征提取器提取到域不变的特征。域对抗训练损失Lossda根据式(2)计算得来,域对抗训练的目标则可表示为minθe,θdLossda

    Lossda=1qqi=1Jd(Gd(GRLλ(Ge(xi;θe));θd),di) (2)

    其中,q是源域和目标域的训练样本总数量,Jd()是二元交叉熵损失函数,Ge()Gd()分别代表特征提取器和域判别器的映射函数,GRLλ()代表梯度反转层的映射函数,θeθd分别为特征提取器和域判别器的参数,di为样本域标签。

    为进一步缩小域间样本特征差异,本文方法使用基于MK-MMD的域差异度量器计算分类器中每个全连接层输入特征的域差异。MMD是一种常用的度量不同域数据分布差异的方法,简单来说,就是将源域S和目标域T中数据的特征表示映射到再生核希尔伯特空间(Reproducing Kernel Hilbert Space, RKHS)中后,计算二者均值的距离。深度域混淆(Deep Domain Confusion, DDC)方法[11]最早将MMD引入到神经网络中,将源域特征和目标域特征之间的MMD作为域混淆度量加入到网络的目标函数当中。但DDC只对网络中的一层进行域适配,且只采用单核计算MMD,适配程度不够。为此,深度适配网络(Deep Adaptation Network, DAN)[12]对网络的多层进行适配,且引入了表征能力更强的MK-MMD,其为MMD的多核版本,表现出了比DDC更好的减小域差异的能力。受此启发,本文设计的域差异度量器使用MK-MMD对分类器中两个全连接层的输入同时进行域差异计算。本文的多层MK-MMD域差异Lossdd计算方法如式(3)所示。

    Lossdd=l=l2l=l1d2k(Dls,Dlt) (3)

    其中,l1l2表示域差异度量器对应的网络层起止位置,Dl表示输入在第l层的隐层表示,dk(Ds,Dt)表示源域分布和目标域分布在RKHS中均值的距离,其定义如式(4)所示。

    d2k(Ds,Dt)=||Es[ϕ(xs)]Et[ϕ(xt)]||2Hk=Esϕ(xs),ϕ(xs)Hk+Etϕ(xt),ϕ(xt)Hk2Es,tϕ(xs),ϕ(xt)Hk (4)

    其中,E[]代表对应分布D的数学期望,xx独立同分布,xsDs, xtDt, Hk表示与核k相关的RKHS,ϕ()表示与核k相关的特征映射,有k(x,y)=ϕ(x),ϕ(y)Hk。核kU个高斯核{ku}的凸组合,如式(5)所示。

    k(x,y)=Uu=1wuku(x,y), s.t. Uu=1wu=1, wu>0 u (5)

    其中,{wu}的相关约束是为了保证生成的多核k是特有的,本文方法中U=5。使用核k后式(4)的经验估计如式(6)所示。

    d2k(Ds,Dt)=1n2ni,j=1k(xsi,xsj)+1m2mi,j=1k(xti,xtj)2mnn,mi,j=1k(xsi,xtj) (6)

    其中,n为源域训练样本数量,m为目标域训练样本数量。

    本文针对SAR目标分类网络的可解释性研究,采用了LRP系列可解释性方法作为工具。相比于一些其他可解释性方法[34,35],LRP可以生成像素级的解释,能够更精细地刻画输入图像中影响决策的区域。SAR图像中目标和背景干扰大多以离散散射点的形式呈现,目标和背景之间、不同类别的目标之间可分性不强,使用LRP这种像素级解释的方法更利于分析。为便于对后文实验结果的理解,本节结合第2节提出的网络模型,简单介绍LRP和CLRP方法的原理和应用。

    图4给出了一个简单的神经网络中前向传播过程和LRP后向传播过程,在神经网络中,第L+1层第j个神经元的输出可以表示为XL+1j=ϕ(i(wLijXLi+bLi)),其中ϕ代表神经元的激活函数,wLij是连接神经元i到神经元j的权重,bLi是对应的偏差。为了识别每个输入像素点的相关性,LRP将softmax归一化之前的激活值从指定神经元逐层传播回输入空间。RL+1j表示第L+1层第j个神经元的相关性,它可以分解到第L层的全部神经元上,如式(7)所示。第L层第i个神经元的相关性RLi可以理解为第L+1层全部神经元的相关性分解后再求和,见式(8)。LRP的传播规则由整流神经元网络的深度泰勒分解推导得来[36]。实际应用中,R(L,L+1)ij常用的计算规则有两种:z+rulezβrule,如式(9)和式(10)所示。

    图  4  LRP原理示意图
    Figure  4.  An overview of LRP
    RL+1j=i(L)R(L,L+1)ij (7)
    RLi=j(L+1)R(L,L+1)ij (8)
    z+rule:R(L,L+1)ij=jxiw+ijixiw+ijRL+1j (9)
    zβrule:R(L,L+1)ij=jxiwijliw+ijhiwiji(xiw+ijliw+ijhiwij)RL+1j (10)

    其中,w+ij=wij1wij>0, wij=wij1wij<0, [l,h]是激活值xi对应的区域。

    文献[28]指出,LRP生成的解释仅特定于实例,却不具备类别区分性,也即对于不同的类别,LRP生成的解释几乎是相同的。产生这一情况的原因,是LRP在解释的过程中使用了相同的特定于实例的结构信息(Instance-Specific Structure Information, ISSInfo),主要是指神经网络中的ReLU和池化操作。这使得前文中提到的RL+1j=max(0,XLWLj+bLj)只在最后一层成立,在其他层均不满足这一条件。换言之,对于不同的类别i, LRP的反向传递过程是类似的,接收到非零相关性的神经元也相同,只是绝对值可能不相等。因此,无论选择哪个类别对应的得分进行反向传播,接收到非零相关性的神经元始终保持不变,这使得LRP生成的解释独立于类别信息。

    CLRP通过构建虚拟类以剔除LRP生成的解释中与目标类别不相关的信息,进而生成具备类别区分性的解释。图5给出了使用CLRP解释网络的基本流程,其中红色路径表示与目标类别无关的LRP解释,蓝色路径表示对目标类别直接进行LRP解释得到的信息。定义与第j类相关的神经元nj描述了一个视觉概念O, nj通过权重W={W1,W2,,WL1,WLj}与输入形成连接,其中WL表示连接第L –1层和第L层的权重,WLj表示连接第L–1层和第L层中第j个神经元的权重。对于输入样本X,LRP将神经网络得分Snj映射回输入空间,得到相关向量R=fLRP(X,W,Snj)。使用对偶虚拟概念ˉO描述与O相反的视觉信息,文献[28]给出了两种对ˉO建模的方法:一是选择除与O对应类之外的其余所有类,也即ˉO对应的权重表示为ˉW={W1,W2,,WL1,WL{j}},其中WL{j}表示连接第L –1层和第L层除神经元j外的权重;二是对权重WLj求反直接构建一个虚拟类,即ˉW={W1,W2,,WL1,1WLj}ˉO的相关性可由式(11)计算得到,那么CLRP生成的解释如式(12)所示。

    图  5  CLRP原理示意图
    Figure  5.  An overview of CLRP
    Rdual=fLRP(X,ˉW,Snj) (11)
    RCLRP=max(0,(RRdual)) (12)

    相比于LRP, CLRP更适用于分析一张图像中存在多个不同类别目标或待分类目标结构相似的情况,但是LRP生成的解释在语义上更完整,更利于理解。考虑到SAR图像中不同目标相似性较高,目视上难以区分,本文在进行模型可解释性分析时,将以CLRP解释为主、以LRP解释为辅。在解释时,主要关注图2(b)所示的网络模型的分类过程,也即主要关注特征提取器和分类器两部分。首先使用LRP分析网络模型在分类过程中更关注哪些区域,分析网络模型决策依据的语义意义;然后利用CLRP进一步生成具有类别区分性的解释,结合域适应前的错分样本分析域适应后网络模型分类性能提升的可能原因。

    实验中使用的仿真数据(即源域数据)由东南大学毫米波国家重点实验室提供,利用该实验室自研软件通过目标电磁建模和散射计算的方式生成。仿真数据包括3类目标:BMP2, BTR70, T72。为保证仿真样本的多样性,仿真数据包括2个俯仰角(15°, 17°)和3种背景:(1)仿真软件自动生成的草地背景;(2)参考光学图像手动设置参数生成的草地背景;(3)参考光学图像手动设置参数生成的沙地背景。图6给出了3类目标的光学图像及典型方位角和俯仰角下的仿真与真实图像。每类目标在每个背景下每隔0.5°方位角生成一张仿真图像,仿真数据集共有12978张图像,按4:1划分仿真训练集和测试集。

    图  6  SAR目标光学图像及典型角度下的真实图像和仿真图像
    Figure  6.  Optical images of SAR targets and the corresponding simulated and real SAR images under typical azimuths and depressions

    以移动与静止目标获取识别(Moving and Stationary Target Acquisition and Recognition, MSTAR)数据集作为实验的目标域数据,MSTAR数据集通常分为标准工作条件(Standard Operating Condition, SOC)和扩展工作条件(Extended Operating Condition, EOC)两类。其中SOC指训练集和测试集的数据成像条件相似;EOC指训练集和测试集的数据成像条件存在一定差异,一般又可分为3类情况,第1类为大俯仰角情况,如训练集数据成像俯仰角为17°,测试集为30°,记为EOC-1;第2类指车辆配置不同,即车辆上某些部件的增加和拆除,如T72移除车上的油罐,记为EOC-2;第3类指车辆版本和功能不同,如原始车辆变化为运输车、侦察车等,记为EOC-3。实验用到的全部数据集大小见表1,其中目标域数据集的SOC数据集、EOC测试集见表2表5

    表  1  数据集
    Table  1.  Dataset
    数据集目标类别俯仰角数量
    源域(仿真)训练集BMP217°, 15°3462
    BTR7017°, 15°3462
    T7217°, 15°3462
    源域(仿真)测试集BMP217°, 15°864
    BTR7017°, 15°864
    T7217°, 15°864
    目标域(真实)训练集BMP217°233
    BTR7017°233
    T7217°233
    目标域(真实)测试集
    (SOC和EOC)
    BMP215°, 17°1052
    BTR7015°196
    T7215°, 17°, 30°5906
    下载: 导出CSV 
    | 显示表格
    表  2  SOC数据集
    Table  2.  SOC dataset
    目标类别目标型号训练集测试集
    俯仰角数量俯仰角数量
    BMP2956317°23315°195
    BTR70C7117°23315°196
    T7213217°23315°196
    下载: 导出CSV 
    | 显示表格
    表  3  EOC-1测试集(大俯仰角)
    Table  3.  EOC-1 test set (large depression variation)
    目标类别目标型号俯仰角数量
    T72A6430°288
    下载: 导出CSV 
    | 显示表格
    表  4  EOC-2测试集(配置变化)
    Table  4.  EOC-2 test set (configuration variant)
    目标类别目标型号俯仰角数量
    T72S715°, 17°419
    A3215°, 17°572
    A6215°, 17°573
    A6315°, 17°573
    A6415°, 17°573
    下载: 导出CSV 
    | 显示表格
    表  5  EOC-3测试集(版本变化)
    Table  5.  EOC-3 test set (version variant)
    目标类别目标型号俯仰角数量
    BMP2956615°, 17°428
    C2115°, 17°429
    81215°, 17°426
    A0415°, 17°573
    T72A0515°, 17°573
    A0715°, 17°573
    A1015°, 17°567
    下载: 导出CSV 
    | 显示表格

    实验中,通过在一个批次(batch)的训练中交替执行minθe,θc(Losscls+γLossdd)(惩罚因子γ>0)和minθe,θdLossda以使模型各部分平滑收敛,具体的参数设置见表6,其中学习率随着训练轮次的增加逐渐减小,如式(13)所示。实验在Linux 3.10.0系统下基于Pytorch 1.4.0框架实现,硬件采用Intel(R) Xeon(R) Gold 5218R CPU @ 2.10GHz和NVIDIA Tesla V100S GPU。

    表  6  网络训练过程中参数设置
    Table  6.  Parameters for the model training procedure
    名称参数值
    batch size32
    优化器SGD
    初始学习率lr00.01
    GRL参数λ1
    惩罚因子γ1
    epoch500
    iteration/epoch35
    下载: 导出CSV 
    | 显示表格
    lr=lr0(1+10jepoch)0.75 (13)

    其中,lr0为初始学习率,j为当前的轮次数,epoch为总的训练轮次数。

    为验证所提方法的有效性,本文利用不同背景下的SAR仿真图像进行训练,在SOC数据集上进行测试,开展了消融实验,以比较MK-MMD多层自适应正则器和域对抗训练模块对模型分类性能的影响。消融实验的结果见表7。为避免单次训练的随机性,每组进行了3次实验,表7记录了3次实验结果的平均准确率及其标准差,其中仿真背景①、②、③对应4.1节提到的3种仿真背景,表格最后一行指的是同时使用3种背景下的仿真训练集图像。可以看出,本文方法对不同仿真背景SAR图像构成的源域训练集都能有效提升真实样本的分类精度,且除只使用仿真背景①图像的情况外,本文方法优于只使用多层MK-MMD自适应正则器或只采用域对抗训练的方法。对于在只使用仿真背景①图像时本文方法未能达到最好性能这一现象,笔者认为可能是由仿真软件自动生成的背景与目标所处的实际背景差异较大,直接由仿真背景①样本训练得到的模型对实测数据的分类性能较差,只有28.00%左右的准确率。对于本文实验中的3分类任务,仿真背景①图像似乎未能为该任务提供正信息,这可能导致训练过程中以MK-MMD为度量缩减域差异时,也拉近了不同域中不同类别样本的距离,进而导致分类准确率提升效果不好,甚至不如只使用域对抗训练方法的提升效果好。

    表  7  结合不同背景仿真SAR图像的消融实验结果
    Table  7.  Results of ablation experiments with simulation SAR images of different backgrounds
    仿真背景方法准确率(%)
    MK-MMD域对抗训练
    ××28.00±1.39
    ×47.53±1.39
    ×35.48±0.52
    43.44±2.22
    ××73.20±1.38
    ×77.40±2.18
    ×85.20±1.19
    87.03±1.29
    ××65.07±0.52
    ×65.19±2.89
    ×73.57±0.62
    77.29±1.58
    全部应用××74.79±1.35
    ×83.99±1.19
    ×85.85±2.33
    90.43±0.95
    下载: 导出CSV 
    | 显示表格

    为深入评估模型的分类性能,本文在SOC和EOC测试集上进行了分类测试,图7图8给出了利用本文所提方法进行域适应前后的混淆矩阵,其中深色行对应域适应前的识别结果,浅色行对应域适应后。实验结果表明,本文方法能显著提升模型在SOC和EOC数据上的分类准确率。

    图  7  SOC测试集的混淆矩阵
    Figure  7.  The confusion matrix of the SOC test set
    图  8  EOC测试集的混淆矩阵
    Figure  8.  The confusion matrixes of the EOC test set

    表8给出了使用不同仿真背景数据时,本文所提域适应方法和条件域对抗(Conditional Domain Adversarial Network, CDAN)[19]及深度子域对齐(Deep Subdomain Adaptation Network, DSAN)[14]在SOC测试集上的准确率对比。实验结果表明,针对不同仿真背景情况下的数据,本文方法都能较好地提升仿真辅助SAR目标分类的准确率,尤其在使用全部仿真背景数据时,本文方法分类准确率显著高于CDAN和DSAN方法。表明本文方法集成了域对抗训练和域差异度量两种域适应策略,比使用单一域适应策略的方法具有更好的域适配能力。

    表  8  使用不同仿真背景数据时,各方法在SOC测试集上的分类准确率对比
    Table  8.  Comparison of the classification accuracy on the SOC test set when using different methods with simulated data under different backgrounds
    训练方法准确率(%)
    全部仿真
    背景
    仿真
    背景①
    仿真
    背景②
    仿真
    背景③
    CNN(仅仿真训练集)75.8127.7773.5959.63
    CDAN[19]76.8341.7477.8572.23
    DSAN[14]84.8438.3388.0869.67
    本文域适应方法90.2941.9188.7678.36
    下载: 导出CSV 
    | 显示表格

    图9给出了使用t-SNE[37]对特征提取器提取到的仿真数据特征和真实数据特征降维可视化的结果,可见本文方法有效地拉近了仿真和真实SAR图像的特征分布。

    图  9  使用t-SNE进行特征可视化
    Figure  9.  Visualization of extracted features using t-SNE

    为了对模型的决策机制有更深层次的理解,本文使用LRP和CLRP可视化了输入像素对模型决策结果的影响。实验过程中,参照文献[36]的设置,第1层卷积层应用zβrule,其余的卷积层和全连接层使用z+rule。对于最大池化层,将相关性系数重新分配到池化区域内值最大的神经元。相关性传播过程中,忽略偏差和标准化层。

    首先,在由真实数据训练得到的模型上对LRP和CLRP方法进行对比评估,结果如图10图11所示。图中最左侧一列为输入图像,右侧3列依次为对应类别BMP2, BTR70, T72的解释,其中左上角标注了对应类别的预测得分。LRP生成的解释虽然不具备类别区分性,却能对影响网络决策的区域有一个语义上比较完整的表示,从LRP的解释结果可以看出,影响真实数据分类的关键在于SAR图像中强散射点的分布区域,而这些一般对应于目标中结构或装配复杂的地方,如炮筒、炮台等。CLRP的结果则更有助于理解模型“认为”不同目标之间的异同之处,从图11可以看出,模型认为BMP2和BTR70在背景上更加相似,而BMP2和T72在结构上更相似,这也与MSTAR提供的光学图像(图6)中反映出来的目标实际结构和所处背景中体现出来的信息一致。从结构上来说,BMP2和T72均为履带式车辆且装有圆形炮台和炮筒,BTR70为轮式运输车,没有装配火炮;从背景上来看,BMP2和BTR70目标所处的背景相近,而T72与之相异。

    图  10  LRP可视化真实数据训练得到的模型决策依据
    Figure  10.  Using LRP to visualize the decision basis of the model trained by the real data
    图  11  CLRP可视化真实数据训练得到的模型决策依据
    Figure  11.  Using CLRP to visualize the decision basis of the model trained by the real data

    图12展示了仿真数据训练所得模型对不同背景下仿真图像的LRP解释及对应真值类别的CLRP解释,其中从左至右依次对应仿真背景①、②、③。可以看出,LRP和CLRP解释对于同一目标的不同图像关注区域大体一致,一定程度上可以证明这两种解释方法的有效性和鲁棒性。此外,从图12的解释结果中也可以看出仿真数据训练的模型也学习到了不同目标之间结构上的差异,较少关注背景区域。

    图  12  LRP和CLRP可视化仿真数据训练得到的模型决策依据
    Figure  12.  Using LRP and CLRP to visualize the decision basis of the model trained by the simulated data

    前文提到,由于仿真图像和真实图像之间的域偏移,直接用仿真数据训练得到的模型对真实数据分类结果并不理想,本文尝试结合可解释性方法对仿真辅助真实数据分类任务中的域偏移问题给出一个具象的解释。图7所示的混淆矩阵中,在域适应前,T72的目标图像中有相当一部分被误判为BMP2。从这一现象出发,本文使用LRP和CLRP分析由仿真数据训练得到的模型(即域适应前的模型)对仿真和真实T72图像判断依据的异同,并结合CLRP进一步分析域适应前后模型对真实T72图像判断依据的变化。图13给出了域适应前的模型对仿真和真实图像的分类结果及对应的解释,其中CLRP-T72表示由CLRP分析得到的模型“认为”输入样本像T72的地方,CLRP可视化图像中左上方标注了对应类别的得分。图13用红色标注出了模型决策依据中存在较大差异的区域,图13(a)中这一区域大致对应T72目标的炮台结构,可以看出,在仿真图像中这一区域散射强度较大,而实测图像中散射较弱,仿真图像训练的网络模型在仿真图像上关注到了该区域特征,而应用到实测图像上则关注不到该区域特征,从而导致误判;图13(b)中差异较大的区域大致对应车头和车尾,实测图像中对应区域的散射强度高于仿真图像,对模型决策造成干扰,从而导致误判。

    图  13  域适应前模型对T72图像的LRP及CLRP解释
    Figure  13.  The predicted results of the T72 images by the model before domain adaptation and the corresponding explanations generated by LRP and CLRP

    图14给出了域适应前后的模型对真实T72图像判断依据的变化,其中图14(a)对应域适应前后模型决策由错到对的T72样本,图14(b)则对应域适应后模型仍旧给出错误判断的样本。结合图13来看,图14(a)中域适应后的模型小范围修正了关注区域,提取到了炮台等区域的特征,给出了更准确的决策。但对于域适应后仍旧错分的样本,可能是域适应前的关注区域与应该关注的区域偏离较大,使得网络在域适应训练后对该样本的关注区域无法有效修正,反而引入了较多的背景区域,导致网络依然只能给出错误的判别结果。

    图  14  域适应前后模型对T72真实图像的预测结果及CLRP解释
    Figure  14.  The predicted results of the real T72 image by the model before and after domain adaptation and the corresponding explanations generated by CLRP

    本文针对深度学习在SAR目标识别领域面临的标注样本少、标注样本难的问题,提出了一种集成域对抗训练和MK-MMD的无监督域适应方法,以充分利用仿真SAR图像可以快速生成且天然具备标签的优势,实现较高精度的仿真辅助的SAR目标分类。

    同时,考虑到深度学习可解释性差、可信任程度不足等问题,本文使用可解释性方法LRP和CLRP对所提出的模型进行深入分析。结果表明,本文神经网络是通过修正模型关注区域来提升仿真辅助SAR图像分类的性能,具有一定的合理性。

    但是,从可解释性分析的结果来看,模型并非对所有样本都找到了可靠的决策依据,且当仿真样本训练模型对真实数据直接分类效果较差时(如仿真背景①训练的模型),本文方法提升效果不明显,仍旧存在一定的局限性。未来的工作中,考虑从以下两方面继续优化本文方法:(1)本文方法虽然在MSTAR 3分类任务上表现出了不错的提升效果,但目前仿真目标类别较少,缺少在更多类别上的实验验证;(2)本文使用可解性方法分析了模型性能提升的原因,也找到了可能导致仿真和真实图像之间域偏移的目标主要结构,后续将考虑利用解释结果指导仿真方法调整和优化,并利用可解释性方法引导网络训练,帮助网络模型找到可靠的决策依据。

  • 图  1  镶嵌模式工作示意图

    Figure  1.  Illustration of mosaic mode

    图  2  WorldSAR星座工作示意图

    Figure  2.  Illustration of WorldSAR constellation

    图  3  SAR-lupe卫星星座

    Figure  3.  Illustration of SAR-lupe constellation

    图  4  Capella卫星星座构成示意图

    Figure  4.  Illustration of Capella constellation

    图  5  斜距随扫描角度变化曲线

    Figure  5.  Slant range varying with squint angle

    图  6  回波窗数据接收示意图

    Figure  6.  Illustration of the receive window

    图  7  固定脉冲间隔与方位非均匀采样体制下脉冲发射与回波接收示意图

    Figure  7.  Illustration of receiving signal for uniform and non-uniform sampling strategy

    图  8  点阵目标场景回波信号仿真结果

    Figure  8.  Echo data of point targets using uniform and non-uniform sampling

    图  9  星载SAR多方位角观测

    Figure  9.  Illustrations of azimuthal multi-angles observation

    图  10  多方位角观测动目标检测、跟踪模式

    Figure  10.  Movingt target detection mode based on azimuthal multi-angles observation

    图  11  速度矢量提取流程图

    Figure  11.  The flowchart of velocity vector estimation

    图  12  方位向速度估计流程图

    Figure  12.  The flowchart of azimuth velocity estimation

    图  13  距离向速度估计流程图

    Figure  13.  The flowchart of range velocity estimation

    图  14  多角度动目标序贯图像(高铁)

    Figure  14.  Azimuthal multi-angles SAR images (high-speed railway)

    图  15  多方位角观测SAR图像斑点噪声抑制流程图

    Figure  15.  The flowchart for speckle noise suppression based on azimuthal multi-angles SAR images

    图  16  滤波处理结果

    Figure  16.  Filtering results

    图  17  斜视条件下旁瓣抑制处理流程

    Figure  17.  The flowchart for sidelobe suppression in squint

    图  18  斜视条件下旁瓣抑制处理试验结果

    Figure  18.  Sidelobe suppression results

    图  19  多方位角观测星载SAR信噪比提升流程图

    Figure  19.  The flowchart of SNR improvement based on azimuthal multi-angles observation

    图  20  多方位角观测SAR图像目标信噪比提升

    Figure  20.  SNR improvement result based on azimuthal multi-angles observation

    图  21  多方位角观测SAR超分辨率处理结果

    Figure  21.  Super-resolution processing result based on azimuthal multi-angles observation

    图  22  几何观测模型

    Figure  22.  Geometric observation model

    图  23  多方位角SAR图像配准流程图

    Figure  23.  The flowchart of image registration based on azimuthal multi-angles observation

    图  24  立体定位仿真结果示意图

    Figure  24.  Three dimension location results

    图  25  多方位角观测星载SAR三维成像处理流程

    Figure  25.  The flowchart of three dimension imaging based on azimuthal multi-angles observation

    图  26  多方位角观测SAR三维成像仿真结果示意图

    Figure  26.  Three dimension imaging result based on azimuthal multi-angles observation

    表  1  辐射分辨率分析结果

    Table  1.   Radiation resolution analysis results

    等效视数辐射分辨率(dB)
    原图0.973.03
    单帧5.301.56
    2幅29.640.73
    3幅43.280.61
    4幅52.270.56
    下载: 导出CSV
  • [1] FRANCESCHETTI G, GUIDA R, IODICE A, et al. Efficient simulation of hybrid stripmap/spotlight SAR raw signals from extended scenes[J]. IEEE Transactions on Geoscience and Remote Sensing, 2004, 42(11): 2385–2396. doi: 10.1109/TGRS.2004.834763
    [2] KRIEGER G, GEBERT N, and MOREIRA A. Unambiguous SAR signal reconstruction from nonuniform displaced phase center sampling[J]. IEEE Geoscience and Remote Sensing Letters, 2004, 1(4): 260–264. doi: 10.1109/LGRS.2004.832700
    [3] PRATS P, SCHEIBER R, MITTERMAYER J, et al. Processing of sliding spotlight and TOPS SAR data using baseband azimuth scaling[J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(2): 770–780. doi: 10.1109/TGRS.2009.2027701
    [4] DE ZAN F and GUARNIERI A M. TOPSAR: Terrain observation by progressive scans[J]. IEEE Transactions on Geoscience and Remote Sensing, 2006, 44(9): 2352–2360. doi: 10.1109/TGRS.2006.873853
    [5] META A, MITTERMAYER J, STEINBRECHER U, et al. Investigations on the TOPSAR acquisition mode with TerraSAR-X[C]. 2007 IEEE International Geoscience and Remote Sensing Symposium, Barcelona, Spain, 2007.
    [6] MITTERMAYER J and WOLLSTADT S. Simultaneous bi-directional SAR acquisition with TerraSAR-X[C]. The 8th European Conference on Synthetic Aperture Radar, Aachen, Germany, 2010.
    [7] MITTERMAYER J, PRATS P, WOLLSTADT S, et al. Approach to velocity and acceleration measurement in the bi-directional SAR imaging mode[C]. 2012 IEEE International Geoscience and Remote Sensing Symposium, Munich, Germany, 2012.
    [8] MITTERMAYER J, WOLLSTADT S, PRATS-IRAOLA P, et al. Bidirectional SAR imaging mode[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(1): 601–614. doi: 10.1109/TGRS.2012.2202669
    [9] MITTERMAYER J, WOLLSTADT S, PRATS-IRAOLA P, et al. The TerraSAR-X staring spotlight mode concept[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(6): 3695–3706. doi: 10.1109/TGRS.2013.2274821
    [10] KRAUS T, BRAUTIGAM B, MITTERMAYER J, et al. TerraSAR-X staring spotlight mode optimization and global performance predictions[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(3): 1015–1027. doi: 10.1109/JSTARS.2015.2431821
    [11] MITTERMAYER J, KRAUS T, LÓPEZ-DEKKER P, et al. Wrapped staring spotlight SAR[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(10): 5745–5764. doi: 10.1109/TGRS.2016.2571340
    [12] MOSSING J C and ROSS T D. Evaluation of SAR ATR algorithm performance sensitivity to MSTAR extended operating conditions[C]. Proceedings of SPIE 3370, Algorithms for Synthetic Aperture Radar Imagery V, Orlando, USA, 1998: 13.
    [13] ERTIN E, AUSTIN C D, SHARMA S, et al. GOTCHA experience report: Three-dimensional SAR imaging with complete circular apertures[C]. Proceedings of SPIE 6568, Algorithms for Synthetic Aperture Radar Imagery XIV, Orlando, USA, 2007: 656802.
    [14] 洪文, 王彦平, 林赟, 等. 新体制SAR三维成像技术研究进展[J]. 雷达学报, 2018, 7(6): 633–654. doi: 10.12000/JR18109

    HONG WEN, WANG Yanping, LIN Yun, et al. Research progress on three-dimensional SAR imaging techniques[J]. Journal of Radars, 2018, 7(6): 633–654. doi: 10.12000/JR18109
    [15] LIU Min, LI Zhou, and LIU Lu. A novel sidelobe reduction algorithm based on two-dimensional sidelobe correction using D-SVA for squint SAR images[J]. Sensors, 2018, 18(783): 783.
    [16] WANG Yamin, YANG Wei, CHEN Jie, et al. Azimuth sidelobes suppression using multi-azimuth angle synthetic aperture radar images[J]. Sensors, 2018, 19(12): 2764.
    [17] YANG Wei, CHEN Jie, LIU Wei, et al. Moving target azimuth velocity estimation for the MASA mode based on sequential SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017, 10(6): 2780–2790. doi: 10.1109/JSTARS.2016.2641744
    [18] YANG Wei and MA Xiaocong. A novel spaceborne SAR imaging mode for moving target velocity estimation[C]. 2016 International Conference on Control, Automation and Information Sciences, Ansan, South Korea, 2016.
    [19] ANSARI H, DE ZAN F, PARIZZI A, et al. Measuring 3-D surface motion with future SAR systems based on reflector antennae[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(2): 272–276. doi: 10.1109/LGRS.2015.2509440
    [20] JUNG H S, LU Zhong, SHEPHERD A, et al. Simulation of the superSAR multi-azimuth synthetic aperture radar imaging system for precise measurement of three-dimensional earth surface displacement[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(11): 6196–6206. doi: 10.1109/TGRS.2015.2435776
    [21] 邓云凯, 禹卫东, 张衡, 等. 未来星载SAR技术发展趋势[J]. 雷达学报, 2020, 9(1): 1–33. doi: 10.12000/JR20008

    DENG Yunkai, YU Weidong, ZHANG Heng, et al. Forthcoming spaceborne SAR development[J]. Journal of Radars, 2020, 9(1): 1–33. doi: 10.12000/JR20008
    [22] SHARAY Y and NAFTALY U. TECSAR: Design considerations and programme status[J]. IEE Proceedings - Radar, Sonar and Navigation, 2006, 153(2): 117–121. doi: 10.1049/ip-rsn:20045124
    [23] LEVY-NATHANSOHN R and NAFTALY U. Overview of the TECSAR satellite hardware and mosaic mode[J]. IEEE Geoscience and Remote Sensing Letters, 2008, 5(3): 423–426. doi: 10.1109/LGRS.2008.915926
    [24] NAFTALY U and ORON O. TECSAR-program status[C]. 2013 IEEE International Conference on Microwaves, Communications, Antennas and Electronic Systems, Tel Aviv, Israel, 2013.
    [25] NAFTALY U and ORON O. TECSAR-program status[C]. The 10th European Conference on Synthetic Aperture Radar, Berlin, Germany, 2014.
    [26] HOELLISCH D, BACH K, JANOTH J, et al. On the second generation of TerraSAR-X[C]. The 8th European Conference on Synthetic Aperture Radar, Aachen, Germany, 2010.
    [27] HEER C and SCHAEFER C. TerraSAR-X next generation: Technology aspects[C]. The 2011 3rd International Asia-Pacific Conference on Synthetic Aperture Radar, Seoul, South Korea, 2011.
    [28] GANTERT S, RIEGLER G, TEUFEL F, et al. TerraSAR-X, TanDEM-X, TerraSAR-X2 and their applications[C]. The 2011 3rd International Asia-Pacific Conference on Synthetic Aperture Radar, Seoul, South Korea, 2011.
    [29] JANOTH J, GANTERT S, KOPPE W, et al. TerraSAR-X2- Mission overview[C]. 2012 IEEE International Geoscience and Remote Sensing Symposium, Munich, Germany, 2012.
    [30] JANOTH J, GANTERT S, SCHRAGE T, et al. Terrasar next generation - Mission capabilities[C]. 2013 IEEE International Geoscience and Remote Sensing Symposium, Melbourne, Australia, 2013.
    [31] GANTERT S, KERN A, DÜRING R, et al. The future of X-band SAR: TerraSAR-X next generation and WorldSAR constellation[C]. Conference Proceedings of 2013 Asia-Pacific Conference on Synthetic Aperture Radar, Tsukuba, Japan, 2013.
    [32] JANOTH J, GANTERT S, SCHRAGE T, et al. From TerraSAR-X towards TerraSAR Next Generation[C]. 10th European Conference on Synthetic Aperture Radar, Berlin, Germany, 2014.
    [33] JANOTH J, JOCHUM M, PETRAT L, et al. High resolution wide swath - the next generation X-band mission[C]. 2019 IEEE International Geoscience and Remote Sensing Symposium, Yokohama, Japan, 2019.
    [34] SANFOURCHE J P. ‘SAR-lupe’, an important German initiative[J]. Air & Space Europe, 2000, 2(4): 26–27.
    [35] PETRIE G. Current & future spaceborne SAR systems[C]. VIII International Scientific & Technical Conference “From Imagery to Map: Digital Photogrammetric Technologies, Porec, Croatia, 2008.
    [36] 孙佳. 国外合成孔径雷达卫星发展趋势分析[J]. 装备指挥技术学院学报, 2007, 18(1): 67–70.

    SUN Jia. Analysis of the SAR satellite development tendency in the world[J]. Journal of the Academy of Equipment Command &Technology, 2007, 18(1): 67–70.
    [37] BAYIR I. A glimpse to future commercial spy satellite systems[C]. The 2009 4th International Conference on Recent Advances in Space Technologies, Istanbul, Turkey, 2009.
    [38] STRINGHAM C, FARQUHARSON G, CASTELLETTI D, et al. The capella X-band SAR constellation for rapid imaging[C]. 2019 IEEE International Geoscience and Remote Sensing Symposium, Yokohama, Japan, 2019.
    [39] 高庆军, 宋泽考. 美国“空间雷达”计划发展动态[J]. 国际太空, 2007(5): 5–8.

    GAO Qingjun and SONG Zekao. The development of American spaceborne radar program[J]. Space International, 2007(5): 5–8.
    [40] United States Government Accountability Office. Assessments of selected weapon programs[R]. GAO-15-342SP, 2015.
    [41] MOREIRA A, PRATS-IRAOLA P, YOUNIS M, et al. A tutorial on synthetic aperture radar[J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(1): 6–43. doi: 10.1109/MGRS.2013.2248301
    [42] 王鹏波, 陈杰, 李景文, 等. 一种基于方位非均匀采样的滑动聚束SAR工作体制实现方法[P]. 中国, CN201010051678, 2010.

    WANG Pengbo, CHEN Jie, LI Jingwen, et al. A realization method of sliding spotlight SAR based on azimuth nonuniform sampling[P]. China, CN201010051678, 2010.
    [43] WANG Pengbo, LIU Wei, CHEN Jie, et al. A raster scan SAR system for ultra-wide swath imaging[J]. Remote Sensing Letters, 2014, 5(9): 833–842. doi: 10.1080/2150704X.2014.971904
    [44] MEN Zhirong, WANG Pengbo, LI Chunsheng, et al. High-temporal-resolution high-spatial-resolution spaceborne SAR based on continuously varying PRF[J]. Sensors, 2017, 17(8): 1700. doi: 10.3390/s17081700
    [45] ZENG Hongcheng, CHEN Jie, LIU Wei, et al. Modified omega-k algorithm for high-speed platform highly-squint staggered SAR based on azimuth non-uniform interpolation[J]. Sensors, 2015, 15(2): 3750–3765. doi: 10.3390/s150203750
    [46] 陈世阳, 黄丽佳, 俞雷. 基于改进SINC插值的变PRF采样聚束SAR成像[J]. 雷达学报, 2019, 8(4): 527–536. doi: 10.12000/JR18095

    CHEN Shiyang, HUANG Lijia, and YU Lei. A novel sinc interpolation for continuous PRF sampled sequences reconstruction in spotlight SAR[J]. Journal of Radars, 2019, 8(4): 527–536. doi: 10.12000/JR18095
    [47] MCCORKLE J W and ROFHEART M. Order N2 log(N) backprojector algorithm for focusing wide-angle wide-bandwidth arbitrary-motion synthetic aperture radar[C]. SPIE 2747, Radar Sensor Technology, Orlando, USA, 1996: 25–36.
    [48] LANARI R, HENSLEY S, and ROSEN P A. Chirp z-transform based SPECAN approach for phase-preserving ScanSAR image generation[J]. IEE Proceedings - Radar, Sonar and Navigation, 1998, 145(5): 254–261. doi: 10.1049/ip-rsn:19982218
    [49] JIN M J Y and WU C. A SAR correlation algorithm which accommodates large-range migration[J]. IEEE Transactions on Geoscience and Remote Sensing, 1984, GE-22(6): 592–597. doi: 10.1109/TGRS.1984.6499176
    [50] RANEY R K, RUNGE H, BAMLER R, et al. Precision SAR processing using chirp scaling[J]. IEEE Transactions on Geoscience and Remote Sensing, 1994, 32(4): 786–799. doi: 10.1109/36.298008
    [51] DAVIDSON G W, CUMMING I G, ITO M R. A chirp scaling approach for processing squint mode SAR data[J]. IEEE Transactions on Aerospace and Electronic Systems, 1996, 32(1): 121–133. doi: 10.1109/7.481254
    [52] 王国栋, 周荫清, 李春升. 星载聚束式SAR改进的Frequency Scaling成像算法[J]. 电子学报, 2003, 31(3): 381–385. doi: 10.3321/j.issn:0372-2112.2003.03.017

    WANG Guodong, ZHOU Yinqing, and LI Chunsheng. Refined frequency scaling algorithm for spaceborne spotlight SAR imaging[J]. Acta Electronica Sinica, 2003, 31(3): 381–385. doi: 10.3321/j.issn:0372-2112.2003.03.017
    [53] 郑义明. 用频率变标算法处理大斜视角SAR数据[J]. 系统工程与电子技术, 2000, 22(6): 8–11, 65. doi: 10.3321/j.issn:1001-506X.2000.06.003

    ZHENG Yiming. Large squint SAR data processing using frequency scaling algorithm[J]. Systems Engineering and Electronics, 2000, 22(6): 8–11, 65. doi: 10.3321/j.issn:1001-506X.2000.06.003
    [54] BAMLER R. A comparison of Range-Doppler and wavenumber domain SAR focusing algorithms[J]. IEEE Transactions on Geoscience and Remote Sensing, 1992, 30(4): 706–713. doi: 10.1109/36.158864
    [55] 叶晓东, 朱兆达. 一种分块处理斜视SAR成像方法[J]. 现代雷达, 1997, 19(5): 23–29, 47.

    YE Xiaodong and ZHU Zhaoda. An approach for squint SAR imaging based on block processing[J]. Modern Radar, 1997, 19(5): 23–29, 47.
    [56] 曾海彬, 曾涛, 何佩琨. 星载聚束SAR频域极坐标算法研究[J]. 现代雷达, 2006, 28(1): 28–30. doi: 10.3969/j.issn.1004-7859.2006.01.009

    ZENG Haibin, ZENG Tao, and HE Peikun. A study on frequency domain polar format algorithm of spaceborne spotlight SAR[J]. Modern Radar, 2006, 28(1): 28–30. doi: 10.3969/j.issn.1004-7859.2006.01.009
    [57] 李春升, 杨威, 王鹏波. 星载SAR成像处理算法综述[J]. 雷达学报, 2013, 2(1): 111–122. doi: 10.3724/SP.J.1300.2013.20071

    LI Chunsheng, YANG Wei, and WANG Pengbo. A review of spaceborne SAR algorithm for image formation[J]. Journal of Radars, 2013, 2(1): 111–122. doi: 10.3724/SP.J.1300.2013.20071
    [58] CERUTTI-MAORI D and SIKANETA I. A generalization of DPCA processing for multichannel SAR/GMTI radars[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(1): 560–572. doi: 10.1109/TGRS.2012.2201260
    [59] SUCHANDT S, RUNGE H, BREIT H, et al. Automatic extraction of traffic flows using TerraSAR-X along-track interferometry[J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(2): 807–819. doi: 10.1109/TGRS.2009.2037919
    [60] ROSENBERG L and GRAY D A. Constrained fast-time STAP for interference suppression in multichannel SAR[J]. IEEE Transactions on Aerospace and Electronic Systems, 2013, 49(3): 1792–1805. doi: 10.1109/TAES.2013.6558020
    [61] MITTERMAYER J and WOLLSTADT S. Simultaneous bi-directional SAR acquisition with TerraSAR-X[C]. 8th European Conference on Synthetic Aperture Radar, Aachen, Germany, 2010.
    [62] 张敬. 多源图像超分辨率重建研究[D]. [博士论文], 中国科学技术大学, 2015: 1–30.

    ZHANG Jing. A study on super-resolution of multi-source images[D]. [Ph. D. dissertation], University of Science and Technology of China, 2015: 1–30.
  • 期刊类型引用(3)

    1. 闫莉,许高添,张廷豪. 基于改进混合坐标系的大斜视俯冲机动平台SAR快速时域成像算法. 电子学报. 2024(10): 3472-3481 . 百度学术
    2. 刘裕洲,蔡天倚,李亚超,宋炫,王选琪,安培赟. 联合距离方位二维NCS的星弹双基前视SAR成像算法. 雷达学报. 2023(06): 1202-1214 . 本站查看
    3. Yi Xiong,Buge Liang,Ning Wang,Jianlai Chen. Nonlinear Trajectory SAR Imaging Algorithms:Overview and Experimental Comparison. Journal of Beijing Institute of Technology. 2023(06): 653-669 . 必应学术

    其他类型引用(3)

  • 加载中
图(26) / 表(1)
计量
  • 文章访问数: 5457
  • HTML全文浏览量: 2196
  • PDF下载量: 936
  • 被引次数: 6
出版历程
  • 收稿日期:  2020-03-09
  • 修回日期:  2020-04-27
  • 网络出版日期:  2020-04-01

目录

/

返回文章
返回