Loading [MathJax]/jax/output/SVG/jax.js

IAA-Net:一种实孔径扫描雷达迭代自适应角超分辨成像方法

毛德庆 杨建宇 杨明杰 张永超 张寅 黄钰林

毛德庆, 杨建宇, 杨明杰, 等. IAA-Net:一种实孔径扫描雷达迭代自适应角超分辨成像方法[J]. 雷达学报(中英文), 2024, 13(5): 1073–1091. doi: 10.12000/JR24063
引用本文: 毛德庆, 杨建宇, 杨明杰, 等. IAA-Net:一种实孔径扫描雷达迭代自适应角超分辨成像方法[J]. 雷达学报(中英文), 2024, 13(5): 1073–1091. doi: 10.12000/JR24063
MAO Deqing, YANG Jianyu, YANG Mingjie, et al. IAA-Net: An iterative adaptive approach for angular super-resolution imaging of real aperture scanning radar[J]. Journal of Radars, 2024, 13(5): 1073–1091. doi: 10.12000/JR24063
Citation: MAO Deqing, YANG Jianyu, YANG Mingjie, et al. IAA-Net: An iterative adaptive approach for angular super-resolution imaging of real aperture scanning radar[J]. Journal of Radars, 2024, 13(5): 1073–1091. doi: 10.12000/JR24063

IAA-Net:一种实孔径扫描雷达迭代自适应角超分辨成像方法

DOI: 10.12000/JR24063 CSTR: 32380.14.JR24063
基金项目: 国家自然科学基金(62301131),博士后科学基金(BX20220055, 2022M720667)
详细信息
    作者简介:

    毛德庆,博士,副研究员,主要研究方向为雷达前视成像、雷达超分辨成像等

    杨建宇,博士,教授,主要研究方向为合成孔径雷达和统计信号处理等

    杨明杰,硕士生,主要研究方向为机载雷达前视智能化超分辨成像等

    张永超,博士,副研究员,主要研究方向为阵列信号处理和雷达应用中的逆问题等

    张 寅,博士,研究员,主要研究方向为信号处理和雷达成像等

    黄钰林,博士,教授,主要研究方向为雷达成像、检测与识别和机器学习等

    通讯作者:

    毛德庆 deqingmao@uestc.edu.cn

    张寅 yinzhang@uestc.edu.cn

  • 责任主编:朱岱寅 Corresponding Editor: ZHU Daiyin
  • 中图分类号: TN957

IAA-Net: An Iterative Adaptive Approach for Angular Super-resolution Imaging of Real Aperture Scanning Radar

Funds: The National Natural Science Foundation of China (62301131), The China Postdoctoral Science Foundation (BX20220055, 2022M720667)
More Information
  • 摘要: 实孔径雷达(RAR)通过天线扫描工作,以获取大范围探测区域内目标的观测信息。但是,由于雷达天线尺寸小,受天线衍射机理限制,与距离分辨率相比,其角分辨率通常较低。角超分辨处理方法,可利用天线方向图与目标散射间的卷积关系,通过求解卷积反演问题,以提高扫描雷达角分辨率。但是,由于测量矩阵的低秩特性,传统角超分辨处理方法,存在正则化参数选择难、迭代更新慢等问题,并且在低信噪比条件下,角超分辨处理性能明显下降。针对上述问题,该文提出了一种基于深度网络的迭代自适应实孔径扫描雷达角超分辨成像方法。首先,该文将实孔径扫描雷达的卷积反演问题转化为回波自相关矩阵反演求解问题,以改善求逆矩阵的病态性;其次,将可学习的修正矩阵引入到迭代自适应求解方法中,以实现迭代自适应求解方法与深度网络的结合;最后,通过迭代学习更新回波自相关矩阵,降低噪声对反演结果的影响,提高实孔径雷达的角分辨率。仿真及实测数据结果表明,所提方法可避免传统算法中的手动参数选择和迭代更新慢等问题。同时,由于深度网络的学习拟合能力,所提方法可在低信噪比条件下保持良好的角超分辨性能。

     

  • 近年来,深度学习方法在合成孔径雷达(Synthetic Aperture Radar, SAR)自动目标识别(Automatic Target Recognition, ATR)方面取得巨大成功[15]。然而,在许多SAR应用中,很难完全正确标注大规模图像数据[6]。由于SAR图像中的目标对人眼判别并不友好,这使得人工标注更加困难;另一方面,在处理大规模数据集时,人类容易在标注过程中犯错,这给数据集带来错误标签。文献[7]中提到,在处理大规模遥感数据集时,发现一些错误标记样本。

    SAR目标分类是SAR图像解译的基本步骤。对于SAR ATR任务中的数据集,也常存在错误标注的样本(即标签噪声),且人工纠错难以处理大规模数据集。因此,如何在数据中含标签噪声情况下为SAR ATR任务训练一个基于深度监督学习的神经网络成为一个重要的问题。

    标签噪声的存在会严重影响分类网络训练性能。图1绘制了经过300次迭代之后,以混有80%标签噪声的数据集训练ResNet分类网络[8]得到的损失曲线(损失曲线指单个样本的损失函数随迭代次数的变化)。其中,绿色曲线代表单个正确标签样本的损失曲线,橙色曲线代表单个噪声标签样本的损失曲线。从图1中看出,随着训练过程迭代,噪声标签和正确标签样本对应的损失值都趋于收敛。这表明,无论训练集标签是否正确,基于深度监督学习的分类网络可拟合所有训练样本。因此,噪声标签样本的存在将影响深度网络监督学习训练效果。

    图  1  混合正确和噪声标签样本训练分类网络的损失曲线(以含80%标签噪声数据集训练ResNet18网络300次获得)
    Figure  1.  Loss curves of the classification network trained by mixed-noisy-and-clean labels (obtained by training ResNet18 with 80% noisy labels after 300 epochs)

    为了处理标签噪声影响深度分类网络训练的问题,本文提出一种新的方法,可识别并纠正噪声标签,并用纠正后的标签有效训练SAR目标分类网络。本文提出的方法基于一个简单观察:卷积神经网络(Convolutional Neural Network, CNN)因其强大的拟合能力亦可拟合标签噪声,使噪声标签样本的损失值降低;当数据集中混有正确标签和噪声标签目标时,网络倾向先拟合正确标签样本[9]。故在网络训练前期,正确标签样本损失比噪声标签样本损失下降速度快,可作为特征区分噪声标签样本与正确标签样本。

    基于上述观察本文提出一种基于损失曲线拟合的标签噪声不确定性建模和基于噪声不确定度的纠正方法,包含两个阶段——标签噪声不确定性建模阶段以及基于噪声不确定度的数据划分和分组加权训练纠正阶段。首先,本文利用混有正确标签和噪声标签的数据集训练分类网络,并将训练过程中得到的损失曲线视为判别特征。在标签噪声不确定性建模阶段,应用无监督模糊聚类算法获得聚类中心和类别隶属度以确立各样本标签噪声不确定度。在基于标签噪声不确定度纠正阶段,根据样本标签噪声不确定度划分训练样本集,为不同组训练集在损失函数中分配不同权重,以指导分类网络训练实现纠正噪声标签。

    在the Moving and Stationary Target Acquisition and Recognition (MSTAR)数据集上的实验证明,本文提出的方法可处理数据集中不同标签噪声比例训练网络时的情况,并有效纠正标签噪声。当训练数据集中标签噪声比例较小(40%)时,本文所提方法可纠正98.6%的标签噪声,并训练网络达到98.7%的分类精度。即使标签噪声比例很大(80%)时,本文方法仍可纠正87.8%的标签噪声,并训练网络达到82.3%的分类精度。

    标注人员可能缺乏正确标注所需专业知识,这使得标签噪声成为图像分类中一个普遍存在的问题。文献[9]指出深度监督学习中标签噪声对网络训练的负面影响。如表1所示,当分别使用仅20%正确标签的样本集、混合20%正确标签和80%噪声标签的样本集以及100%正确标签的样本集训练网络时,网络分类精度具有很大差异。使用混有噪声和正确标签的数据集训练网络分类准确率为27.46%,远远低于使用仅20%正确标签或100%正确标签的数据集训练网络。CNN因其具有突出的特征表示和拟合能力,在分类任务中取得良好性能。然而,CNN突出的拟合能力导致网络也会拟合标签噪声[10]

    表  1  标签噪声数据集训练分类网络模型精度(%)
    Table  1.  Classification accuracy of the models trained with noisy labels and clean labels (%)
    训练网络模型 分类精度
    20%的正确标签 92.13
    混合20%的正确标签 & 80%的噪声标签 27.46
    100%的正确标签 98.30
    下载: 导出CSV 
    | 显示表格

    针对标签噪声引起深度神经网络训练问题,研究人员提出多种方法来缓解标签噪声对深度网络训练的影响[11]。一系列方法基于少量正确标注样本训练模型,并使用模型进行预测,以重新标记噪声样本[12,13]。然而,正确标签样本并不总是易于获得,从而限制了该系列方法的适用性。

    更多工作旨在处理噪声和正确标签混合时产生的网络训练问题。文献[11]指出,在监督学习领域,噪声标签学习的主要方法包括鲁棒损失、正则化方法和样本选择等。鲁棒损失函数旨在设计对噪声标签不敏感的损失函数;正则化方法旨在防止深度神经网络过拟合噪声标签样本;样本选择方法通过特征选择样本进行训练,可有效减轻噪声标签对模型性能的负面影响。

    基于鲁棒损失的标签噪声纠正方法试图通过设计损失函数处理标签噪声问题[1417]。文献[14]提出一种处理标签噪声的通用方法——自举损失。其核心思想是利用一致性增强预测目标,以补偿噪声样本错误引导。为实现这一目标,需给当前网络预测分配适当损失权重。文献[15]提出一个联合神经嵌入网络,该网络根据图像与标签的相关性,在损失函数中为图像样本分配权重,以指导分类网络训练。文献[16]从理论角度出发提出一种综合平均绝对误差和分类交叉熵的鲁棒噪声损失函数,在处理大量的标签噪声时表现出良好性能。文献[17]研究了基于深度度量学习的遥感图像在存在标签噪声情况下的表征,并提出鲁棒归一化损失,以降低噪声图像对相应类别原型学习的贡献权重。

    正则化方法也可防止深度网络过度拟合标签噪声[11],如dropout[18]、对抗学习[19]、mixup[20]、标签平滑[21,22]等都是广泛使用的技术。mixup是一种提高深度监督分类网络性能的数据增强方法,通过mixup生成的组合样本和相应的标签,为网络训练施加线性约束,从而提高存在标签噪声情况下训练的分类网络性能。文献[23]用先验知识对标签相关性进行编码,并使用标签相关性对噪声网络预测进行正则化,以处理多标签情况下的标签噪声。该方法的性能优于直接从标签噪声中学习的方法。文献[24]通过集成部分标签学习和负样本学习提出标签噪声学习方法并应用一致性正则化项改善特征提取和模型预测。

    样本选择方法根据是否直接区分噪声与正确标签样本可分为标签噪声建模方法以及其他样本选择方法。标签噪声建模方法从特征出发,让网络学习到正确样本和噪声样本之间的差异并选择正确标签样本训练网络。文献[9]提出一种基于Beta混合模型(Beta Mixture Model, BMM)的标签噪声建模和纠正方法。基于引言中的观察,作者提出基于BMM方法拟合损失函数值以对标签噪声进行建模,同时设计自举损失函数纠正噪声标签。文献[25]提出一种用于标签噪声分布的鲁棒标签校正算法,使用预测和给定标签的插值对样本标签进行建模,以区分正确标签、分布内噪声和分布外噪声;并对分布内样本标签进行纠正,同时提出分布外样本动态软化策略以降低标签噪声危害。文献[26]提出CoLafier方法解决标签噪声问题,该方法基于局部内部维数(Local Intrinsic Dimensionality, LID)实现标签噪声识别,双子网络的专用分类器可通过设计训练方案和计算LID分数有效判别标签是否正确;双子网络协同作用,结合LID分数和预测差异,可引导噪声标签更新决策,从而提高存在噪声标签情况下的网络性能。

    其他样本选择方法从原始数据集中筛选出具有特定特征或属性的高置信度的样本子集训练网络。文献[27]提出利用网络在不同训练时期的输出预测,形成整个训练数据集的运行平均预测值,通过对平均预测值过滤噪声标签样本,实现在训练过程中逐步提高任务性能,减少噪声对模型学习的影响。文献[28]提出JoCoR是一种基于Co-training[29]思想的代表性方法:在训练过程中保持两个网络,每个网络计算损失并选择一定数量小损失样本送入另一个网络进一步训练。该方法以小损失作为高置信度特征,筛选此类样本进行训练以避免标签噪声的负面影响。文献[30]提出Prune4ReL,通过最大化所有训练示例的邻域内预测置信度的总和寻找一个最优子集,以提高噪声标签下训练模型的准确性和泛化性。

    已有实验证明标签噪声会影响分类器的分类性能,因此,在SAR图像处理中也需考虑标签噪声。文献[31]提出一种概率转移CNN,通过概率转移模型将真实标签的概率分布转换为含噪声标签的概率分布,旨在应对含标签噪声的斑块级SAR图像地面覆盖分类任务。文献[32]提出一种使用区域平滑和标签纠正的SAR图像分割方法,其中类标签纠正方法被用来纠正图像中错误分类像素。当把迁移学习应用于大规模高分辨率SAR地面覆盖图像分类问题时,文献[33]引入一个具有成本敏感参数的top-2平滑损失函数来解决标签噪声,从而缓解标签噪声引起的过拟合问题。文献[34]采用多分类结合方法实现一致性采样和噪声标签样本剔除。文献[35]提出使用图像相似性和K-最近邻算法来消除伪标签噪声。文献[36]提出LNMC算法旨在通过建模噪声标签区别正确噪声标签样本和噪声标签样本,以提高含噪条件下分类网络性能。

    SAR图像中的标签噪声问题已经引起研究人员的广泛关注。然而,目前的研究集中在图像分割和地面覆盖分类中像素分类标签噪声,对图像分类任务存在的标签噪声问题研究不足。目前在SAR ATR研究中,大多数工作集中在网络设计[4]、训练策略[2,3]、减少斑点噪声[5]等研究以提高SAR目标分类准确性,标签噪声问题还没有得到广泛的研究。因此,本文研究了SAR ATR中的标签噪声问题。

    相关工作中,文献[9]是基于损失函数值进行BMM拟合,其中对样本标签是否正确的估计,取决于当前迭代轮次的损失大小。因此,基于损失点拟合方法的有效性依赖于选择适合迭代轮次进行拟合。本文认为,使用任何迭代轮次中样本损失值进行标签噪声不确定性建模,其鲁棒性都不如使用反映每个样本随迭代变化的损失曲线进行标签噪声不确定性建模强。

    在本文所提出的基于损失曲线拟合的标签噪声不确定性建模方法中,首先以混有噪声和正确标签的数据集训练网络,得到用于标签噪声不确定性建模的损失曲线,如图2所示;然后在标签噪声不确定性建模阶段,使用损失曲线模糊聚类方法来识别样本标签是正确的或噪声的。本文将每个样本随迭代变化的损失曲线视为无监督聚类的判别特征,以区分样本标签是否正确。令T1代表第1阶段迭代数,对于任何样本xi,经T1次迭代训练后的损失曲线被表示为liRT1。本文将标签噪声不确定性建模聚类损失函数定义为

    图  2  混合正确和噪声标签样本训练分类网络的损失曲线(以含80%标签噪声数据集训练ResNet18网络300次获得)和聚类中心
    Figure  2.  Loss curves of the classification network trained by mixed-noisy-and-clean labels (obtained by training ResNet18 with 80% noisy labels after 300 epochs) and clustering centers for clean and noisy labels
    Lc=Ck=1Ni=1μmi(k)lic(k)2Ck=1μi(k)=1 (1)

    其中,N为训练样本的数量;C为聚类类别数,C设为2即将样本标签分为两类(正确标签或噪声标签);m为模糊指数,在本文中设为2;||·||表示欧氏距离;c(k)代表第k个类别聚类中心,k取1或2,即正确或噪声标签对应的平均损失函数曲线。μi(k)为隶属度函数,代表损失函数曲线li属于第k类的程度。通过聚类中心c(k)和隶属度函数μi(k)可得到样本标签噪声不确定性程度,进而依据噪声不确定度筛选噪声标签样本。

    找到最优聚类中心和最优隶属度函数可通过最小化损失函数实现,具体通过以下交替优化过程实现:首先初始化聚类中心c(k),之后利用式(2)和式(3)交替更新c(k)μi(k)

    c(k)=Ni=1μmi(k)liNi=1μmi(k) (2)
    μi(k)=1Cj=1(lic(k)lic(j))2m1 (3)

    当上述交替迭代优化过程结束后,可获得最优聚类中心c(k)以及各样本聚类类别隶属度函数μi(k)图2展示正确标签和噪声标签聚类中心。基于前述观察,认定平均损失值更小的聚类中心损失函数曲线对应正确标签。μi(2)描述任意损失函数曲线li对应样本标签属于噪声标签的隶属度;μi(2)值越大,反映其属于噪声标签的概率越高,其噪声不确定性程度越低。

    通过上述标签噪声建模与不确定性建模得到各样本聚类中心和类别隶属度后,可对数据进行划分,实现分组加权训练纠正。对于任意样本xi,根据样本噪声不确定性程度按不同分组阈值τ1,τ2划分处理。若μi(2)>τ1,则认定对应样本标签yi属于噪声标签,标记为噪声标签样本;若μi(2)<τ2,则认定对应样本标签yi属于正确标签,标记为正确标签样本;若τ2μi(2)τ1,则认定对应样本标签yi属于部分置信标签,标记为模糊标签样本。在完成对所有样本划分后,原训练集被分为3组:噪声标签样本集Dn、正确标签样本集Dc和模糊标签样本集Df

    依据样本噪声不确定度,3组不同样本集在训练损失中,被赋予不同权重来指导模型训练过程。分组加权损失函数定义为

    Lcls=xiDcyTiln(p(xi))xiDfωiyTiln(p(xi)) (4)

    其中,ωi=1μi(2),(·)T表示矩阵的转置。

    对于正确和模糊标签样本,可针对性调整模型的训练策略,让模型专注于学习正确标签隶属度高的样本,从而提高模型训练的准确性。模糊标签样本集有望对模型的泛化能力做出贡献。对于正确标签数据集中样本(xi,yi)Dc,保留最大训练权重(即权重为1);对于模糊数据集中样本(xi,yi)Df,利用标签噪声建模不确定度赋予不同样本不同训练权值,其中属于正确标签隶属度越高对应训练权重越高;对于噪声标签样本集,本文直接从训练集中将其去除以减少噪声对模型的负面影响。

    进一步,为提升训练网络泛化能力,本文引入mixup[20]数据增强方法扩充训练集。样本和相应的标签(xi,yi)Dc, (xj,yj)DcDf经mixup后的增强样本和训练目标为

    xmix=μi(1)μi(1)+μj(1)xi+μj(1)μi(1)+μj(1)xj (5)
    ymix=μi(1)μi(1)+μj(1)yi+μj(1)μi(1)+μj(1)yj (6)

    其中,μi(1)代表样本xi隶属于正确标签样本的程度。

    本文将增强的数据集Daug={(xmix,ymix)}与正确标签数据集Dc、模糊标签样本集Df一起视为训练网络的训练样本。值得说明的是,噪声标签样本集可视为无标签样本,以半监督学习的方式参与训练。本文关注标签噪声不确定性建模以及基于噪声不确定度的分组加权训练纠正,针对噪声标签样本集的半监督训练可作为未来工作。

    基于标签噪声不确定性建模和基于噪声不确定度的纠正方法包括两个阶段,即标签噪声不确定性建模阶段以及基于噪声不确定度的数据划分和分组加权训练纠正阶段。算法1总结了标签噪声不确定性建模阶段以及数据划分实现分组加权训练纠正阶段的总体算法。算法输入为混有正确和噪声标签数据集Dtrain以及一个分类网络,其中,Dtrain中包括图像样本集X和相应的标签Yn,输出为纠正标签数据集和纠正训练后的网络权重。

    1  含噪标签数据集训练分类网络
    1.  Train a classification network with noisy labels
     输入:X:训练集中的图像样本。
        Yn:训练集中的样本标签(包括噪声标签)。
        f(;θ):一个分类网络(本文中为CNN)。
     输出:CNN训练权重θT2
     步骤1:混有噪声和正确标签数据集(X,Yn)训练网络T1
     获得f(;θT1){lT1i}Ni=1
     步骤2:标签噪声不确定性建模
     初始化c
     for i in [1,Tc] iterations: do
      根据式(2)计算c(k)
      根据式(3)计算μi(k)
     end for
     获得c(k)μi(k)
     步骤3:基于噪声不确定度的数据划分
     获得噪声样本集Dn、正确样本集Dc、模糊样本集Df
     Dn={(xi,yi)|μi(2)>τ1}Ni=1
     Dc={(xi,yi)|μi(2)<τ2}Ni=1
     Df={(xi,yi)|τ2μi(2)τ1}Ni=1
     通过mixup数据增强获得Daug
     根据式(5)计算xmix
     根据式(6)计算ymix
     Daug={(xmix,ymix)}
     Dm=DcDfDaug
     步骤4:使用Dm分组加权纠正训练网络T2
    下载: 导出CSV 
    | 显示表格

    在标签噪声不确定性建模阶段,目标为获得样本标签噪声不确定度。首先,使用混有正确和噪声标签数据集来训练网络,在历经T1次迭代后获得所有样本的损失曲线。然后,所有损失曲线都通过无监督模糊聚类方法进行分类。在经Tc次聚类优化过程迭代,获得样本聚类中心c(k)和聚类类别隶属度μi(k),其中,聚类中心平均损失较低的一类对应于正确标签,聚类中心平均损失较高的一类对应于噪声标签。

    在基于噪声不确定度的数据划分和分组加权训练纠正阶段,基于前一阶段得到的标签噪声不确定度和分组阈值τ1,τ2划分样本集,选择μi(2)<τ2的样本构成正确训练数据集Dc,选择τ2μi(2)τ1的样本构成模糊训练数据集Df。对于DcDf中的样本进行mixup数据增强,以获得增强的数据集Daug。最后,用正确、模糊和增强的数据集构成总训练集Dm对训练网络迭代T2次。

    本文在实验中使用MSTAR[37]数据集验证方法的有效性。MSTAR数据集由10类地面目标图像组成,并被分为两个子数据集:训练数据集和测试数据集。10类地面目标图像分别为2S1, BMP2, BRDM2, BTR60, BTR70, D7, T62, T72, ZIL131和ZSU234。训练数据集中图像在17°获得,测试数据集中图像在15°获得,并在表2中列举所有类别的数据集数量。

    表  2  MSTAR数据集中训练和测试数据集中的目标数量
    Table  2.  Number of targets in the training and testing datasets of the MSTAR dataset
    地面目标图像训练数据集测试数据集总数据集
    2S1299274573
    BMP2233195428
    BRDM2298274572
    BTR60256195451
    BTR70233196429
    D7299274573
    T62299273572
    T72232196428
    ZIL131299274573
    ZSU234299274573
    下载: 导出CSV 
    | 显示表格

    输入图像大小设为128像素×128像素,分类网络基于ResNet[8]实现。为进行公平对比实验,本文在实验中使用与基于BMM方法[9]相同的ResNet18。在训练分类网络时,本文使用图像裁剪和图像翻转作为mixup数据增强方法,且每个批次会对所有训练样本进行mixup,故增强后样本数量为原训练样本数量的两倍。

    在实验的训练数据集中,分别选择40%, 60%和80%比例样本标签设置为噪声标签。在制作标签噪声时,选择不同比例样本并随机地重新标注其标签,实验数据集中0~9共10类目标,每个类别目标都有可能被误分类成其他类别,且各类别之间的误分类概率相等。需要注意,其中一些样本标签可能被随机重新标注为正确标签,因此,实际噪声比例略低于设置比例。训练集图像总数为2747张,当噪声标签比例分别为40%, 60%, 80%时噪声标签图像数为1000张、1484张、1992张。为了评估训练有效性,本文使用原始测试数据集进行评估。

    训练中批量大小设为16,总迭代次数为600。第1阶段网络训练迭代300次,第2阶段网络训练迭代300次。学习率初始设为0.0125,在两个阶段的第76次迭代后下降至原有学习率的10%,并在第156次迭代后再降低至当前学习率的10%。训练阶段采用了动量优化器[38],并且动量设为0.9,权重衰减设为0.0001

    本文测试和评估基于以下配置:CPU为Intel Core i7-12700K(3.60 GHz),GPU为 GeForce RTX3090(内存24 GB),计算机内存为64 GB。实验基于开源的Pytorch框架[39]实现。

    实验使用纠正精度和分类精度评估算法在标签噪声建模和训练分类网络上的表现。纠正精度衡量的是在标签噪声建模纠正后,训练集中标签噪声样本被成功纠正的比例;分类精度衡量的是测试集中被正确分类样本的比例。

    本节分析基于损失曲线拟合方法在标签噪声建模和纠正方面的表现。图3表示在含80%标签噪声实验中,经标签噪声建模和纠正后的训练集噪声样本。其中,绿色表示被成功识别并纠正的噪声标签样本;红色表示未被正确识别纠正的噪声标签样本。从图3明显看出,标签纠正阶段之后,大部分噪声标签都被纠正为正确标签。

    图  3  标签纠正示例
    Figure  3.  Demo of label correction

    为了进一步分析本文方法对于噪声标签的纠正性能,本节与两种标签噪声建模方法—BMM方法和LNMC算法进行对比。表3显示数据集中含不同比例标签噪声时不同方法对应的纠正精度。从表3中可以看出,当标签噪声比例较低时,本文方法与基于BMM方法、LNMC算法的纠正精度基本一致,而当标签噪声比例增加(特别是对于标签噪声比例极大时,如80%),本文方法与基于BMM方法、LNMC算法相比纠正精度更优。这证明了本文方法对不同比例标签噪声具有鲁棒性,较BMM方法、LNMC算法纠正精度提升更为显著。

    表  3  不同比例标签噪声下的纠正精度(%)
    Table  3.  The correction accuracy with different noise ratio (%)
    算法 40 (36.4) 60 (54.0) 80 (72.5)
    BMM-based 98.7 84.8 61.1
    LNMC 97.9 92.2 78.1
    本文方法 98.6 97.2 87.8
    注:由于制作标签噪声时一些样本标签可能被随机重新标注为正确标签,实际噪声比例略低于设置比例,括号内为实验中真实标签噪声比例。加粗项表示最优结果。
    下载: 导出CSV 
    | 显示表格

    图4绘制了在标签噪声纠正阶段噪声标签和正确标签样本的损失曲线。图4前100个迭代轮次不包含纠正标签噪声的正常训练过程;第100~300个迭代轮次是使用本文纠正方法的训练过程。从图4中可以得出,在纠正后,正确标签样本损失值进一步减少,而噪声标签样本损失值反而升高。这表明本文提出的方法可有效对标签噪声进行建模,避免网络拟合噪声标签样本,并帮助网络用正确标签样本进行训练。

    图  4  本文方法训练分类网络的损失曲线
    Figure  4.  Loss curves of clean and noisy samples for our proposed method

    本节分析标签噪声纠正后训练网络的分类精度。图5绘制了用含80%标签噪声的数据集在不同迭代次数时训练网络的分类准确率。其中,前100个迭代轮次(以灰色绘制)的准确率曲线是未纠正标签噪声情况下得出;第100~300个迭代轮次(以蓝色绘制)的准确率曲线是基于本文方法纠正后训练网络得出,第100~300个迭代轮次(以橙色绘制)的准确率曲线是基于BMM方法训练网络得出的。从图5中可以看到,在标签纠正之前,分类精度保持在一个较低水平,并在训练迭代中振荡。而在标签纠正后,分类网络的准确率有所提升。与基于BMM方法相比,本文方法在标签纠正后的网络分类精度有明显提升,并在后面迭代中保持稳定。

    图  5  分类精度曲线
    Figure  5.  Classification accuracy curves

    此外,本文与另外5种标签噪声处理方法进行性能对比——不同比例噪声标签下训练网络分类精度如表4所示。需要说明的是,mixup[20]、RNSL[17]和Prune4ReL[30]方法不对标签噪声进行建模,因此在表3中未比较这3种方法。从表4中得出,同对比方法相比,本文方法在不同噪声比例下均可获得最优分类精度,精度相比次优算法平均高3.97%。其中,当标签噪声比例非常大时(如80%),相比对比方法性能下降明显,本文方法仍可获得鲁棒分类性能——相比次优方法分类精度提升2.7%。

    表  4  不同比例标签噪声下的网络分类精度(%)
    Table  4.  The classification accuracy with different noise ratio (%)
    算法 40 (36.4) 60 (54.0) 80 (72.5)
    mixup[20] 89.9 65.6 56.9
    BMM-based[8] 97.3 80.8 64.5
    RNSL[17] 46.1 45.9 41.2
    LNMC[36] 96.8 87.6 79.6
    Prune4ReL[30] 88.4 84.0 72.7
    本文方法 98.7 94.9 82.3
    注:由于制作标签噪声时一些样本标签可能被随机重新标注为正确标签,实际噪声比例略低于设置比例,括号内为实验中真实标签噪声比例。加粗项表示最优结果。
    下载: 导出CSV 
    | 显示表格
    4.5.1   不确定性阈值τ1,τ2的影响

    本节验证不同不确定性阈值τ1,τ2对网络分类精度影响,实验中分别选择不同参数取值,分别在训练集中含噪声标签比例80%, 40%下进行实验,实验数据集和其余实验设置与4.2节保持一致。

    表5表6分别为80%, 40%噪声比例下的网络分类精度。可以看出,9组不同阈值参数下,噪声比80%下的网络平均分类精度为81.89±0.24,噪声比40%下的网络平均分类精度为97.36±0.5,证明本文所提方法对于阈值的选择具备一定的鲁棒性。

    表  5  噪声比80%下τ1,τ2不同取值时的网络分类精度
    Table  5.  The classification accuracy with different τ1,τ2 values under 80% noise ratio
    τ1τ2分类精度(%)
    0.70.180.8
    0.80.180.9
    0.90.180.9
    0.70.282.7
    0.80.282.3
    0.90.282.5
    0.70.382.2
    0.80.382.3
    0.90.382.3
    下载: 导出CSV 
    | 显示表格
    表  6  噪声比40%下τ1,τ2不同取值时的网络分类精度
    Table  6.  The classification accuracy with different τ1,τ2 values under 40% noise ratio
    τ1τ2分类精度(%)
    0.70.196.4
    0.80.196.8
    0.90.196.6
    0.70.297.6
    0.80.298.7
    0.90.297.5
    0.70.397.6
    0.80.397.6
    0.90.397.4
    下载: 导出CSV 
    | 显示表格

    需要说明的是,实际问题中数据集包含噪声标签数据,因此无法获取设置交叉验证集(无法获取标签正确的验证数据集合)来讨论最优超参数。本节讨论表明本文方法对不确定性阈值具备一定鲁棒性,因此可根据经验设置不确定性阈值。

    4.5.2   Mixup消融实验

    为验证基于不确定度的mixup数据增强方法对本文方法影响,现设计消融实验,实验训练集中含噪声标签比例为80%,实验数据集和其余实验设置与4.2节保持一致。

    mixup消融实验结果如表7所示。从表7可以看出,无论噪声比例如何,使用mixup方法都能够显著提升噪声标签纠正阶段所训练网络的分类精度。尤其是当噪声比例越高时,mixup的效果越明显。

    表  7  Mixup方法消融实验(%)
    Table  7.  Ablation study on mixup method (%)
    是否使用mixup 40 (36.4) 60 (54.0) 80 (72.5)
    94.7 90.3 73.2
    98.7 94.9 82.3
    注:由于制作标签噪声时一些样本标签可能被随机重新标注为正确标签,实际噪声比例略低于设置比例,括号内为实验中真实标签噪声比例。
    下载: 导出CSV 
    | 显示表格

    本文提出一种基于损失曲线拟合的标签噪声不确定性建模和基于噪声不确定度的纠正方法,该方法可识别并纠正标签噪声,在训练数据包含噪声标签的情形下有效训练分类网络。基于损失曲线拟合的标签噪声不确定性建模和基于噪声不确定度的纠正方法包括两个阶段——标签噪声不确定性建模阶段以及基于噪声不确定度的数据划分和分组加权训练纠正阶段。通过对损失曲线进行模糊聚类实现标签噪声不确定性建模,根据聚类结果获得样本不确定度;基于标签噪声不确定度划分训练集并构建正确标签隶属度高的样本集训练网络,从而实现标签噪声纠正。实验证明,该方法可有效处理数据集中含不同比例标签噪声情况下训练分类网络的问题。(在高噪声比例(80%)的情况下,本文所提方法在应对标签噪声时具有较高的鲁棒性和准确性,能够更有效地纠正噪声标签并提高分类性能)

  • 图  1  实孔径雷达波束扫描探测工作模式与角度维回波数据示意图

    Figure  1.  Beam scanning working mode and echo data in the azimuthal direction of RAR

    图  2  传统IAA算法与IAA-Net深度网络结构对比

    Figure  2.  Comparison of the traditional IAA algorithm and the proposed IAA-Net method

    图  3  IAA-Net深度网络迭代结构

    Figure  3.  Iterative framework of the proposed IAA-Net method

    图  4  目标重建更新模块

    Figure  4.  Target reconstructing and updating module

    图  5  参数训练更新模块

    Figure  5.  Parameter training and updating module

    图  6  部分训练样本示例

    Figure  6.  Examples of some training samples

    图  7  V形目标不同超分辨成像方法处理结果对比

    Figure  7.  Comparison of different super-resolution imaging methods for V points

    图  8  V形目标不同超分辨成像方法处理结果剖面对比

    Figure  8.  Result profile comparison of different super-resolution imaging methods for V points

    图  9  点阵目标不同超分辨成像方法结果对比

    Figure  9.  Comparison of different super-resolution imaging methods for multiple point targets

    图  10  点阵目标不同超分辨成像方法结果剖面对比

    Figure  10.  Profile comparison of different super-resolution imaging methods for multiple point targets

    图  11  不同超分辨方法在不同信噪比下重建结果的平均主瓣宽度

    Figure  11.  Average mainlobe width of different super-resolution methods under different SNRs

    图  12  不同方位向采样点数下超分辨处理运行时间

    Figure  12.  Operational time of different super-resolution methods with different azimuthal samples

    图  13  不同算法实测数据角超分辨结果

    Figure  13.  Experimental results of different super-resolution methods

    图  14  环扫监视雷达不同算法实测数据角超分辨结果

    Figure  14.  Experimental results of different superresolution methods for circular scanning radar

    表  1  雷达系统仿真参数

    Table  1.   Radar system simulation parameters

    参数 数值
    扫描速度 50°/s
    扫描范围 –8°~+8°
    脉冲重复频率 1000 Hz
    主瓣波束宽度 5.1°
    载波频率 9.6 GHz
    信号带宽 45 MHz
    信号时宽 2 μs
    采样率 90 MHz
    平台速度 30 m/s
    下载: 导出CSV

    表  2  V型场景不同超分辨方法的MSE对比

    Table  2.   MSE comparison of different super-resolution methods

    方法 MSE
    Tikhonov L2方法 26.4810
    分裂Bregman L1方法 3.3306
    IAA方法(γ=0.2) 13.2678
    IAA方法(γ=0.05) 8.0262
    所提IAA-Net方法 2.2932
    下载: 导出CSV
  • [1] SKOLNIK M I. Introduction to Radar Systems[M]. New York: McGraw-Hill, 1980.
    [2] 杨建宇. 雷达对地成像技术多向演化趋势与规律分析[J]. 雷达学报, 2019, 8(6): 669–692. doi: 10.12000/JR19099.

    YANG Jianyu. Multi-directional evolution trend and law analysis of radar ground imaging technology[J]. Journal of Radars, 2019, 8(6): 669–692. doi: 10.12000/JR19099.
    [3] RICHARDS M A, 邢孟道, 王彤, 李真芳, 等译. 雷达信号处理基础[M]. 北京: 电子工业出版社, 2008.

    RICHARDS M A, XING Mengdao, WANG Tong, LI Zhenfang, et al. translation. Fundamentals of Radar Signal Processing[M]. Beijing: Publishing House of Electronics Industry, 2008.
    [4] CUMMING I G, WONG F H, 洪文, 胡东辉, 等译. 合成孔径雷达成像: 算法与实现[M]. 北京: 电子工业出版社, 2007.

    CUMMING I G, WONG F H, HONG Wen, HU Donghui, et al. translation. Digital Processing of Synthetic Aperture Radar Data: Algorithms and Implementation[M]. Beijing: Publishing House of Electronics Industry, 2007.
    [5] 李亚超, 王家东, 张廷豪, 等. 弹载雷达成像技术发展现状与趋势[J]. 雷达学报, 2022, 11(6): 943–973. doi: 10.12000/JR22119.

    LI Yachao, WANG Jiadong, ZHANG Tinghao, et al. Present situation and prospect of missile-borne radar imaging technology[J]. Journal of Radars, 2022, 11(6): 943–973. doi: 10.12000/JR22119.
    [6] SADJADI F. Enhancing angular resolution in non-coherent radar imagery[C]. International Radar Conference, Beijing, China, 1996: 330–333. doi: 10.1109/ICR.1996.574454.
    [7] FOUETTILLOUX R, FERRO-FAMIL L, MÉRIE S, et al. Improving the angular resolution of a scanning radar with imperfectly known antenna patterns[C]. 2019 IEEE Conference on Antenna Measurements & Applications (CAMA), Kuta, Bali, Indonesia, 2019: 231–234. doi: 10.1109/CAMA47423.2019.8959779.
    [8] 丁义元, 杨建宇, 张卫华, 等. 改进实孔径雷达角分辨力的广义逆滤波方法[J]. 电子学报, 1993, 21(9): 15–19. doi: 10.3321/j.issn:0372-2112.1993.09.003.

    DING Yiyuan, YANG Jianyu, ZHANG Weihua, et al. Improvement of angular resolution of real aperture radar via generalized inverse filtering[J]. Acta Electronica Sinica, 1993, 21(9): 15–19. doi: 10.3321/j.issn:0372-2112.1993. 09.003.
    [9] 单荣光, 李士国, 朱力. 去卷积实现雷达方位超分辨[J]. 现代雷达, 1993, 15(6): 25–32. doi: 10.16592/j.cnki.1004-7859.1993.06.004.

    SHAN Rongguang, LI Shiguo, and ZHU Li. Radar azimuth super-resolution using deconvolution[J]. Modern Radar, 1993, 15(6): 25–32. doi: 10.16592/j.cnki.1004-7859.1993.06.004.
    [10] 盛卫星, 方大纲, 杨正龙, 等. 一般非综合孔径雷达方位超分辨研究[J]. 南京理工大学学报, 2000, 24(4): 289–295. doi: 10.14177/j.cnki.32-1397n.2000.04.001.

    SHENG Weixing, FANG Dagang, YANG Zhenglong, et al. Angular super-resolution for real aperture radars[J]. Journal of Nanjing University of Science and Technology, 2000, 24(4): 289–295. doi: 10.14177/j.cnki.32-1397n.2000.04.001.
    [11] 许然. 提高雷达成像质量的若干新体制和新方法研究[D]. [博士论文], 西安电子科技大学, 2015. doi: 10.7666/d.Y2954050.

    XU Ran. Study on new systems and techniques for improving radar imaging performances[D]. [Ph.D. dissertation], Xidian University, 2015. doi: 10.7666/d.Y2954050.
    [12] DUNCAN M J. Design of a repeater-jammer experiment for a monopulse radar[D]. [Master dissertation], NAVAL Postgraduate School, 1975.
    [13] 谭珂. 机载前视雷达扫描波束锐化方法研究[D]. [博士论文], 电子科技大学, 2018.

    TAN Ke. Research on beam sharpening method of airborne forward-looking scanning radar[D]. [Ph.D. dissertation], University of Electronic Science and Technology of China, 2018.
    [14] 吴迪, 朱岱寅, 朱兆达. 机载雷达单脉冲前视成像算法[J]. 中国图象图形学报, 2010, 15(3): 462–469. doi: 10.11834/jig.20100317.

    WU Di, ZHU Daiyin, and ZHU Zhaoda. Research on nomopulse forward-looking imaging algorithm for airborne radar[J]. Journal of Image and Graphics, 2010, 15(3): 462–469. doi: 10.11834/jig.20100317.
    [15] 徐浩. 基于空间谱理论和时空两维随机辐射场的雷达成像研究[D]. [博士论文], 中国科学技术大学, 2011. doi: 10.7666/d.d141340.

    XU Hao. The radar imaging based on space spectrum and temporal-spatial stochastic radiation field[D]. [Ph.D. dissertation], University of Science and Technology of China, 2011. doi: 10.7666/d.d141340.
    [16] 王建秋, 刘康, 王煜, 等. 涡旋电磁波雷达成像分辨力研究[J]. 雷达学报, 2021, 10(5): 680–690. doi: 10.12000/JR21054.

    WANG Jianqiu, LIU Kang, WANG Yu, et al. Resolution analysis of vortex electromagnetic radar imaging[J]. Journal of Radars, 2021, 10(5): 680–690. doi: 10.12000/JR21054.
    [17] 付江南. 涡旋电磁场高分辨成像方法研究[D]. [硕士论文], 电子科技大学, 2022. doi: 10.27005/d.cnki.gdzku.2022.002306.

    FU Jiangnan. Study on high resolution imaging method of vortex electromagnetic field[D]. [Master dissertation], University of Electronic Science and Technology of China, 2022. doi: 10.27005/d.cnki.gdzku.2022.002306.
    [18] 毛德庆. 机载雷达扫描波束超分辨成像方法研究[D]. [博士论文], 电子科技大学, 2022. doi: 10.27005/d.cnki.gdzku.2022.004148.

    MAO Deqing. Research on scanning beam super-resolution imaging methods for airborne radar[D]. [Ph.D. dissertation], University of Electronic Science and Technology of China, 2022. doi: 10.27005/d.cnki.gdzku.2022.004148.
    [19] 赵正义, 侯颖妮. 基于TSVD的块稀疏重构雷达前视超分辨成像[J]. 系统工程与电子技术, 2023, 45(7): 2051–2059. doi: 10.12305/j.issn.1001-506X.2023.07.15.

    ZHAO Zhengyi and HOU Yingni. Radar forward-looking super resolution imaging based on block sparse reconstruction with TSVD[J]. Systems Engineering and Electronics, 2023, 45(7): 2051–2059. doi: 10.12305/j.issn.1001-506X.2023.07.15.
    [20] FARINA A, PRODI F, and VINELLI F. Application of superresolution techniques to radar imaging[J]. Journal of Systems Engineering and Electronics, 1994, 5(1): 1–14.
    [21] RICHARDSON W H. Bayesian-based iterative method of image restoration[J]. Journal of the Optical Society of America, 1972, 62(1): 55–59. doi: 10.1364/JOSA.62.000055.
    [22] LUCY L B. An iterative technique for the rectification of observed distributions[J]. The Astronomical Journal, 1974, 79(6): 745. doi: 10.1086/111605.
    [23] GUAN Jinchen, YANG Jianyu, HUANG Yulin, et al. Maximum a posteriori-based angular superresolution for scanning radar imaging[J]. IEEE Transactions on Aerospace and Electronic Systems, 2014, 50(3): 2389–2398. doi: 10.1109/TAES.2014.120555.
    [24] ZHANG Yin, ZHANG Qiping, LI Changlin, et al. Sea-surface target angular superresolution in forward-looking radar imaging based on maximum A posteriori algorithm[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(8): 2822–2834. doi: 10.1109/JSTARS.2019.2918189.
    [25] ZHANG Yin, SHEN Jiahao, TUO Xingyu, et al. Scanning radar forward-looking superresolution imaging based on the Weibull distribution for a sea-surface target[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5116111. doi: 10.1109/TGRS.2022.3194118.
    [26] 马静雯. 基于反卷积的雷达角超分辨成像方法研究[D]. [硕士论文], 西安电子科技大学, 2018. doi: 10.7666/d.D01663882.

    MA Jingwen. Research on radar angular super-resolution imaging method based on deconvolution[D]. [Master dissertation], Xidian University, 2018. doi: 10.7666/d.D01663882.
    [27] LI Weixin, LI Ming, ZUO Lei, et al. Forward-looking super-resolution imaging for sea-surface target with multi-prior Bayesian method[J]. Remote Sensing, 2022, 14(1): 26. doi: 10.3390/rs14010026.
    [28] 李维新, 李明, 陈洪猛, 等. 针对回波数据异常时的雷达前视超分辨快速成像方法[J]. 雷达学报, 2024, 13(3): 667–681. doi: 10.12000/JR23209.

    LI Weixin, LI Ming, CHEN Hongmeng, et al. Fast radar forward-looking super-resolution imaging for abnormal echo data[J]. Journal of Radars, 2024, 13(3): 667–681. doi: 10.12000/JR23209.
    [29] LI Weixin, LI Ming, ZUO Lei, et al. Real aperture radar forward-looking imaging based on variational Bayesian in presence of outliers[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5117113. doi: 10.1109/TGRS.2022.3203807.
    [30] TAN Ke, LU Xingyu, YANG Jianchao, et al. A novel Bayesian super-resolution method for radar forward-looking imaging based on Markov random field model[J]. Remote Sensing, 2021, 13(20): 4115. doi: 10.3390/rs13204115.
    [31] CHEN Hongmeng, LI Yachao, GAO Wenquan, et al. Bayesian forward-looking superresolution imaging using Doppler deconvolution in expanded beam space for high-speed platform[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5105113. doi: 10.1109/TGRS.2021.3107717.
    [32] 陈洪猛, 余继周, 张文杰, 等. 基于概率模型驱动的机载贝叶斯前视超分辨多目标成像方法[J]. 雷达学报, 2023, 12(6): 1125–1137. doi: 10.12000/JR23080.

    CHEN Hongmeng, YU Jizhou, ZHANG Wenjie, et al. Probability model-driven airborne Bayesian forward-looking super-resolution imaging for multitarget scenario[J]. Journal of Radars, 2023, 12(6): 1125–1137. doi: 10.12000/JR23080.
    [33] HUANG Yulin, ZHA Yuebo, WANG Yue, et al. Forward looking radar imaging by truncated singular value decomposition and its application for adverse weather aircraft landing[J]. Sensors, 2015, 15(6): 14397–14414. doi: 10.3390/s150614397.
    [34] 张启平. 雷达实孔径超分辨成像中的正则化方法研究[D]. [博士论文], 电子科技大学, 2021. doi: 10.27005/d.cnki.gdzku.2021.005078.

    ZHANG Qiping. Research on regularization method in radar real-aperture super-resolution imaging[D]. [Ph.D. dissertation], University of Electronic Science and Technology of China, 2021. doi: 10.27005/d.cnki.gdzku.2021.005078.
    [35] 周静. 相控阵雷达前视成像算法研究[D]. [硕士论文], 西安电子科技大学, 2021. doi: 10.27389/d.cnki.gxadu.2021.001024.

    ZHOU Jing. Research on forward-looking imaging method of phased array radar[D]. [Master dissertation], Xidian University, 2021. doi: 10.27389/d.cnki.gxadu.2021.001024.
    [36] 张鑫. 雷达方位超分辨关键技术研究[D]. [博士论文], 大连海事大学, 2018. doi: 10.7666/d.Y3368947.

    ZHANG Xin. Research on the key technology of radar azimuth super-resolution[D]. [Ph.D. dissertation], Dalian Maritime University, 2018. doi: 10.7666/d.Y3368947.
    [37] 王子曦. 基于正则化的雷达前视超分辨成像算法工程应用分析[J]. 电子技术与软件工程, 2021(17): 89–92.

    WANG Zixi. An engineering application analysis of regularization-based radar forward-looking super-resolution imaging algorithm[J]. Electronic Technology & Software Engineering, 2021(17): 89–92.
    [38] 樊晨阳, 贺思三, 李西敏, 等. 基于阵列雷达扫描的正则化前视成像方法[J]. 电光与控制, 2022, 29(10): 76–81. doi: 10.3969/j.issn.1671-637X.2022.10.014.

    FAN Chenyang, HE Sisan, LI Ximin, et al. A regularized forward-looking imaging method based on array radar scanning[J]. Electronics Optics & Control, 2022, 29(10): 76–81. doi: 10.3969/j.issn.1671-637X.2022.10.014.
    [39] 唐军奎, 刘峥, 冉磊, 等. 基于稀疏和低秩先验的雷达前视超分辨成像方法[J]. 雷达学报, 2023, 12(2): 332–342. doi: 10.12000/JR22199.

    TANG Junkui, LIU Zheng, RAN Lei, et al. Radar forward-looking super-resolution imaging method based on sparse and low-rank priors[J]. Journal of Radars, 2023, 12(2): 332–342. doi: 10.12000/JR22199.
    [40] 吴阳. 基于正则化理论的运动平台雷达超分辨成像方法研究[D]. [硕士论文], 电子科技大学, 2019.

    WU Yang. Radar super-resolution imaging method of moving platform based on the regularization theory[D]. [Master dissertation], University of Electronic Science and Technology of China, 2019.
    [41] 杨志伟, 贺顺, 廖桂生. 机载单通道雷达实波束扫描的前视探测[J]. 航空学报, 2012, 33(12): 2240–2245.

    YANG Zhiwei, HE Shun, and LIAO Guisheng. Forward-looking detection for airborne single-channel radar with beam scanning[J]. Acta Aeronautica et Astronautica Sinica, 2012, 33(12): 2240–2245.
    [42] 张洁, 吴迪, 朱岱寅. 一种机载/弹载阵列雷达前视超分辨成像算法[J]. 雷达科学与技术, 2018, 16(2): 119–124. doi: 10.3969/j.issn.1672-2337.2018.02.001.

    ZHANG Jie, WU Di, and ZHU Daiyin. A forward-looking super-resolution imaging algorithm for airborne/missile-borne array radar[J]. Radar Science and Technology, 2018, 16(2): 119–124. doi: 10.3969/j.issn.1672-2337.2018.02.001.
    [43] YARDIBI T, LI Jian, STOICA P, et al. Source localization and sensing: A nonparametric iterative adaptive approach based on weighted least squares[J]. IEEE Transactions on Aerospace and Electronic Systems, 2010, 46(1): 425–443. doi: 10.1109/TAES.2010.5417172.
    [44] ZHANG Yongchao, ZHANG Yin, LI Wenchao, et al. Super-resolution surface mapping for scanning radar: Inverse filtering based on the fast iterative adaptive approach[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(1): 127–144. doi: 10.1109/TGRS.2017.2743263.
    [45] ZHANG Yongchao, MAO Deqing, ZHANG Qian, et al. Airborne forward-looking radar super-resolution imaging using iterative adaptive approach[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(7): 2044–2054. doi: 10.1109/JSTARS.2019.2920859.
    [46] MAO Deqing, ZHANG Yongchao, ZHANG Yin, et al. Target fast reconstruction of real aperture radar using data extrapolation-based parallel iterative adaptive approach[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 2258–2269. doi: 10.1109/JSTARS.2021.3054046.
    [47] LI Yueli, LIU Jianguo, JIANG Xiaoqing, et al. Angular superresol for signal model in coherent scanning radars[J]. IEEE Transactions on Aerospace and Electronic Systems, 2019, 55(6): 3103–3116. doi: 10.1109/TAES.2019.2900133.
    [48] 任凌云, 吴迪, 朱岱寅, 等. 基于机载多通道雷达迭代超分辨估计的前视成像[J]. 雷达学报, 2023, 12(6): 1166–1178. doi: 10.12000/JR23085.

    REN Lingyun, WU Di, ZHU Daiyin, et al. Forward-looking imaging via iterative super-resolution estimation in airborne multi-channel radar[J]. Journal of Radars, 2023, 12(6): 1166–1178. doi: 10.12000/JR23085.
    [49] 张永超. 机载雷达前视虚拟阵列超分辨成像方法研究[D]. [博士论文], 电子科技大学, 2018.

    ZHANG Yongchao. Research on virtual-array approach for airborne radar forward-looking super-resolution imaging[D]. [Ph.D. dissertation], University of Electronic Science and Technology of China, 2018.
    [50] STOICA P, ZACHARIAH D, and LI Jian. Weighted SPICE: A unifying approach for hyperparameter-free sparse estimation[J]. Digital Signal Processing, 2014, 33: 1–12. doi: 10.1016/j.dsp.2014.06.010.
    [51] QI Lijuan, ZHENG Mingjie, YU Weidong, et al. Super-resolution Doppler beam sharpening imaging based on an iterative adaptive approach[J]. Remote Sensing Letters, 2016, 7(3): 259–268. doi: 10.1080/2150704X.2015.1128129.
    [52] ZHANG Yongchao, ZHANG Yin, HUANG Yulin, et al. Angular superresolution for scanning radar with improved regularized iterative adaptive approach[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(6): 846–850. doi: 10.1109/LGRS.2016.2550491.
    [53] 朱晗归, 冯为可, 冯存前, 等. 机载雷达深度展开空时自适应处理方法[J]. 雷达学报, 2022, 11(4): 676–691. doi: 10.12000/JR22051.

    ZHU Hangui, FENG Weike, FENG Cunqian, et al. Deep unfolding based space-time adaptive processing method for airborne radar[J]. Journal of Radars, 2022, 11(4): 676–691. doi: 10.12000/JR22051.
  • 加载中
图(14) / 表(2)
计量
  • 文章访问数: 495
  • HTML全文浏览量: 217
  • PDF下载量: 285
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-04-09
  • 修回日期:  2024-06-23
  • 网络出版日期:  2024-07-22
  • 刊出日期:  2024-09-28

目录

/

返回文章
返回