Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

SAR ATR中标签噪声不确定性建模与纠正

于跃 王琛 师君 陶重犇 李良 唐欣欣 周黎明 韦顺军 张晓玲

于跃, 王琛, 师君, 等. SAR ATR中标签噪声不确定性建模与纠正[J]. 雷达学报(中英文), 2024, 13(5): 974–984. doi: 10.12000/JR24130
引用本文: 于跃, 王琛, 师君, 等. SAR ATR中标签噪声不确定性建模与纠正[J]. 雷达学报(中英文), 2024, 13(5): 974–984. doi: 10.12000/JR24130
YU Yue, WANG Chen, SHI Jun, et al. Modeling and correction of label noise uncertainty for SAR ATR[J]. Journal of Radars, 2024, 13(5): 974–984. doi: 10.12000/JR24130
Citation: YU Yue, WANG Chen, SHI Jun, et al. Modeling and correction of label noise uncertainty for SAR ATR[J]. Journal of Radars, 2024, 13(5): 974–984. doi: 10.12000/JR24130

SAR ATR中标签噪声不确定性建模与纠正

DOI: 10.12000/JR24130 CSTR: 32380.14.JR24130
基金项目: 国家自然科学基金(62201375),江苏省自然科学基金(BK20220635),重庆市自然科学基金面上项目 (CSTB2024NSCQ-MSX1762),重庆市教育委员会科学技术研究项目(KJQN202300756)
详细信息
    作者简介:

    于 跃,硕士生,主要研究方向为噪声标签学习、半监督学习

    王 琛,博士,讲师,主要研究方向为雷达目标检测与识别、噪声标签学习、半监督学习

    师 君,博士,副教授,主要研究方向为雷达信号处理、雷达系统、雷达图像处理、深度学习

    陶重犇,博士,副教授,主要研究方向为深度学习、三维目标检测

    李 良,博士,工程师,主要研究方向为合成孔径雷达成像、雷达图像处理、合成孔径雷达干扰对抗

    唐欣欣,博士,讲师,主要研究方向为雷达信号处理、雷达成像

    周黎明,博士,工程师,主要研究方向为三维SAR成像、多通道高分宽幅SAR成像、新体制雷达信号处理等

    韦顺军,博士,教授,主要研究方向为雷达信号处理、雷达系统

    张晓玲,博士,教授,主要研究方向为雷达信号处理、雷达目标分类识别

    通讯作者:

    王琛 chenwang@usts.edu.cn

    师君 shijun@uestc.edu.cn

  • 责任主编:张帆 Corresponding Editor: ZHANG Fan
  • 中图分类号: TN957.52

Modeling and Correction of Label Noise Uncertainty for SAR ATR

Funds: The National Natural Science Foundation of China (62201375), Natural Science Foundation of Jiangsu Province (BK20220635), Natural Science Foundation of Chongqing (CSTB2024NSCQ-MSX1762), Science and Technology Research Program of Chongqing Municipal Education Commission (KJQN202300756)
More Information
  • 摘要: 深度监督学习在合成孔径雷达自动目标识别任务中的成功依赖于大量标签样本。但是,在大规模数据集中经常存在错误(噪声)标签,很大程度降低网络训练效果。该文提出一种基于损失曲线拟合的标签噪声不确定性建模和基于噪声不确定度的纠正方法:以损失曲线作为判别特征,应用无监督模糊聚类算法获得聚类中心和类别隶属度以建模各样本标签噪声不确定度;根据样本标签噪声不确定度将样本集划分为噪声标签样本集、正确标签样本集和模糊标签样本集,以加权训练损失方法分组处理训练集,指导分类网络训练实现纠正噪声标签。在MSTAR数据集上的实验证明,该文所提方法可处理数据集中混有不同比例标签噪声情况下的网络训练问题,有效纠正标签噪声。当训练数据集中标签噪声比例较小(40%)时,该文所提方法可纠正98.6%的标签噪声,并训练网络达到98.7%的分类精度。即使标签噪声比例很大(80%)时,该文方法仍可纠正87.8%的标签噪声,并训练网络达到82.3%的分类精度。

     

  • 三维合成孔径雷达(Synthetic Aperture Radar, SAR)利用斜高向的多个观测实现合成孔径和第三维分辨,实现SAR从二维到三维的跨代发展[1]。三维SAR在测绘制图、防灾减灾、智慧城市等领域有重要应用价值,已经成为SAR的重要发展方向[24]

    三维SAR多利用层析(Tomography SAR, TomoSAR)或者阵列干涉(Array-Interferometric SAR, Array-InSAR)的方式来获得高度向的多个相干观测[5,6]。由合成孔径原理可知,SAR三维成像在斜高向的分辨率取决于该方向上的合成孔径大小。2000年,Reigber等人[7]利用机载SAR对德国Oberpfaffenhofen地区进行了多航过层析数据获取和处理,首次验证了机载多航过层析三维成像技术的可行性。2012年,Zhu等人[8]提出了SL1MMER稀疏三维成像算法,基于压缩感知理论减少了三维成像所需的观测数。2015年,Zhu等人[9]利用二维建筑轮廓信息来指导层析SAR求解的稀疏度选取,改进了SL1MMER算法。即便如此,为保证高度向的分辨能力,一般也需要10个以上的相干观测,这对数据采集或系统研制的成本提出了很高的要求,制约了三维SAR的推广应用。

    针对上述问题,“SAR微波视觉三维成像”的思路被提出,通过挖掘利用SAR二维图像中的三维线索来作为先验信息,以达到减少三维成像所需相干观测数量的目的[10]。与传统的SAR三维成像技术不同,SAR微波视觉三维成像强调图像理解与成像处理的智能化结合,通过两者的结合和互馈,提升成像精度,同时也提升对三维场景的解译能力。为了验证这一理论方法,推动三维SAR技术发展,在国家自然科学基金重大项目的支持下,由中国科学院空天信息创新研究院微波成像全国重点实验室牵头,联合中科宇达(北京)科技有限公司,研制了微波视觉三维SAR (Microwave Vision 3D SAR, MV3DSAR)实验系统[11]。该系统于2021年底完成了单极化系统的集成校飞,并发布了单极化无人机载阵列干涉SAR数据集(SARMV3D-2.0)。2022年10月,全极化MV3DSAR实验系统完成研制,并在苏州地区完成了第2次飞行试验,采集了试验场地的多角度全极化无人机载阵列干涉SAR数据。

    针对上述少量观测下的三维成像问题,在SAR微波视觉三维成像技术思路的指导下,2020年,Jiao等人[12]考虑了像素点的邻域信息约束,利用局部高斯-马尔可夫随机场(Local Gaussian Markov Random Field, LGMRF)来挖掘和利用SAR图像中的几何语义约束,达到了比SL1MMER更优的重建精度。2023年,Jiao等人[13]提出利用三维线索的几何正则化TomoSAR成像方法,该方法首先提取几何结构,然后利用重构的初始点云估计散射体分布,从而对散射体高度位置的搜索范围进行约束,该方法在4个通道观测和低信噪比条件下获得了良好的重构性能。然而,上述对于微波视觉信息的利用仅是目标在图像中体现的几何结构信息,尚未考虑SAR特有的极化散射机制信息。目标的极化散射特性通常与其材质、形状等有关,这使得隶属于同一建筑面的点目标对应的SAR回波矢量相似度很高。人造建筑的几何规则性使得其在SAR影像的局部区域内显示出空间结构的连续性和物理特征的相似性[14]。此时,像素块内目标的极化散射特性的一致性就可以被转化成为SAR三维成像中的约束条件,有望进一步提高三维重构精度。然而,由于国际上缺乏高分辨率全极化SAR三维成像数据集,该方面的研究一直停留在仿真阶段。

    为此,本文作者基于全极化MV3DSAR实验系统在苏州地区获取的数据,通过误差校正和成像处理,整理形成了SAR微波视觉三维成像数据集的3.0版本(SARMV3D-3.0),并于2024年5月在雷达学报网站上发布[15],填补了当前全极化SAR三维成像数据集的空白,为全极化SAR三维成像理论方法研究提供了亟需的数据平台。

    为使该数据可被研究人员更好地使用,本文对全极化MV3DSAR实验系统和数据采集过程进行介绍说明,并对处理形成SARMV3D-3.0数据集而提出的一套完整的处理方法进行了介绍。该方法首先利用场景内的一般林区体散射分布目标实现发射接收端的极化不平衡参数的有效估计,得到了系统的等效串扰水平,进而完成数据的极化校正。随后,对极化校正后的数据采用能量最大的投影方法提取其中极化功率最大的散射分量完成极化相干增强,提升通道间的相干性以及极化信息利用。基于上述结果,将极化相似度测度[16]引入马尔可夫随机场下,提出一种基于极化相似性约束的三维成像方法。最终的三维成像结果不仅由三维点云体现,还通过射线追踪逆投影的方式,融合三维模型生成了一种新的SAR三维可视化产品。

    全极化MV3DSAR实验系统主要由微小型全极化SAR载荷、无人机平台及导航系统3部分组成。无人机平台与导航系统的参数与文献[11]中的一致,表1仅给出SAR载荷的参数情况,图1给出了系统的实物图。

    表  1  全极化Ku-SAR载荷参数
    Table  1.  Parameters of full-polarimetric Ku-SAR payload
    序号 参数名称 参数值或内容
    1 中心频率 15.2 GHz
    2 信号形式 调频连续波(FMCW)
    3 极化方式 HH/HV/VH/VV
    4 信号带宽 1200 MHz
    5 天线尺寸(单通道) 0.05 m(俯仰)×0.32 m(方位)
    6 每个极化的阵列通道数 4
    7 分辨率 优于0.2 m×0.2 m
    8 天线波束宽度 方位≥4° 俯仰≥24°
    9 天线极化隔离度 优于25 dB
    10 通道相位不平衡稳定度 ±5° (10 min内)
    11 通道幅度不平衡稳定度 ±0.2 dB (10 min内)
    12 中心视角 45°
    13 NESZ 不大于–30 dB (最远
    作用距离3.6 km)
    14 Ku-SAR重量 主机、存储、电池、天线、结构等
    一共5.7 kg
    下载: 导出CSV 
    | 显示表格
    图  1  MV3DSAR系统实物图
    Figure  1.  A photo of MV3DSAR system

    微小型全极化SAR载荷硬件组成包括Ku波段微型SAR主机、存储模块、全极化收发天线、开关组合等部分,其系统组成如图2所示。其中,相比于单极化系统,全极化SAR载荷的天线改造为1发4收,采用“同时4通道+分时全极化”的方案:雷达发射信号每4个周期循环一次,依次发射H, H, V, V信号;4个接收天线同时接收信号,每4个周期循环一次,依次接收为HH1—HH4, HV1—HV4, VH1—VH4, VV1—VV4信号。上述方案可以有效解决采集通道不足、存储速率超限的技术难题。

    图  2  全极化MV3DSAR实验系统框图
    Figure  2.  Full-polarimetric MV3DSAR system block diagram

    为了验证全极化MV3DSAR实验系统的基本性能,我们于2022年9月—10月期间在江苏省苏州市开展了飞行实验,获取了测区多个方位角度的全极化数据。

    2.2.1   实验场地及目标布设

    本次实验场地为苏州空天信息研究院(后简称苏研院,如图3)。苏研院的建筑分为主楼和配套楼两栋。主楼呈U型,长约65.2 m,宽约62.5 m,楼高约38.2 m。配套楼由高矮两个部分楼体组成,长约68.9 m,宽约64.1 m,高楼高度约17.0 m,矮楼高度约9.4 m。

    图  3  苏研院光学影像及目标分布图(A—E区域分别为角反、几何散射体、树林、地下通道入口、车辆、工地塔吊)
    Figure  3.  Optical image and target distribution map (area A—E are corner reflector, geometric scatterer, forest, underpass entrance, vehicle, tower crane)

    本次实验场地内还布设有三面角反射器,可用于几何定标;布设有圆柱、球、二面角等多种类型的几何散射体,可用于不同微波散射机制反演。此外,主楼南面有树林,可用于极化定标;建筑周边有多处地下通道入口、采光井,街道旁停有车辆,建筑西面有施工塔吊,可反演的目标类型相比于天津单极化数据(SARMV3D-2.0)更丰富。

    2.2.2   航线及基线设计

    此次实验为兼顾航高限制、成像范围、最大不模糊高度、高程向分辨率以及三维成像最终结果的完整性,设计飞行高度为400 m,波束范围内的成像幅宽为356.18 m。为了获得测区内完整的三维和极化信息,本次实验设计了8个方位向的飞行航迹,记作ID0—ID7,如图4所示。

    图  4  MV3DSAR飞行航迹设计
    Figure  4.  MV3DSAR flight track design

    本次全极化实验采用1发4收共5个天线,因此在基线设计上提供了更多可选空间。通过空间模糊函数的分析,最终选定的基线构型如图5所示。图5中,虚线表示结构件上打孔的位置,T表示发射天线安装的位置,R1—R4为4个接收天线安装的位置,蓝色圆点表示等效天线相位中心的位置,该结构的等效基线可表示为[0, 0.107, 0.321, 0.535] m。

    图  5  MV3DSAR校飞实验基线设计
    Figure  5.  Baseline design of MV3DSAR

    考察上述基线结构下,下视角为45°时,系统的各项性能。给出观测矩阵的互相关特性及其空间模糊函数曲线如图6所示。观测矩阵A的数学表达形式为

    图  6  观测矩阵互相关特性及空间模糊函数曲线
    Figure  6.  Cross-correlation properties of observation matrix and spatial ambiguity function curve
    A=[aij]M×N,aij=exp(j4πλRbisj) (1)

    其中,M为观测数量,N为网格数,λ为雷达波长,R为斜距,bi为垂直基线,sj为斜高方向第j个网格坐标。

    系统的最大不模糊高度和斜高向瑞利分辨率曲线如图7所示。最大不模糊高度计算公式如下:

    图  7  最大不模糊高度及瑞利分辨率
    Figure  7.  Maximum unblurred height and Rayleigh resolution
    hmax (2)

    其中,{b_{\min}}为最短垂直基线,\theta 为下视角,其余变量含义与式(1)相同。

    斜高向瑞利分辨率计算公式如下:

    {\sigma _{\mathrm{s}}} = \frac{{\lambda R}}{{2{b_{\max}}}} (3)

    其中,{b_{\max}}为最长垂直基线,其余变量含义与式(1)相同。

    等效基线结构的最短、最长基线都与单极化系统实验的模式1保持一致[11],但其观测矩阵的互相关曲线上的旁瓣幅度更低,提供了质量更优的观测矩阵。

    为支撑SAR三维成像的精度验证和三维成像结果解译分析,实验在相近时段获取了无人机载激光雷达的测量数据和无人机载光学倾斜摄影测量数据。激光雷达三维点云可以提供地面目标的精细三维结构,作为三维成像结果的参考,其高程精度优于2 cm。激光点云高度渲染图如图8所示。光学倾斜摄影测量数据可以提供地面目标精细的光学纹理信息,用于SAR三维和二维成像的辅助解译。该光学影像分辨率优于2 cm,三维重建精度平面优于0.3 m,高程优于0.25 m。光学三维重建结果如图9所示。

    图  8  激光点云数据
    Figure  8.  Lidar point cloud data
    图  9  光学倾斜摄影结果
    Figure  9.  Optical oblique photography data

    文献[11]已经对MV3DSAR实验系统的分辨率、通道幅相不平衡等方面的基本性能指标进行了验证,本次飞行实验的主要目的是验证系统的极化性能,并开展后续的全极化三维成像处理与分析研究。本次实验获取了8个不同方位角度的观测数据,每个角度下有4个干涉通道数据,每个通道还包含HH, HV, VH, VV共4个极化通道数据。如何充分利用不同极化信息并在少量空间观测下完成三维成像,增强三维产品的可解译性,是本次数据处理的难点。本节对全极化阵列干涉SAR数据的处理流程和关键方法进行介绍,并展示最终的处理结果。

    针对多个方位向获取的全极化阵列干涉SAR数据,本文设计的总体处理流程如图10所示。首先对每个方向的4通道全极化阵列干涉SAR原始回波数据进行二维成像处理;再利用场景中的体散射分布目标对极化通道不平衡误差进行校正;然后利用多个方向的SAR影像数据联合对系统延迟误差、通道幅相误差进行标定,并确定和验证基线参数,确保几何与幅相一致性;再针对不同通道二维图像进行干涉配准和相干性分析;随后基于能量最大极化投影的方法对全极化数据进行极化相干增强处理,提升数据相干性;随后利用SAR影像中的极化语义信息对三维成像过程进行约束,得到精细的三维点云和散射系数。此外,为了便于三维成像结果的可视化解译分析,本文还利用三维成像结果生成解叠掩图,通过射线追踪逆投影的方式,生成一种SAR伪彩纹理渲染的可视化三维产品。

    图  10  全极化MV3DSAR数据处理总体流程
    Figure  10.  The overall flow of full-polarimetric MV3DSAR data processing

    在上述全极化数据处理流程中,关键技术包括极化校正、极化相干增强、极化约束三维成像这3个方面。极化校正处理修正了地物散射在不同极化通道间的相位关系,获得正确地物极化散射表现,为后续三维成像和极化应用提供基础;极化相干增强通过最大限度地提升数据相干性和能量利用率保证对于极化信息的利用;极化约束三维成像是本系统数据处理的关键,直接决定三维成像的效果。为此,后续将重点针对上述关键步骤进行处理方法的阐述并给出处理的参考结果。此外,三维融合可视化产品生成虽然是SAR三维成像之后的额外步骤,但其对三维成像结果的解译非常有利,为此本文也对其方法进行了介绍。

    本次全极化阵列干涉SAR数据的成像范围较小,且场景中没有布设二面角定标器用于精确的辐射极化定标。因此,本文采用基于场景中一般体散射分布目标进行全极化数据的快速极化校正。

    本团队提出一种基于普通分布目标的极化失真参数估计方法[17],适用于较复杂的机载全极化数据环境。该方法利用场景内的一般林区体散射分布目标实现发射接收端的极化不平衡参数的有效估计,并且可以得到系统的等效串扰水平。

    极化不平衡失真参数计算公式如式(4)、式(5)所示。其中,{F_{\rm r}}为接收端幅度不平衡,{F_{\rm t}}为发射端不平衡,{\theta _{\rm r}}为接收端相位不平衡,{\theta _{\rm t}}为发射端相位不平衡,{\left| \cdot \right|_{\mathrm{L}}}将数值转化为dB,P\left( \cdot \right)表示对复数取相位。

    \begin{aligned} & \left\{\begin{aligned} & {\left|{F}_{\text{r}}\right|}_{\rm{L}}=\frac{1}{2}\left(\Delta {f}_{\alpha }-\Delta {f}_{\beta }\right)\\ & \qquad +\frac{1}{2}\left({\left|{M}_{{\mathrm{VV}}}\right|}_{\rm{L}}-{\left|{M}_{{\mathrm{HH}}}\right|}_{\rm{L}}+{\left|{M}_{{\mathrm{HV}}}\right|}_{\rm{L}}-{\left|{M}_{{\mathrm{VH}}}\right|}_{\rm{L}}\right)\\ & {\left|{F}_{\text{t}}\right|}_{\rm{L}}=\frac{1}{2}\left(\Delta {f}_{\alpha }+\Delta {f}_{\beta }\right)\\ & \qquad +\frac{1}{2}\left({\left|{M}_{{\mathrm{VV}}}\right|}_{\rm{L}}-{\left|{M}_{{\mathrm{HH}}}\right|}_{\rm{L}}+{\left|{M}_{{\mathrm{VH}}}\right|}_{\rm{L}}-{\left|{M}_{{\mathrm{HV}}}\right|}_{\rm{L}}\right)\end{aligned},\right.\\ & \left\{\begin{aligned} & \Delta {f}_{\alpha }={\left|{S}_{{\mathrm{HH}}}\right|}_{\rm{L}}-{\left|{S}_{{\mathrm{VV}}}\right|}_{\rm{L}}\\ & \Delta {f}_{\beta }={\left|{S}_{{\mathrm{HV}}}\right|}_{\rm{L}}-{\left|{S}_{{\mathrm{VH}}}\right|}_{\rm{L}}\end{aligned}\right. \end{aligned} (4)
    \begin{aligned} & \left\{\begin{aligned} & {\theta }_{{\mathrm{r}}}=\frac{1}{2}\left(\Delta {\theta }_{\alpha }-\Delta {\theta }_{\beta }\right)\\ & \qquad +\frac{1}{2}\left(P\left(\langle {M}_{{\mathrm{HV}}}{M}_{{\mathrm{VH}}}^{\ast }\rangle \right)-P\left(\langle {M}_{{\mathrm{HH}}}{M}_{{\mathrm{VV}}}^{\ast }\rangle \right)\right)\\ & {\theta }_{{\mathrm{t}}}=\frac{1}{2}\left(\Delta {\theta }_{\alpha }+\Delta {\theta }_{\beta }\right)\\ & \qquad -\frac{1}{2}\left(P\left(\langle {M}_{{\mathrm{HV}}}{M}_{{\mathrm{VH}}}^{\ast }\rangle \right)+P\left(\langle {M}_{{\mathrm{HH}}}{M}_{{\mathrm{VV}}}^{\ast }\rangle \right)\right)\end{aligned},\right.\\ & \left\{\begin{aligned} & \Delta {\theta }_{\alpha }=P\left(\langle {S}_{{\mathrm{HH}}}{S}_{{\mathrm{VV}}}^{*}\rangle \right)\\ & \Delta {\theta }_{\beta }=P\left(\langle {S}_{{\mathrm{HV}}}{S}_{{\mathrm{VH}}}^{*}\rangle \right)\end{aligned}\right.\end{aligned} (5)

    其中,\Delta {f_\alpha },\;\Delta {f_\beta },\;\Delta {\theta _\alpha },\;\Delta {\theta _\beta }跟目标实际散射表现相关,研究表明选取的一般体散射目标有式(6)近似成立:

    \left\{ \begin{gathered} \Delta {f_\alpha } \approx 0 \\ \Delta {f_\beta } \approx 0 \\ \end{gathered} \right.,\quad \left\{ \begin{gathered} \Delta {\theta _\alpha } \approx 0 \\ \Delta {\theta _\beta } \approx 0 \\ \end{gathered} \right. (6)

    由于本方法无法得到精确的4个串扰因子,因此本文利用估计得到的极化通道不平衡失真参数对极化数据进行校正。若定义T为发射端失真矩阵,R为接收端失真矩阵,则对应的极化校正处理为

    {\boldsymbol{S}} = {\left( {{{\boldsymbol{R}}^{\mathrm{T}}}} \right)^{{{ - }}1}}{\boldsymbol{M}}{{\boldsymbol{T}}^{{{ - }}1}} (7)

    其中,S为地物真实散射矩阵,M为观测矩阵。

    根据极化电磁理论[18],散射目标对于不同极化通道的敏感度不同,单极化通道下的三维成像结果难以反映全部的建筑结构。为了充分利用全极化通道下的信息量,本文采用能量最大的投影方法(Polarization Energy Maximum, PEM)提取最优极化基下的散射分量[19,20]。以最大化极化空间中独立散射分量的极化功率为目标,在由参数 \phi \in \left(-\pi /2,\;\pi /2\right), \;\tau \in \left(-\pi /4,\;\pi /4\right) 构成的极化空间中搜索新正交极化基下的散射矩阵S,具体参见文献[20]。

    {{\boldsymbol{S}}_{\left\{ {{\mathrm{p}},{\mathrm{q}}} \right\}}} = {{\boldsymbol{U}}^{\mathrm{T}}}{{\boldsymbol{S}}_{\left\{ {{\mathrm{h,v}}} \right\}}}{\boldsymbol{U}} (8)

    其中,U为极化空间旋转矩阵,\left\{ {{\mathrm{h,v}}} \right\}为系统收发天线的极化方法,代表水平极化与垂直极化,\left\{ {{\mathrm{p,q}}} \right\}为能量最大方法下的最优极化基。

    经极化基下的空间旋转变换后,提取其中极化功率最大的散射分量作为第三维的观测矢量输入。对应图10中极化相干增强,利用全极化MV3DSAR系统某观测角度下SAR影像集做能量最大投影操作的流程见图11

    图  11  基于能量最大极化投影的极化相干增强流程图
    Figure  11.  Flow chart of polarization coherent enhancement based on energy maximum polarization projection

    SAR影像中蕴藏着丰富的微波视觉信息,一方面是由地物几何形状特性产生的几何语义信息,另一方面是由地物材质形状特性产生的极化散射信息。考虑到隶属于同一建筑面的点目标对应的SAR回波矢量相似度很高,基于此向三维成像算法中引入极化相似性约束。本文提出将极化相似性测度[16]引入到马尔可夫随机场下,实现邻域块的极化语义约束,提升后向散射系数的反演精度,保证三维重构的特征连续性,其目标函数为

    \hat {\boldsymbol{\gamma}} \left( {\hat {\boldsymbol{e}}} \right) = \mathop {\arg \max }\limits_{\hat {\boldsymbol{\gamma }}\left( {\hat {\boldsymbol{e}}} \right)} \left\{ {p\left( {{\boldsymbol{y}} - {\boldsymbol{A}}\hat {\boldsymbol{\gamma}} \left( {\hat {\boldsymbol{e}}} \right)} \right){p_{{\mathrm{LG}}}}\left( {\left. {\hat {\boldsymbol{\gamma}} \left( {\hat {\boldsymbol{e}}} \right)} \right|{K}} \right)} \right\} (9)

    其中, \hat {\boldsymbol{\gamma}} \left( {\hat {\boldsymbol{e}}} \right) 为待估计的后向散射矢量, \hat {\boldsymbol{e}} 为待估计的目标高程矢量, {\boldsymbol{y}} = \left[ {\begin{array}{*{20}{c}} {{y_1}}&{{y_2}}& \cdots &{{y_M}} \end{array}} \right] \in {C^{M \times 1}} 为极化处理后的M通道观测信号,A为式(1)所示观测矩阵, {\boldsymbol{y}} - {\boldsymbol{A}}\hat {\boldsymbol{\gamma}} \left( {\hat {\boldsymbol{e}}} \right) 为信号残差。p服从高斯分布, {p_{{\mathrm{LG}}}} 为局部马尔可夫随机场下的极化相似性约束函数:

    \begin{split} & {p_{{\mathrm{LG}}}}\left( {\left. {\hat {\boldsymbol{\gamma}} \left( {\hat {\boldsymbol{e}}} \right)} \right|{K}} \right) \\ & = \mathop {\arg \max }\limits_{\hat {\boldsymbol{\gamma}} \left( {\hat {\boldsymbol{e}}} \right)} \frac{1}{Z}\exp \left\{ {\sum\limits_{i = 1}^S {\sum\limits_{n \in {N_i}} {\frac{{{{\left\| {{{\hat {\boldsymbol{\gamma}} }_i}\left( {{{\hat {\boldsymbol{e}}}_i}} \right) - {{\hat {\boldsymbol{\gamma}} }_n}\left( {{{\hat {\boldsymbol{e}}}_n}} \right)} \right\|}_2}}}{{{\lambda _k}{{K}^{i,n}}}}} } } \right\} \end{split} (10)

    其中,Z为归一化因子,{N_i}为邻域像素块,S为像素点数, {\lambda _k} 为常数尺度因子, {\hat {\boldsymbol{\gamma}} _i} {\hat {\boldsymbol{\gamma }}_n} 为第i个和第n个像素点的后向散射系数, {{ K}^{i,n}} 代表第i个和第n个像素点之间的极化相似度测度。

    {{K}^{i,n}} = {C_k} \cdot \frac{{\left| {{{\boldsymbol{k}}_i} \cdot {{\boldsymbol{k}}_n}} \right|}}{{{{\left\| {{{\boldsymbol{k}}_i}} \right\|}_2} \cdot {{\left\| {{{\boldsymbol{k}}_n}} \right\|}_2}}} (11)

    其中,{C_k}为常量因子,{{\boldsymbol{k}}_i} {{\boldsymbol{k}}_n} 为极化散射矢量。

    在此基础上,如图12所示,通过调整经验阈值实施算法,针对极化相似度高的像素点联合求解,而相似性低的像素点则仍然分散求解。上述过程对应图10中极化约束三维成像。

    图  12  基于极化相似性约束的三维成像流程
    Figure  12.  Flow chart of 3D imaging based on polarization similarity constraint

    城区中普遍存在的叠掩现象通常来源于地面漫散射、建筑二次散射、树木冠层体散射。针对这个问题,则首先利用3.3节提到的极化分解方法提取功率较大的主散射分量,其一般对应人造目标。再将邻域的极化一致度测度引入三维成像。

    目前常见的SAR三维成像结果大多以三维点云的形式来呈现,点云的颜色以高程或者幅度值进行渲染。然而,原本在SAR二维影像上容易分辨的小目标(如车辆等),在三维点云中却难以观察其形状。这是因为,相比于激光雷达等传感器,SAR三维点云较稀疏,信噪比较低,目视解译反而更加困难。并且,稀疏的SAR点云难以生成网格模型,不利于纹理渲染和可视化。

    为此,本文提出一种融合SAR三维点云和光学倾斜摄影测量模型的三维可视化方法,也即对应图10中三维融合与可视化,其处理主要流程如图13所示。首先,基于SAR三维成像结果生成二维解叠掩图,并记录SAR三维点云和二维解叠掩图的映射关系\zeta ;再对光学三维点云和SAR三维点云进行配准,也即得到关于旋转矩阵R和平移矩阵T的映射关系\psi \left( {{\boldsymbol{R}},{\boldsymbol{T}}} \right);最后,利用前述两个映射关系\psi \zeta 对光学三维模型的每个面元找到其在解叠掩图上的像素,对面元进行渲染,最终生成更易于目视解译的三维产品。

    图  13  SAR三维可视化产品生产流程图
    Figure  13.  Flow chart of SAR 3D visual product production

    上述流程中的关键技术是生成解叠掩图。它利用三维成像结果生成分离叠掩后的二维SAR影像,从而使得混叠目标能被映射到正确的面片上。具体而言,本文利用三维成像的初始结果,不经过点云后处理,直接将所有像素的高度估计结果按照若干个高度阈值划分压缩到不同的平面,形成新的解叠掩后的二维SAR图像。图14展示了解叠掩图的制作流程,主要包括:(1)获取初始三维成像结果,包含了二维图像上每个像素的高度估计和散射强度;(2)根据叠掩目标的高度不同,确定高度划分阈值;(3)将同一高度范围的所有点的散射强度“压缩”投影到平面上,也即散射强度累加;(4)形成不同高度范围的解叠掩图。

    图  14  解叠掩图制作流程图
    Figure  14.  Flow chart of scatterer-unmixed image production

    经过上述处理,解叠掩后的全极化SAR伪彩纹理可以被渲染到光学网格模型上。相比稀疏SAR点云更容易观察目标的形状,并尽可能地保留了目标本身及其周围的散射强度信息。同时,SAR三维成像解叠掩的能力被充分体现,解叠掩后的图就像是雷达直接照射目标,而不存在与其他目标的混叠,显著增强了SAR影像的可解译性。

    本节使用本文提出的全极化数据处理方法,对全极化MV3DSAR实验系统在苏研院获取的数据进行处理。下面将重点针对上文所提方法的结果进行详细介绍。总流程中的二维成像、误差标定等的效果及性能参考文献[11]。

    在获取全极化多通道的复数影像后,采用基于场景体散射分布目标的极化校正方法实现收发端的极化不平衡参数和等效串扰水平的快速估计。以某个角度的数据为例,手动选择该场景中的林区目标,进行极化失真参数的解算。手动选择的区域如图15所示。

    图  15  手动选择场景中行道树区域作为极化标校对象
    Figure  15.  The street tree area in the scene is manually selected as the polarization calibration object

    再利用估计得到的极化通道不平衡失真参数对极化数据进行校正。处理的极化失真矩阵RT的副对角线的串扰因子设为0,校正发射接收端的幅度相位不平衡。处理前后的数据在Pauli伪彩图中的效果如图16所示。从结果中可以看到校正后数据Pauli伪彩图表现出一些变化,比如场景空地中布设的三面角反射器在校正后由偏红呈现出蓝色,符合三面角奇次散射的散射性质。

    图  16  场景在极化校正前后的Pauli伪彩图
    Figure  16.  Pauli pseudo-color image of the scene before and after polarization correction

    由于场景中布设的三面角反射器没有精确指向雷达视线方向,其测量极化质量参数可能存在一定的偏差,但其极化性质还是比较明显的。因此,我们对图17标记的三面角反射器局部区域进行升采样,提取峰值幅度相位信息,对校正前后的极化失真进行评估得到真实性检验结果。其中极化校正前的相位不平衡为–43°,极化校正后数值降为1.9°;极化校正前的幅度不平衡为–1.34 dB,极化校正后的幅度不平衡降为–0.43 dB。由于本文极化标校不处理串扰因子,系统的极化隔离度的水平均为37.7 dB左右。场景中不同的三面角估计的校正前后极化质量数值略有差异,但极化校正后的极化幅相不平衡失真均得到了明显的抑制。这说明极化校正使得全极化数据更能真实反映实际目标的极化散射表现。但由于无人机载数据获取条件较差,可见数据存在方位向变化的明暗条纹,从而对极化校正结果造成了影响,本文结果难以避免存在一定的处理误差。

    图  17  三面角反射器的极化失真评估
    Figure  17.  Evaluation of polarization distortion of a corner reflector

    随后,针对完成极化校正后的数据,采用能量最大投影方法提取其中极化功率最大的散射分量完成预处理。图18图19展示了某角度下极化预处理后通道间相干性与能量分布图。可见,相比于HH单极化情况,利用全极化数据进行能量最大方法投影预处理后,可以显著提升多通道SAR影像间的相干性,也有效提升了对于多极化通道信息的利用度。

    图  18  单极化HH与本文提出的PEM方法的相干系数统计图(图例中的下角标代表不同通道组合)
    Figure  18.  Statistical diagram of the coherence coefficients of the single polarization HH and the proposed PEM method (the lower corner marks in the legend represent different channel combinations)
    图  19  R1R4通道能量统计图(图例中的下角标代表通道序号)
    Figure  19.  Energy statistical diagram of channel R1R4 (the lower corner mark in the legend represents the channel number)

    随后,基于上述处理结果,完成基于极化相似性约束的三维成像。图20展示了某角度下观测场景的三维成像结果,图20(a)图20(b)分别为HH和VV单极化通道下获得的强度渲染的点云,图20(c)图20(d)分别为极化相似性作为约束前后的全极化三维伪彩点云,其采用Pauli三分量强度渲染。从图20可以看出,全极化三维重构能够在实现目标空间定位的同时显示出不同地物类别的极化散射特性,增强了三维SAR的可解译性。并且,观察图20(a)图20(b)中红框区域可以发现,单极化结果的建筑表面部分不完整,而得益于全极化信息,图20(c)图20(d)完整地显示了建筑表面结构。为了进一步比较单极化与全极化处理效果的差异,本文选取配套楼屋顶区域(图20(d)中的Area 1区域)的细节放大图作进一步分析,结果见图21,该区域主要由左侧的多个太阳能板和右侧的空调机箱以及各种管道构成,散射机理主要包含强单次散射、二次散射。图21(b)图21(e)中绿框表明:全极化相较单极化能够更清晰地区分不同类别的目标;观察图21(d)图21(e)中表征太阳能板的绿色点云,当引入极化相似性作为约束时,更容易提取这部分结构;此外,图21(d)图21(e)中的黄框部分的空调机箱表明引入极化相似性约束的结果中,建筑物的几何规则性更强,噪点也能够有效减少。

    图  20  三维成像结果对比(整体)
    Figure  20.  Overall comparison of SAR 3D point clouds
    图  21  三维成像结果对比(配套楼屋顶细节)
    Figure  21.  Detailed SAR 3D point clouds comparison of Area 1

    同时,为了定量化对比各种方法,本文以激光点云数据为参考真值,计算单极化点云、引入约束前后的全极化点云的三维重构精度来进行定量评价[11,12],结果如表2所示。HH和VV单极化数据的三维重构精度基本相当,分别为1.51 m和1.46 m。使用全极化数据后,在无约束条件下的三维重构精度提升至1.36 m。在极化相似性约束下,三维重建精度为0.93 m,相比单极化得到了显著的性能提升。总体而言,全极化三维重构在实现三维定位的同时还可以显示出地物的极化散射特征,增强三维点云的可解译性。在此基础上,如果能够合理地引入局部马尔可夫极化相似性作为约束,又能够有效增强建筑的几何规则性和空间相关性,最终达到有效降低非相关区域噪点,增强相关区域物理相似性的效果。

    表  2  三维重建精度对比
    Table  2.  Comparison of 3D reconstruction accuracy
    三维成像方法 点云三维重建精度(m)
    HH单极化 1.51
    VV单极化 1.46
    无约束的全极化 1.36
    极化相似性约束的全极化 0.93
    下载: 导出CSV 
    | 显示表格

    最后,将SAR三维点云经过高度分层和压缩投影得到解叠掩图。如图22所示,利用SAR三维成像解叠掩的能力,可以将场景分离为地面、楼面、屋顶3个部分,产生了雷达直接照射目标而不存在混叠的二维影像。尤其是在图22(b)红框中,地面采光井与楼面、屋顶产生了3次混叠。经过解叠掩处理,在图22(c)中可以清晰地看到地面采光井的正方形结构。此外,在图22(b)中,楼面与屋顶也产生了混叠,而解叠掩后的图22(d)图22(e)则可以清晰地看到楼面结构和屋顶的目标。

    图  22  某个飞行航迹下的解叠掩图
    Figure  22.  A set of 2D scatterer-unmixed images under a flight track

    我们再将解叠掩图投影渲染到光学倾斜摄影模型上,如图23所示。相比于离散点云,这种三维产品更好地表征了空间中连续的散射特性。尤其是散射较弱的目标,在三维点云中会很稀疏甚至被筛除,而本文的三维可视化产品很好地保留了这些目标。

    图  23  某个飞行航迹下的三维融合可视化产品
    Figure  23.  A 3D fusion visualization product under a flight track

    本文介绍了全极化MV3DSAR实验系统的组成、系统参数,并给出了全极化MV3DSAR在集成校飞实验的基线设计、航线设计和实验场地情况,最后重点给出了一套全极化数据处理的流程,包括极化校正、极化相干增强、极化约束三维成像、三维融合与可视化处理,最后给出了全极化SAR伪彩渲染的三维产品,验证了该系统的全极化和三维成像能力,可以为后续SAR微波视觉三维成像理论方法研究和验证提供支撑平台。

    在国家自然科学基金重大项目支撑下,项目团队后续将进一步开展基于微波视觉的SAR三维成像方法研究,并继续开展该实验数据的处理和指标评估工作,推动SAR三维成像技术的应用。

    本文利用全极化MV3DSAR实验系统采集的无人机载全极化阵列干涉SAR数据已公开发布在雷达学报官网,欢迎各位同行下载使用[15]

    致谢 本次实验得到了齐鲁空天信息研究院任天宇博士团队在光学和激光雷达数据获取方面的大力支持,中国科学院空天信息创新研究院施睿哲、王沐涵等同学在试验开展和现场实施方面的有力支撑,以及苏州空天信息研究院王卫、蔺蓓助理研究员、张翼鹏、王泽华等同学在图像配准、外场试验等方面的工作支撑,在此一并表示感谢。

  • 图  1  混合正确和噪声标签样本训练分类网络的损失曲线(以含80%标签噪声数据集训练ResNet18网络300次获得)

    Figure  1.  Loss curves of the classification network trained by mixed-noisy-and-clean labels (obtained by training ResNet18 with 80% noisy labels after 300 epochs)

    图  2  混合正确和噪声标签样本训练分类网络的损失曲线(以含80%标签噪声数据集训练ResNet18网络300次获得)和聚类中心

    Figure  2.  Loss curves of the classification network trained by mixed-noisy-and-clean labels (obtained by training ResNet18 with 80% noisy labels after 300 epochs) and clustering centers for clean and noisy labels

    图  3  标签纠正示例

    Figure  3.  Demo of label correction

    图  4  本文方法训练分类网络的损失曲线

    Figure  4.  Loss curves of clean and noisy samples for our proposed method

    图  5  分类精度曲线

    Figure  5.  Classification accuracy curves

    表  1  标签噪声数据集训练分类网络模型精度(%)

    Table  1.   Classification accuracy of the models trained with noisy labels and clean labels (%)

    训练网络模型 分类精度
    20%的正确标签 92.13
    混合20%的正确标签 & 80%的噪声标签 27.46
    100%的正确标签 98.30
    下载: 导出CSV

    1  含噪标签数据集训练分类网络

    1.   Train a classification network with noisy labels

     输入:X:训练集中的图像样本。
        {Y_{\mathrm{n}}}:训练集中的样本标签(包括噪声标签)。
         f\left( { \cdot ;\theta } \right) :一个分类网络(本文中为CNN)。
     输出:CNN训练权重 {\theta ^{{T_2}}}
     步骤1:混有噪声和正确标签数据集(X,{Y_{\mathrm{n}}})训练网络{T_1}
     获得 f\left( { \cdot ;{\theta ^{{T_1}}}} \right) \left\{ {{{\boldsymbol{l}}}_i^{{T_1}}} \right\}_{i = 1}^N
     步骤2:标签噪声不确定性建模
     初始化c
     for i in \left[1,T_c\right] iterations: do
      根据式(2)计算{\boldsymbol{c}}(k)
      根据式(3)计算{\mu _i}(k)
     end for
     获得{{\boldsymbol{c}}^ * }(k) \mu _i^ * (k)
     步骤3:基于噪声不确定度的数据划分
     获得噪声样本集 {D_{\mathrm{n}}} 、正确样本集 {D_{\mathrm{c}}} 、模糊样本集 {D_{\mathrm{f}}}
      {D_{\text{n}}} = \left\{ {({{\boldsymbol{x}}_i},{{\boldsymbol{y}}_i})|\mu _i^ * (2) > {\tau _1}} \right\}_{i = 1}^N
      {D_{\mathrm{c}}} = \left\{ {({{\boldsymbol{x}}_i},{{\boldsymbol{y}}_i})|\mu _i^ * (2) < {\tau _2}} \right\}_{i = 1}^N
      {D_{\mathrm{f}}} = \left\{ {({{\boldsymbol{x}}_i},{{\boldsymbol{y}}_i})|{\tau _2} \le \mu _i^ * (2) \le {\tau _1}} \right\}_{i = 1}^N
     通过mixup数据增强获得 {D_{{\text{aug}}}}
     根据式(5)计算{{\boldsymbol{x}}_{{\mathrm{mix}}}}
     根据式(6)计算{{\boldsymbol{y}}_{{\mathrm{mix}}}}
      {D_{{\text{aug}}}} = \left\{ {\left( {{{\boldsymbol{x}}_{{\text{mix}}}},{{\boldsymbol{y}}_{{\text{mix}}}}} \right)} \right\}
      {D_{\mathrm{m}}} = {D_{\text{c}}} \cup {D_{\mathrm{f}}} \cup {D_{{\mathrm{aug}}}}
     步骤4:使用{D_{\mathrm{m}}}分组加权纠正训练网络{T_2}
    下载: 导出CSV

    表  2  MSTAR数据集中训练和测试数据集中的目标数量

    Table  2.   Number of targets in the training and testing datasets of the MSTAR dataset

    地面目标图像训练数据集测试数据集总数据集
    2S1299274573
    BMP2233195428
    BRDM2298274572
    BTR60256195451
    BTR70233196429
    D7299274573
    T62299273572
    T72232196428
    ZIL131299274573
    ZSU234299274573
    下载: 导出CSV

    表  3  不同比例标签噪声下的纠正精度(%)

    Table  3.   The correction accuracy with different noise ratio (%)

    算法 40 (36.4) 60 (54.0) 80 (72.5)
    BMM-based 98.7 84.8 61.1
    LNMC 97.9 92.2 78.1
    本文方法 98.6 97.2 87.8
    注:由于制作标签噪声时一些样本标签可能被随机重新标注为正确标签,实际噪声比例略低于设置比例,括号内为实验中真实标签噪声比例。加粗项表示最优结果。
    下载: 导出CSV

    表  4  不同比例标签噪声下的网络分类精度(%)

    Table  4.   The classification accuracy with different noise ratio (%)

    算法 40 (36.4) 60 (54.0) 80 (72.5)
    mixup[20] 89.9 65.6 56.9
    BMM-based[8] 97.3 80.8 64.5
    RNSL[17] 46.1 45.9 41.2
    LNMC[36] 96.8 87.6 79.6
    Prune4ReL[30] 88.4 84.0 72.7
    本文方法 98.7 94.9 82.3
    注:由于制作标签噪声时一些样本标签可能被随机重新标注为正确标签,实际噪声比例略低于设置比例,括号内为实验中真实标签噪声比例。加粗项表示最优结果。
    下载: 导出CSV

    表  5  噪声比80%下 {{\boldsymbol{\tau}} _1},{\boldsymbol{{\tau}} _2} 不同取值时的网络分类精度

    Table  5.   The classification accuracy with different {{\boldsymbol{\tau}} _1},{{\boldsymbol{\tau}} _2} values under 80% noise ratio

    {\tau _1} {\tau _2} 分类精度(%)
    0.70.180.8
    0.80.180.9
    0.90.180.9
    0.70.282.7
    0.80.282.3
    0.90.282.5
    0.70.382.2
    0.80.382.3
    0.90.382.3
    下载: 导出CSV

    表  6  噪声比40%下 {{\boldsymbol{\tau}} _1},{{\boldsymbol{\tau}} _2} 不同取值时的网络分类精度

    Table  6.   The classification accuracy with different {{\boldsymbol{\tau}} _1},{{\boldsymbol{\tau}} _2} values under 40% noise ratio

    {\tau _1} {\tau _2} 分类精度(%)
    0.70.196.4
    0.80.196.8
    0.90.196.6
    0.70.297.6
    0.80.298.7
    0.90.297.5
    0.70.397.6
    0.80.397.6
    0.90.397.4
    下载: 导出CSV

    表  7  Mixup方法消融实验(%)

    Table  7.   Ablation study on mixup method (%)

    是否使用mixup 40 (36.4) 60 (54.0) 80 (72.5)
    94.7 90.3 73.2
    98.7 94.9 82.3
    注:由于制作标签噪声时一些样本标签可能被随机重新标注为正确标签,实际噪声比例略低于设置比例,括号内为实验中真实标签噪声比例。
    下载: 导出CSV
  • [1] CUI Zongyong, TANG Cui, CAO Zongjie, et al. SAR unlabeled target recognition based on updating CNN with assistant decision[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(10): 1585–1589. doi: 10.1109/LGRS.2018.2851600.
    [2] PEI Jifang, HUANG Yulin, HUO Weibo, et al. SAR automatic target recognition based on multiview deep learning framework[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(4): 2196–2210. doi: 10.1109/TGRS.2017.2776357.
    [3] WANG Chen, SHI Jun, ZHOU Yuanyuan, et al. Semisupervised learning-based SAR ATR via self-consistent augmentation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(6): 4862–4873. doi: 10.1109/TGRS.2020.3013968.
    [4] BAI Xueru, XUE Ruihang, WANG Li, et al. Sequence SAR image classification based on bidirectional convolution-recurrent network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(11): 9223–9235. doi: 10.1109/TGRS.2019.2925636.
    [5] AMRANI M, JIANG Feng, XU Yunzhong, et al. SAR-oriented visual saliency model and directed acyclic graph support vector metric based target classification[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(10): 3794–3810. doi: 10.1109/JSTARS.2018.2866684.
    [6] ZHOU Yuanyuan, SHI Jun, WANG Chen, et al. SAR ground moving target refocusing by combining mRe³ network and TVβ-LSTM[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5200814. doi: 10.1109/TGRS.2020.3033656.
    [7] WANG Chen, SHI Jun, YANG Xiaqing, et al. Geospatial object detection via deconvolutional region proposal network[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(8): 3014–3027. doi: 10.1109/JSTARS.2019.2919382.
    [8] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. The 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778. doi: 10.1109/CVPR.2016.90.
    [9] ARAZO E, ORTEGO D, ALBERT P, et al. Unsupervised label noise modeling and loss correction[C]. The 36th International Conference on Machine Learning, Long Beach, USA, 2019: 312–321.
    [10] ZHANG Chiyuan, BENGIO S, HARDT M, et al. Understanding deep learning (still) requires rethinking generalization[J]. Communications of the ACM, 2021, 64(3): 107–115. doi: 10.1145/3446776.
    [11] SONG H, KIM M, PARK D, et al. Learning from noisy labels with deep neural networks: A survey[J]. IEEE Transactions on Neural Networks and Learning Systems, 2023, 34(11): 8135–8153. doi: 10.1109/TNNLS.2022.3152527.
    [12] VEIT A, ALLDRIN N, CHECHIK G, et al. Learning from noisy large-scale datasets with minimal supervision[C]. The 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 839–847. doi: 10.1109/CVPR.2017.696.
    [13] VAHDAT A. Toward robustness against label noise in training deep discriminative neural networks[C]. The 31st International Conference on Neural Information Processing Systems, Long Beach, USA, 2017: 5601–5610.
    [14] REED S, LEE H, ANGUELOV D, et al. Training deep neural networks on noisy labels with bootstrapping[C]. The 3rd International Conference on Learning Representations, San Diego, USA, 2015.
    [15] LEE K H, HE Xiaodong, ZHANG Lei, et al. CleanNet: Transfer learning for scalable image classifier training with label noise[C]. The 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 5447–5456. doi: 10.1109/CVPR.2018.00571.
    [16] ZHANG Zhilu and SABUNCU M R. Generalized cross entropy loss for training deep neural networks with noisy labels[C]. The 32nd International Conference on Neural Information Processing Systems, Montréal, Canada, 2018: 8792–8802.
    [17] KANG Jian, FERNANDEZ-BELTRAN R, DUAN Puhong, et al. Robust normalized softmax loss for deep metric learning-based characterization of remote sensing images with label noise[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(10): 8798–8811. doi: 10.1109/TGRS.2020.3042607.
    [18] SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: A simple way to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15(1): 1929–1958.
    [19] GOODFELLOW I J, SHLENS J, and SZEGEDY C. Explaining and harnessing adversarial examples[C]. The 3rd International Conference on Learning Representations, San Diego, USA, 2015.
    [20] ZHANG Hongyi, CISSÉ M, DAUPHIN Y N, et al. Mixup: Beyond empirical risk minimization[C]. The 6th International Conference on Learning Representations, Vancouver, Canada, 2018.
    [21] PEREYRA G, TUCKER G, CHOROWSKI J, et al. Regularizing neural networks by penalizing confident output distributions[C]. The 5th International Conference on Learning Representations, Toulon, France, 2017.
    [22] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the inception architecture for computer vision[C]. The 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 2818–2826. doi: 10.1109/CVPR.2016.308.
    [23] HUA Yuansheng, LOBRY S, MOU Lichao, et al. Learning multi-label aerial image classification under label noise: A regularization approach using word embeddings[C]. The 2020 IEEE International Geoscience and Remote Sensing Symposium, Waikoloa, USA, 2020: 525–528. doi: 10.1109/IGARSS39084.2020.9324069.
    [24] SHENG Mengmeng, SUN Zeren, CAI Zhenhuang, et al. Adaptive integration of partial label learning and negative learning for enhanced noisy label learning[C]. The 38th AAAI Conference on Artificial Intelligence, Vancouver, Canada, 2024. doi: 10.1609/aaai.v38i5.28284.
    [25] ALBERT P, ORTEGO D, ARAZO E, et al. Addressing out-of-distribution label noise in webly-labelled data[C]. The 2022 IEEE/CVF Winter Conference on Applications of Computer Vision, Waikoloa, USA, 2022: 392–401. doi: 10.1109/WACV51458.2022.00245.
    [26] ZHANG Dongyu, HU Ruofan, and RUNDENSTEINER E A. CoLafier: Collaborative noisy label purifier with local intrinsic dimensionality guidance[C]. The 2024 SIAM International Conference on Data Mining, Houston, USA, 2024: 82–90.
    [27] NGUYEN D T, MUMMADI C K, NGO T P N, et al. SELF: Learning to filter noisy labels with self-ensembling[C]. The 8th International Conference on Learning Representations, Addis Ababa, Ethiopia, 2020.
    [28] WEI Hongxin, FENG Lei, CHEN Xiangyu, et al. Combating noisy labels by agreement: A joint training method with co-regularization[C]. The 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 13726–13735. doi: 10.1109/CVPR42600.2020.01374.
    [29] HAN Bo, YAO Quanming, YU Xingrui, et al. Co-teaching: Robust training of deep neural networks with extremely noisy labels[C]. The 32nd International Conference on Neural Information Processing Systems, Montréal, Canada, 2018: 8536–8546.
    [30] PARK D, CHOI S, KIM D, et al. Robust data pruning under label noise via maximizing re-labeling accuracy[C]. The 37th International Conference on Neural Information Processing Systems, New Orleans, USA, 2024: 3257.
    [31] 赵娟萍, 郭炜炜, 柳彬, 等. 基于概率转移卷积神经网络的含噪标记SAR图像分类[J]. 雷达学报, 2017, 6(5): 514–523. doi: 10.12000/JR16140.

    ZHAO Juanping, GUO Weiwei, LIU Bin, et al. Convolutional neural network-based SAR image classification with noisy labels[J]. Journal of Radars, 2017, 6(5): 514–523. doi: 10.12000/JR16140.
    [32] SHANG Ronghua, LIN Junkai, JIAO Licheng, et al. SAR image segmentation using region smoothing and label correction[J]. Remote Sensing, 2020, 12(5): 803. doi: 10.3390/rs12050803.
    [33] HUANG Zhongling, DUMITRU C O, PAN Zongxu, et al. Classification of large-scale high-resolution SAR images with deep transfer learning[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(1): 107–111. doi: 10.1109/LGRS.2020.2965558.
    [34] 滑文强, 王爽, 侯彪. 基于半监督学习的SVM-Wishart极化SAR图像分类方法[J]. 雷达学报, 2015, 4(1): 93–98. doi: 10.12000/JR14138.

    HUA Wenqiang, WANG Shuang, and HOU Biao. Semi-supervised learning for classification of polarimetric SAR images based on SVM-wishart[J]. Journal of Radars, 2015, 4(1): 93–98. doi: 10.12000/JR14138.
    [35] SUN Yuanshuang, WANG Yinghua, LIU Hongwei, et al. Gradual domain adaptation with pseudo-label denoising for SAR target recognition when using only synthetic data for training[J]. Remote Sensing, 2023, 15(3): 708. doi: 10.3390/rs15030708.
    [36] WANG Chen, SHI Jun, ZHOU Yuanyuan, et al. Label noise modeling and correction via loss curve fitting for SAR ATR[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5216210. doi: 10.1109/TGRS.2021.3121397.
    [37] KEYDEL E R, LEE S W, and MOORE J T. MSTAR extended operating conditions: A tutorial[C]. The SPIE 2757, Algorithms for Synthetic Aperture Radar Imagery III, Orlando, USA, 1996: 228–242. doi: 10.1117/12.242059.
    [38] SUTSKEVER I, MARTENS J, DAHL G, et al. On the importance of initialization and momentum in deep learning[C]. The 30th International Conference on Machine Learning, Atlanta, USA, 2013: 1139–1147.
    [39] PASZKE A, GROSS S, MASSA F, et al. PyTorch: An imperative style, high-performance deep learning library[C]. The 33rd Conference on Neural Information Processing Systems, Vancouver, Canada, 2019: 8026–8037.
  • 加载中
图(5) / 表(8)
计量
  • 文章访问数: 
  • HTML全文浏览量: 
  • PDF下载量: 
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-06-27
  • 修回日期:  2024-08-11
  • 网络出版日期:  2024-09-05
  • 刊出日期:  2024-09-28

目录

/

返回文章
返回