面向非均衡类别的半监督辐射源识别方法

谭凯文 张立民 闫文君 徐从安 凌青 刘恒燕

周超伟, 李真芳, 王跃锟, 解金卫. 联合多方位角调频率估计的星载SAR三维成像方法[J]. 雷达学报, 2018, 7(6): 696-704. doi: 10.12000/JR18094
引用本文: 谭凯文, 张立民, 闫文君, 等. 面向非均衡类别的半监督辐射源识别方法[J]. 雷达学报, 2022, 11(4): 713–727. doi: 10.12000/JR22043
Zhou Chaowei, Li Zhenfang, Wang Yuekun, Xie Jinwei. Space-borne SAR Three-dimensional Imaging by Joint Multiple Azimuth Angle Doppler Frequency Rate Estimation[J]. Journal of Radars, 2018, 7(6): 696-704. doi: 10.12000/JR18094
Citation: TAN Kaiwen, ZHANG Limin, YAN Wenjun, et al. A semi-supervised emitter identification method for imbalanced category[J]. Journal of Radars, 2022, 11(4): 713–727. doi: 10.12000/JR22043

面向非均衡类别的半监督辐射源识别方法

DOI: 10.12000/JR22043
基金项目: 国家自然科学基金(91538201)
详细信息
    作者简介:

    谭凯文(1998-),男,硕士研究生,主要研究方向为特定辐射源识别、生成式对抗网络、频谱感知

    张立民(1966-),男,教授,博士生导师,主要研究方向为卫星信号处理及应用

    闫文君(1986-),男,博士,副教授,主要研究方向为空时分组码检测、智能信号处理

    徐从安(1987-),男,博士,副教授,主要研究方向为遥感图像智能处理、多目标跟踪

    凌 青(1987-),女,博士,副教授,主要研究方向为通信信号智能处理

    刘恒燕(1994-),女,博士研究生,主要研究方向为LDPC译码

    通讯作者:

    张立民 iamzlm@163.com

    闫文君 wj_yan@foxmail.com

  • 责任主编:朱卫纲 Corresponding Editor: ZHU Weigang
  • 中图分类号: TN911.7

A Semi-supervised Emitter Identification Method for Imbalanced Category

Funds: The National Natural Science Foundation of China (91538201)
More Information
  • 摘要: 针对辐射源个体识别(SEI)中样本标签不完整和数据类别分布不平衡导致分类准确率下降的问题,该文提出了一种基于代价敏感学习和半监督生成式对抗网络(GAN)的特定辐射源分类方法。该方法通过半监督训练方式优化生成器和判别器的网络参数,并向残差网络中添加多尺度拓扑模块融合时域信号的多维分辨率特征,赋予生成样本额外标签从而直接利用判别器完成分类。同时设计代价敏感损失缓解优势样本导致的梯度传播失衡,改善分类器在类不平衡数据集上的识别性能。在4类失衡仿真数据集上的实验结果表明,存在40%无标记样本的情况下,该方法对于5个辐射源的平均识别率相比于交叉熵损失和焦点损失分别提高5.34%和2.69%,为解决数据标注缺失和类别分布不均条件下的特定辐射源识别问题提供了新思路。

     

  • 合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动式微波遥感探测技术,可实现全天时、全天候对地观测,并具有一定的地表穿透能力[1]。通过SAR系统获取目标的3维几何信息可用于对场景的精细化描述,相对于2维平面成像,具有十分重要的军事应用价值。目前较为成熟的3维重建技术是干涉SAR(Interferometric SAR, InSAR)技术[2,3],利用两幅相干SAR复图像同名点的相位差反演高程。SAR层析成像(TomoSAR)技术则是在InSAR技术基础上发展起来的一种目标3维重建技术[4,5]。该技术弥补了InSAR技术在高度向分辨能力缺失的不足,真正实现了对目标的3维分辨。虽然InSAR和TomoSAR技术发展迅速,但其数据的获取需要通过多次航过或多个天线完成,增加了技术实现的难度和成本。

    SAR多方位角观测是近年来提出的一种新的观测模式,对同一区域进行不同方位角的观测,不仅能获取场景内更丰富的目标特征信息,还使其具备了3维重建的潜力[6,7]。圆迹SAR(Circular SAR, CSAR)是多方位角观测的一种特殊形式,通过传感器平台的圆周运动,获取被观测目标多方位乃至360°全向观测信息,突破了常规直线轨迹SAR 2维成像的局限[8,9]。然而,对于星载SAR系统而言,难以实现单次航过环绕观测场景的多方位角观测。为实现全方位角观测,星载SAR系统需要依靠多航过或多星配合完成。尽管单次航过只能实现部分方位角的观测,但由于卫星轨道自身的弯曲特性,可将其等效为长3维曲线阵列[9,10],因此观测数据中依然携带了目标3维几何信息。

    实现3维成像的最直接方法是基于回波数据与散射目标系数间的傅里叶变换关系,通过3维FFT实现[11]。然而,由于多角度SAR数据在高度维是稀疏的,无法通过傅里叶变换实现无模糊3维成像。针对稀疏采样问题,文献[9,12]采用了稀疏重建技术恢复3维几何信息,但其方法基于多航过SAR数据,且运算量大,不适用于实时处理。文献[6]通过合理离散目标函数构造测量矩阵,然后采用稀疏重构算法实现多角度SAR 3维成像,但该方法受限于测量矩阵的设计,必须解决目标稀疏性与发射信息匹配的问题。文献[13]利用了高程相同的目标在多角度SAR图像序列上位置偏移一致的特性,提出了基于低秩和稀疏矩阵分解的目标3维重建方法,但其位置偏移与目标高度的传递关系建立在圆迹SAR观测几何下,不能直接推广至星载SAR系统。文献[14,15]分析了散射中心的分布特性,从非相干处理图像中提取轮廓线,从而估计目标的3维几何信息,但该方法需要建立在已知观测目标模型的基础上,无法重建未知目标。文献[16]通过分析TerraSAR-X凝视聚束模式数据,根据星载SAR轨道特性,给出了方位调频率误差与高程误差的函数关系,提出了一种基于参数估计的高程提取方法,但是其信号模型建立在正侧视几何下,未考虑多角度观测的斜视情况。

    针对上述问题,本文提出了一种联合多方位角调频率估计的星载SAR3维成像方法。该方法根据星载SAR多方位角观测几何,首先给出了更精确且适用于斜视几何的多普勒调频率与高程误差间的传递函数,实现联合多方位角SAR子孔径数据的高程估计。然后,根据2维成像的投影几何,实现目标的3维成像。最后,仿真数据验证了方法的有效性。

    本文结构如下:第2节介绍多方位角观测星载SAR系统的几何特性;第3节分析星载SAR多方位角观测几何下高程误差与多普勒调频率的关系;第4节,详细地阐述3维成像的全流程;第5节以圆柱点阵目标为例,给出3维成像结果;最后一节对全文进行总结。

    多方位角观测星载SAR系统通过波束方位向扫描实现对同一场景的长合成孔径观测,其数据录取几何如图1所示。图1中所有坐标都是建立在场景局部坐标系 O\raisebox1.5ptXYZ 下;坐标系原点 O 位于观测场景内某处, X 轴所指方向为地距向, Y 轴指向方位向, Z 轴指向高度向;卫星沿曲线轨道飞行,从 P1 处开始持续对地面场景进行观测,直至 P2 处停止观测,两处卫星速度矢量分别为 V1 V2 , θ1 θ2 为两处斜距矢量与速度矢量的夹角,观测方位角跨度为 Δφ ;假设场景参考平面对应高程为0;场景内有一个目标位置矢量为 T ,相对参考平面高程为 h ,且目标到 P1 P2 的斜距分别为 R1 R2 。若以场景参考平面为成像地平面,对 P1 所在方位角子孔径数据进行成像,该目标在成像平面内的投影位置为 T1 ;对 P2 所在方位角子孔径数据进行成像,则该目标在成像平面内的投影位置为 T2 。目标真实位置和两投影位置满足距离-多普勒模型[17]

    图  1  星载SAR多方位角观测几何示意图
    Figure  1.  Space-borne SAR multiple azimuth angle observation geometry
    TP1=T1P12(TP1)V1λR1=2(T1P1)V1λR1TP2=T2P22(TP2)V2λR2=2(T2P2)V2λR2}
    (1)

    式中, λ 为雷达载波波长。从式(1)可以看出,投影方向与速度矢量垂直。由于卫星轨道的弯曲,速度矢量 V1 V2 不平行,因此两次投影方向不同,即有 T1=/T2 ,可以根据投影位置偏移量提取目标高程。对于CSAR的圆轨迹,目标在不同方位角SAR图像中的偏移量与高程的关系可以通过几何关系求出[13],但这在多方位角观测星载SAR系统中直接推导却十分复杂。因此,可以从信号模型出发,反推偏移量与高程的关系。

    在多方位角星载SAR数据录取过程中,卫星的瞬时速度方向不断变化,对于距卫星同一斜距但高程不同的两个目标而言,多普勒历程是不同的。常见的多普勒频率表达式为

    fd=2RSVSλRst
    (2)

    式中, RS 为卫星到目标的瞬时斜距矢量, VS 为卫星的瞬时速度矢量, Rst 为卫星到目标的瞬时斜距。因此,多普勒调频率 Kfd 可以表示为

    Kfd=2λRstt(RSVS)Rst(RSVS)tR2st2λRst[RsttVscosθ(V2s+Rstascosαnad)]2λRst[V2ssin2θ+Rstassinθcosαnad,c]
    (3)

    式中, Vs 为卫星瞬时速度, as 为卫星的瞬时加速度, αnad 为目标瞬时的雷达下视角, αnad,c 为目标在中心方位时刻(正侧视)的雷达下视角, θ 为斜距矢量与速度矢量的夹角之间的夹角。多方位角观测星载SAR对目标的观测经历了由前斜视到后斜视的过程,不同方位时刻目标的瞬时下视角与斜视情况相关,即 cosαnadsinθcosαnad,c 。假设观测方位角跨度为[–20°, 20°],如果在推导多普勒调频率时忽略斜视角的影响,最大将引入约6%的调频率误差。

    对于匀速直线飞行的SAR平台,式(3)中带有 as 的第2项不存在;对于卫星平台, as 为卫星的重力加速度。在二体模型下,根据开普勒第三定律,卫星重力加速度为

    as=GMR2sat
    (4)

    式中, G 为引力常量(6.674×10–11 N·m2/kg2), M 为地球质量(5.964×1024 kg), Rsat 为卫星轨道半径。

    假设目标的高程误差为 Δh ,则引入的调频率误差 ΔKfd

    ΔKfd=Kfd,biasKfd=2assinθλ[cos(αnad+Δαnad)cosαnad]2assinθλsinαnadΔαnad
    (5)

    式中, Kfd,bias 为存在偏差的多普勒调频率, Δαnad 为高度误差 Δh 引起的雷达下视角误差。

    目标高程误差与雷达下视角的几何关系如图2所示。图2 Hs 为卫星飞行轨道高度, Re 为该纬度对应的地球半径, αinc 为目标对应的局部入射角, T T 分别在目标真实位置和存在高程误差时位置。当 Δαnad0 时, TT 可以近似看作直线。结合地球椭球模型[18],高程误差引起的下视角误差可以表示为

    图  2  高度误差与下视角误差关系几何示意图
    Figure  2.  The geometry of height error and nadir angle error
    Δαnad|TT|Rst=ΔhRstsinαinc=ReRe+HsΔhRstsinαnad
    (6)

    联立式(5)和式(6)可得

    ΔKfd2asResinθλRst(Re+Hs)Δh
    (7)

    式(7)中,多普勒调频率误差与高程误差呈线性关系,与斜距成反比。因此,在方位压缩后,通过对多普勒调频率误差进行估计,即可求出目标真实高程值。

    图3为仿真实验与式(7)计算的对比结果。仿真使用的轨道高度为514 km,轨道倾角为97.4°,观测场景选在赤道附近。从图3(a)中可以看出,200 m以内的高程误差引起的调频率误差小于0.2 Hz/s2,调频率误差随下视角减小而增大;图3(b)显示,调频率误差仿真值与式(7)计算值存在约5%的残差。该残差的引入除了推导过程中的两次近似外,还有加速度 as 的近似。尽管使用更精确的 as 可以提高计算精度,但这却不是必需的。虽然在 as 不精确的情况下,单次计算将引入约5%的残差,但可以通过迭代使其快速收敛。假设初始高程残差为200 m,通过2次迭代,由参数不精确引入的高程残余误差即可收敛至2 m以内。

    目标高程估计的前提是多普勒调频率估计,常见多普勒调频率估计的方法有最大对比度法和视错位法(Map Drift, MD)[19]。因为前者无法直接估计调频率的误差方向及幅度,所以此处选用MD法。MD法认为多普勒调频率误差 ΔKfd 会导致两个方位子孔径图像之间出现方位向偏移。令数据实际的多普勒调频率为 Kfd ,前后两子孔径的多普勒中心间隔为 Δfd ,卫星地速为 Vg ,则多普勒调频率误差可以近似为

    ΔKfdK2fdΔfdVgΔdaz
    (8)

    式中, Δdaz 为子孔径图像间的方位向偏移量(距离)。结合式(7)和式(8),可以得出高程误差估计表达式为

    ΔhλRst(Re+Hs)K2fd2asReΔfdVgsinθΔdaz
    (9)

    利用高程误差估计结果修正成像初始参考高程可获得目标真实高程。然后,将目标真实高程和目标在SAR图像中的像素坐标转换成目标3维几何信息,进而完成3维重建。在进行子孔径图像偏移量估计时,噪声的存在将引入偏移量的估计误差,从而影响高程测量精度,可通过切割多个子孔径,并通过对各子孔径的高程估计值求期望将该影响降低。对于多方位角观测SAR系统,由于其观测方位角跨度大,在确保足够子孔径分辨率的同时可以获得足够多的子孔径序列,可以获得更高的测高精度。在实际观测中,背景杂波对目标高程估计的影响相对较大。当杂波纹理特征明显,且杂波对应的场景高程与目标高程相同时,杂波在子孔径图像间的偏移量与目标的偏移量一致,不影响目标高程的估计;当杂波纹理特征明显,且杂波对应的场景高程与目标高程不同时,杂波在子孔径图像中的偏移量与目标不一致,即在计算偏移量时将出现两个峰值,分别属于杂波和目标,峰值大小与信杂比有关,峰值位置与杂波和目标的高程相关,不具有随机性,无法通过多角度观测提高高程估计精度;当杂波纹理特征不明显时,杂波在不同方位角子孔径图像间的配准偏移量具有随机性,可以通过对多方位角估计值求期望降低误差,即本文方法对于该类杂波的影响同样有一定的抑制效果。

    本文给出了一种多方位角观测星载SAR的3维成像方法,其流程如图4所示。

    图  4  多方位角观测星载SAR的3维成像方法流程图
    Figure  4.  The schematic diagram of space-borne SAR 3-D imaging method by multiple azimuth angle observation

    该方法包含以下步骤:

    步骤1 (数据子孔径分割) 根据星载多方位角观测SAR原始数据的孔径长度确定分割子孔径数。为确保各子孔径数据方位聚焦效果对高程的敏感性,子孔径方位角跨度应较大;同时,为了保证子孔径数据内的相干性和划分后子孔径数目足够多,子孔径方位角跨度不宜过大。根据经验,本文以2°作为子孔径分割的参考值,将全孔径数据分割成相同方位向点数的子孔径数据序列 S1,S2,···,SNsub ,其中 Nsub 为分割后子孔径数。

    步骤2 (参考子孔径成像) 从 S1,S2,···,SNsub 中选取中间的子孔径数据作为参考子孔径数据 Sref ,以场景参考平面为参考成像平面进行低分辨率2维成像,获得参考子孔径SAR图像 Iref 。参考成像平面的高程可以通过先验粗DEM获取,作为高程估计的起始值。当缺少先验DEM时,也可以通过大尺度的高程搜索获取起始值。

    步骤3 (强散射点搜索) 考虑到照射场景内地形和地物的空变,先将 Iref 沿距离向和方位向进行分块,分别统计各块内的像素幅值,并设定相应的幅度门限,利用幅度提取强散射点。然后,合并所有强散射点,得到强点序列 p1,p2,···,pNp ,其中 Np 为强点个数。

    步骤4 (子孔径序列成像) 在参考成像平面内对子孔径序列 S1,S2,···,SNsub 进行2维成像,获得子孔径图像序列 I1,I2,···,INsub

    步骤5 (相邻子孔径分块配准) 从每个子孔径图像中取出 Np 图像块,图像块的中心分别对应 Np 个强散射点,图像块大小为 5×5 个像素,整个孔径图像序列共可以获得 Nsub×Np 个图像块。然后,对 Nsub×Np 个图像块进行升采样,并配准插值后相邻子孔径图像同一强点所在的图像块,得到 (Nsub1)×Np 组偏移量。

    步骤6 (基于配准偏移量的高程估计) 将偏移量代入式(9),估计出每个强散射点的 Nsub1 个高程值。

    步骤7 (多方位角高程估计值平均) 对于每个强点,将 Nsub1 高程估计值取平均,认为是该强点的最终高程估计结果。

    步骤8 (3维信息重建和点云显示) 根据强点在 Iref 中的位置和高程估计值,计算各点在场景中的3维坐标,最终以3维点云的形式显示。

    仿真1 单点目标仿真 仿真参数如表1所示,表中的雷达波束中心下视角特指雷达波束正侧视照射场景时对应的波束中心下视角,仿真的点目标处于波束中心,设置不同信噪比和信杂比进行仿真实验。在不同信噪比的仿真实验中,SAR图像中加入的噪声为高斯白噪声,信噪比设有5 dB, 10 dB, 15 dB, 20 dB, 25 dB 5个梯度值,分别进行50次高程提取蒙特卡洛模拟实验,以高程估计的均方根误差(Root Means Square Error, RMSE)作为评价指标。在进行杂波仿真实验时,仿真方法与噪声的仿真方法不同,不直接向SAR图像中添加杂波。 κ 分布是目前应用最广的分布模型之一[20],在高分辨情况下可以在很宽范围内匹配杂波数据的幅度分布。因此仿真实验中使用服从 κ 分布的杂波模型生成场景的散射场。然后,用该散射场与目标进行多角度回波仿真。仿真数据的信杂比设有10 dB, 15 dB, 20 dB, 25 dB 4个梯度值(5 dB信杂比将导致目标淹没在杂波中),各进行50次蒙特卡洛实验,同样以高程估计的均方根误差作为评价指标。本文中信杂比的定义为信号功率与杂波功率(杂波幅度的均方根)的比值。

    在不同信噪比仿真实验中,为验证本文方法在斜视处理时相对于文献[16]方法的优势,截取了中心方位角为16°,方位角跨度为4°对应的斜视回波数据,分别用文献[16]方法和本文方法进行处理,对比结果如图5(a)所示。由于文献[16]中方法的提出未考虑斜视几何,因此相比于本文方法在高程估计上存在更大的偏差。为进一步验证联合多方位角观测对提高测高精度的有效性,开展了单方位角观测和多方位角观测数据处理对比实验。其中,单方位角观测的方位角范围为[–2°, 2°],处理时等分为两个子孔径,每个子孔径宽度为2°;多方位角观测的方位角范围为[–16°, 16°],等分为16个子孔径,每个孔径宽度为2°,处理结果如图5(b)所示。可以看出,联合多方位角观测估计高程的RMSE比单方位角观测估计结果小,证明多方位角观测具有更好的抗噪性能;随着信噪比的升高,噪声的影响减弱,联合多方位角数据处理结果与单方位角数据处理结果逐渐逼近,且两者的RMSE不断下降,最终趋近于1 m,该残差与图3的分析一致。当信噪比大于10 dB时,多方位角观测高程估计精度优于2 m。

    图  3  不同下视角对应的多普勒调频率误差与高程误差
    Figure  3.  The relationship between Doppler frequency error and height in different nadir angles
    图  5  不同信噪比下的高程估计均方根误差
    Figure  5.  Height estimation RMSE in various signal noise ratio

    在不同信杂比仿真实验中,用上述方法仿真的匀质杂波如图6(a)所示。图6(b)给出了杂波像素幅值统计结果和 κ 分布概率密度曲线的对比,在统计时将杂波幅值范围等分成80个区间,对比结果显示仿真的杂波像素幅值服从 κ 分布。实验数据后续的处理细节与信噪比仿真实验的数据处理细节一致,不赘述。图7(a)图7(b)记录了50次单方位角数据处理和多方位角数据联合处理的蒙特卡洛实验结果,可以看出基于多方位角数据高程提取结果的波动范围要小于单方位角数据的高程提取结果的波动范围,即有更稳定的估计结果。图8给出了不同信杂比下50次蒙特卡洛实验的高程估计均方根误差,从图中的曲线可以看出基于多方位角数据联合高程估计结果精度优于单方位角数据高程估计精度,证明了本文所提方法在目标背景中含有纹理特征不明显杂波的条件下依旧有效。

    图  6  杂波仿真结果
    Figure  6.  Simulation result of clutter
    图  7  不同信杂比下的蒙特卡洛高程估计结果记录
    Figure  7.  Monte Carlo height estimation record in various signal clutter ratio
    图  8  不同信杂比下的高程估计均方根误差
    Figure  8.  Height estimation RMSE in various signal clutter ratio

    仿真2 圆柱点阵仿真 主要仿真参数同表1,仿真的SAR图像信噪比为15 dB,在添加噪声时,参考的信号功率是点阵目标所在像素幅值的均方根值。图9显示了仿真的半径40 m、高20 m圆柱点阵模型,颜色对应高度。图10(a)是参考子孔径成像的幅度图,该图用于提取强散射点位置;图10(b)显示了强点提取结果,由于噪声存在和各点聚焦质量的差异,漏检了部分点目标,并且少量噪点被检测为目标;图10(c)图10(d)分别是文献[16]方法和本文方法提取的强散射点最终的3维成像结果,两种方法都能在一定程度上还原点阵模型,其中本文所提方法的3维成像结果轮廓更清晰,证明本文方法的高程提取精度优于文献[16]。

    图  9  圆柱点阵仿真模型
    Figure  9.  The model of cylider scatter array
    表  1  仿真参数
    Table  1.  Simulation parameters
    参数 数值
    轨道高度(km) 514
    轨道倾角(°) 97.4
    雷达载频(GHz) 9.70
    雷达带宽(MHz) 600
    雷达波束中心下视角(°) 35
    数据方位角跨度(°) [–16, +16]
    观测场景纬度(°N) 0
    下载: 导出CSV 
    | 显示表格

    针对星载SAR多方位角观测在高度维采样的稀疏性,无法直接通过3维FFT实现无模糊成像,且目标在不同方位角的投影与高程间的传递相对复杂等问题,本文提出了一种联合多方位角调频率估计的星载 SAR 3维成像方法。该方法首先给出了多普勒调频误差与高程误差进行关联,然后通过MD法估计多普勒调频率,接着通过联合多方位角高程估计值提高高程估计精度,最终根据高程估计结果和参考子孔径SAR图像恢复目标3维信息,实现3维成像。该方法利用了卫星轨道几何特点,建立了多普勒调频率与高程误差的关系,避免了求解目标在不同方位向投影位置的困难。同时,发挥了多方位角数据观测方位角大的优势,提高了高程测量精度,仿真实验验证其高程测量精度可达米级。本文3维成像的对象是强点目标,在实际场景中大多是扩展点目标(面目标),如何实现对这些目标的3维成像将是下一步工作的重点。

  • 图  1  IC-SGAN整体结构

    Figure  1.  The overall structure of IC-SGAN

    图  2  基于MTB和残差单元构建的判别网络

    Figure  2.  The discriminator based on MTB and residual units

    图  3  5类代价敏感损失曲线

    Figure  3.  Five types of cost-sensitive loss curve

    图  4  基本神经元结构

    Figure  4.  The basic neuron structure

    图  5  判别器和生成器损失值变化曲线

    Figure  5.  The loss value change of thediscriminator and generator

    图  6  判别器结构参数对识别准确率的影响

    Figure  6.  The influence of discriminator structure parameters on recognition accuracy

    图  7  MTB-ResNet与ResNet的识别准确率对比

    Figure  7.  Comparison of recognition accuracy between MTB-ResNet and ResNet

    图  8  不同训练样本数下识别性能对比

    Figure  8.  Comparison of recognition performance under different numbers of training samples

    图  9  不同标记比下的混淆矩阵

    Figure  9.  Confusion matrix under different labeled ratios

    图  10  辐射源信号采集系统实物图

    Figure  10.  Physical map of emitter signal acquisition system

    图  11  IC-SGAN对于不同辐射源数量的识别结果

    Figure  11.  The recognition results for different numbers of emitters

    表  1  生成器结构

    Table  1.   The structure of generator

    层名称参数设置
    输入层随机噪声1×100
    全连接层
    维度变换
    256×64
    1×256×64
    卷积层1,批归一化,
    LeakyReLU,上采样
    Filters = 128, kernel_size = 1×3,
    strides = 1, padding = same
    卷积层3Filters = 128
    卷积层4Filters = 64
    卷积层5Filters = 32
    卷积层6Filters = 1
    Flatten,全连接层
    输出层
    1000
    1×1000信号向量
    下载: 导出CSV

    表  2  仿真数据的训练集和测试集设置

    Table  2.   Training and test set settings for simulation data

    数据集类别
    E1E2E3E4E5
    标准训练集480480480480480
    标准测试集480480480480480
    训练集11010100480480
    训练集21020200180480
    训练集34804804802080
    训练集45050180480300
    下载: 导出CSV

    表  3  不同损失函数在不同信噪比下的性能评估(%)

    Table  3.   Performance evaluation of loss functions under different SNRs (%)

    训练集损失函数0 dB2 dB4 dB6 dB8 dB10 dB12 dB14 dB16 dB18 dB20 dB22 dB24 dB

    标准训练集
    CE49.3351.1753.3658.6465.4772.4485.1690.8894.6496.4899.2399.7699.80
    FL48.7850.9754.2957.9764.3170.8486.1091.1293.7792.5798.6898.5698.65
    ICL48.3151.2654.3356.1962.9968.0985.8489.5594.0595.6996.0298.2799.31
    训练集1CE29.8835.1437.3239.2439.8840.0441.5242.6345.6848.5274.7279.8782.61
    FL30.1333.1636.0838.8440.4042.3241.9643.0845.1248.6074.1680.7784.16
    ICL30.6536.4735.0438.3941.2643.7744.2745.4649.0054.2474.8483.1385.36
    训练集2CE19.7724.1325.8029.4830.5639.7242.7654.5255.2075.9679.5680.1581.36
    FL23.0825.5524.1625.7633.1636.2436.4455.8057.2473.0080.2481.6683.48
    ICL24.1126.6726.7728.9435.2940.9442.9653.9759.3377.0479.6481.0884.70
    训练集3CE28.0932.4033.5736.7442.1746.3849.4450.3655.5664.3673.4977.7679.40
    FL33.6833.1938.4538.7742.5445.2948.3751.9452.7966.8174.3177.5678.04
    ICL32.4136.9740.6040.8844.2846.0049.6450.9656.4465.5275.8879.5480.92
    训练集4CE30.1131.7935.8836.0843.1245.0048.3660.0862.0364.2870.8072.6178.54
    FL31.2533.5736.4040.3642.9643.8454.5662.3664.4064.8874.1673.7779.76
    ICL32.9733.2236.4241.3244.0447.5256.2464.7667.0468.2481.6082.7783.84
    下载: 导出CSV

    表  4  不同算法识别准确率对比(%)

    Table  4.   Comparison of recognition accuracy of different schemes (%)

    算法0 dB4 dB8 dB12 dB16 dB20 dB24 dB
    本文方法+CE30.1135.8843.1248.3662.0370.8078.54
    本文方法+ICL32.9736.4244.0456.2467.0481.6083.84
    方法1+CE27.5331.7637.7244.8059.3664.4373.36
    方法1+ICL28.1232.6439.5349.0863.9672.1275.24
    方法2+CE26.4633.1841.0746.0860.4768.0077.36
    方法2+ICL29.1634.5642.2851.3265.2375.1679.00
    方法334.8233.4640.6150.9257.7767.1871.49
    方法420.9625.1034.6445.6957.1458.0667.18
    下载: 导出CSV

    表  5  网络复杂度对比

    Table  5.   Network complexity comparison

    网络模型空间复杂度
    NO (M)
    迭代平均
    耗时ttrain (s)
    平均识别
    时间ttest (s)
    IC-SGAN1.97+3.9390.83.1
    RFFE-InfoGAN2.52+19.57207.04.6
    E3SGAN4.25+4.61110.52.8
    下载: 导出CSV

    表  6  真实数据的训练集和测试集设置

    Table  6.   Training set and test set settings for real data

    数据集类别
    E1E2E3E4E5E6E7E8E9E10
    标准训练集480480480480480480480480480480
    标准测试集240240240240240240240240240240
    训练集14848048480484804848048480
    训练集2120480120480120480120480120480
    训练集34804848048480484804848048
    训练集4480120480120480120480120480120
    下载: 导出CSV

    表  7  3类损失函数的识别性能评估(%)

    Table  7.   Recognition performance evaluation of three loss functions (%)

    训练集损失函数K = 5K = 6K = 7K = 8K = 9K = 10Average
    标准训练集CE93.5289.7887.2785.3485.4786.8088.03
    FL97.3987.6488.2189.6687.2885.3289.25
    ICL94.6088.3690.4688.5686.7286.3889.18
    训练集1CE90.1678.3576.4072.3870.8762.7675.15
    FL91.6879.7679.3574.6174.9865.1877.59
    ICL93.4884.0782.3777.5672.6568.9279.84
    训练集2CE86.8880.1778.4670.0269.4271.4376.06
    FL91.5478.1281.9868.3372.1372.1677.37
    ICL90.5383.4176.2972.2174.8768.5977.65
    训练集3CE88.5779.4474.6771.6273.5166.9475.79
    FL91.0582.5676.2669.5076.3869.4877.53
    ICL93.3784.5079.1875.4378.8672.8680.70
    训练集4CE86.7279.9883.4374.3473.2965.7477.25
    FL84.0782.4077.5377.0775.8268.0977.49
    ICL83.4684.9879.2577.3379.4871.3879.31
    下载: 导出CSV
  • [1] XING Yuexiu, HU Aiqun, ZHANG Junqing, et al. Design of a robust radio-frequency fingerprint identification scheme for multimode LFM radar[J]. IEEE Internet of Things Journal, 2020, 7(10): 10581–10593. doi: 10.1109/JIOT.2020.3003692
    [2] SANKHE K, BELGIOVINE M, ZHOU Fan, et al. No radio left behind: Radio fingerprinting through deep learning of physical-layer hardware impairments[J]. IEEE Transactions on Cognitive Communications and Networking, 2020, 6(1): 165–178. doi: 10.1109/TCCN.2019.2949308
    [3] POLAK A C, DOLATSHAHI S, and GOECKEL D L. Identifying wireless users via transmitter imperfections[J]. IEEE Journal on Selected Areas in Communications, 2011, 29(7): 1469–1479. doi: 10.1109/JSAC.2011.110812
    [4] SUN Jinlong, SHI Wenjuan, YANG Zhutian, et al. Behavioral modeling and linearization of wideband RF power amplifiers using BiLSTM networks for 5G wireless systems[J]. IEEE Transactions on Vehicular Technology, 2019, 68(11): 10348–10356. doi: 10.1109/TVT.2019.2925562
    [5] 潘一苇, 杨司韩, 彭华, 等. 基于矢量图的特定辐射源识别方法[J]. 电子与信息学报, 2020, 42(4): 941–949. doi: 10.11999/JEIT190329

    PAN Yiwei, YANG Sihan, PENG Hua, et al. Specific emitter identification using signal trajectory image[J]. Journal of Electronics &Information Technology, 2020, 42(4): 941–949. doi: 10.11999/JEIT190329
    [6] DIGNE F, BAUSSARD A, KHENCHAF A, et al. Classification of radar pulses in a naval warfare context using Bézier curve modeling of the instantaneous frequency law[J]. IEEE Transactions on Aerospace and Electronic Systems, 2017, 53(3): 1469–1480. doi: 10.1109/TAES.2017.2671578
    [7] GUO Shanzeng, AKHTAR S, and MELLA A. A method for radar model identification using time-domain transient signals[J]. IEEE Transactions on Aerospace and Electronic Systems, 2021, 57(5): 3132–3149. doi: 10.1109/TAES.2021.3074129
    [8] URETEN O and SERINKEN N. Bayesian detection of Wi-Fi transmitter RF fingerprints[J]. Electronics Letters, 2005, 41(6): 373–374. doi: 10.1049/el:20057769
    [9] GONG Jialiang, XU Xiaodong, and LEI Yingke. Unsupervised specific emitter identification method using radio-frequency fingerprint embedded InfoGAN[J]. IEEE Transactions on Information Forensics and Security, 2020, 15: 2898–2913. doi: 10.1109/TIFS.2020.2978620
    [10] YAO Yanyan, YU Lu, and CHEN Yiming. Specific emitter identification based on square integral bispectrum features[C]. 2020 IEEE 20th International Conference on Communication Technology (ICCT), Nanning, China, 2020: 1311–1314.
    [11] ZHANG Jingwen, WANG Fanggang, DOBRE O A, et al. Specific emitter identification via Hilbert-Huang transform in single-hop and relaying scenarios[J]. IEEE Transactions on Information Forensics and Security, 2016, 11(6): 1192–1205. doi: 10.1109/TIFS.2016.2520908
    [12] YUAN Yingjun, HUANG Zhitao, WU Hao, et al. Specific emitter identification based on Hilbert-Huang transform-based time-frequency-energy distribution features[J]. IET Communications, 2014, 8(13): 2404–2412. doi: 10.1049/iet-com.2013.0865
    [13] PAN Yiwei, YANG Sihan, PENG Hua, et al. Specific emitter identification based on deep residual networks[J]. IEEE Access, 2019, 7: 54425–54434. doi: 10.1109/ACCESS.2019.2913759
    [14] 秦鑫, 黄洁, 王建涛, 等. 基于无意调相特性的雷达辐射源个体识别[J]. 通信学报, 2020, 41(5): 104–111. doi: 10.11959/j.issn.1000-436x.2020084

    QIN Xin, HUANG Jie, WANG Jiantao, et al. Radar emitter identification based on unintentional phase modulation on pulse characteristic[J]. Journal on Communications, 2020, 41(5): 104–111. doi: 10.11959/j.issn.1000-436x.2020084
    [15] SATIJA U, TRIVEDI N, BISWAL G, et al. Specific emitter identification based on variational mode decomposition and spectral features in single hop and relaying scenarios[J]. IEEE Transactions on Information Forensics and Security, 2018, 14(3): 581–591. doi: 10.1109/TIFS.2018.2855665
    [16] SA Kejin, LANG Dapeng, WANG Chenggang, et al. Specific emitter identification techniques for the internet of things[J]. IEEE Access, 2020, 8: 1644–1652. doi: 10.1109/ACCESS.2019.2962626
    [17] MERCHANT K, REVAY S, STANTCHEV G, et al. Deep learning for RF device fingerprinting in cognitive communication networks[J]. IEEE Journal of Selected Topics in Signal Processing, 2018, 12(1): 160–167. doi: 10.1109/JSTSP.2018.2796446
    [18] QIAN Yunhan, QI Jie, KUAI Xiaoyan, et al. Specific emitter identification based on multi-level sparse representation in automatic identification system[J]. IEEE Transactions on Information Forensics and Security, 2021, 16: 2872–2884. doi: 10.1109/TIFS.2021.3068010
    [19] WU Qingyang, FERES C, KUZMENKO D, et al. Deep learning based RF fingerprinting for device identification and wireless security[J]. Electronics Letters, 2018, 54(24): 1405–1407. doi: 10.1049/el.2018.6404
    [20] WANG Xuebao, HUANG Gaoming, MA Congshan, et al. Convolutional neural network applied to specific emitter identification based on pulse waveform images[J]. IET Radar, Sonar & Navigation, 2020, 14(5): 728–735. doi: 10.1049/iet-rsn.2019.0456
    [21] 何遵文, 侯帅, 张万成, 等. 通信特定辐射源识别的多特征融合分类方法[J]. 通信学报, 2021, 42(2): 103–112. doi: 10.11959/j.issn.1000-436x.2021028

    HE Zunwen, HOU Shuai, ZHANG Wancheng, et al. Multi-feature fusion classification method for communication specific emitter identification[J]. Journal on Communications, 2021, 42(2): 103–112. doi: 10.11959/j.issn.1000-436x.2021028
    [22] ZHOU Huaji, JIAO Licheng, ZHENG Shilian, et al. Generative adversarial network-based electromagnetic signal classification: A semi-supervised learning framework[J]. China Communications, 2020, 17(10): 157–169. doi: 10.23919/JCC.2020.10.011
    [23] ABDI L and HASHEMI S. To combat multi-class imbalanced problems by means of over-sampling techniques[J]. IEEE Transactions on Knowledge and Data Engineering, 2016, 28(1): 238–251. doi: 10.1109/TKDE.2015.2458858
    [24] BUNKHUMPORNPAT C, SINAPIROMSARAN K, and LURSINSAP C. DBSMOTE: Density-based synthetic minority over-sampling technique[J]. Applied Intelligence, 2012, 36(3): 664–684. doi: 10.1007/s10489-011-0287-y
    [25] KANG Qi, CHEN Xiaoshuang, LI Sisi, et al. A noise-filtered under-sampling scheme for imbalanced classification[J]. IEEE Transactions on Cybernetics, 2017, 47(12): 4263–4274. doi: 10.1109/TCYB.2016.2606104
    [26] HOU Yun, LI Li, LI Bailin, et al. An anti-noise ensemble algorithm for imbalance classification[J]. Intelligent Data Analysis, 2019, 23(6): 1205–1217. doi: 10.3233/IDA-184354
    [27] KRAWCZYK B, WOŹNIAK M, and SCHAEFER G. Cost-sensitive decision tree ensembles for effective imbalanced classification[J]. Applied Soft Computing, 2014, 14: 554–562. doi: 10.1016/j.asoc.2013.08.014
    [28] DUAN Wei, JING Liang, and LU Xiangyang. Imbalanced data classification using cost-sensitive support vector machine based on information entropy[J]. Advanced Materials Research, 2014, 989/994: 1756–1761. doi: 10.4028/www.scientific.net/AMR.989-994.1756
    [29] ZHANG Zhongliang, LUO Xinggang, GARCÍA S, et al. Cost-sensitive back-propagation neural networks with binarization techniques in addressing multi-class problems and non-competent classifiers[J]. Applied Soft Computing, 2017, 56: 357–367. doi: 10.1016/j.asoc.2017.03.016
    [30] DHAR S and CHERKASSKY V. Development and evaluation of cost-sensitive universum-SVM[J]. IEEE Transactions on Cybernetics, 2015, 45(4): 806–818. doi: 10.1109/TCYB.2014.2336876
    [31] GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. The 27th International Conference on Neural Information Processing Systems, Montreal, Canada, 2014: 2672–2680.
    [32] RADFORD A, METZ L, and CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL]. arXiv: 1511.06434[cs.LG], 2015. https://arxiv.org/abs/1511.06434.
    [33] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
    [34] ZHANG Linbin, ZHANG Caiguang, QUAN Sinong, et al. A class imbalance loss for imbalanced object recognition[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 2778–2792. doi: 10.1109/JSTARS.2020.2995703
    [35] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318–327. doi: 10.1109/TPAMI.2018.2858826
    [36] KHAN S H, HAYAT M, BENNAMOUN M, et al. Cost-sensitive learning of deep feature representations from imbalanced data[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(8): 3573–3587. doi: 10.1109/TNNLS.2017.2732482
  • 期刊类型引用(0)

    其他类型引用(19)

  • 加载中
图(11) / 表(7)
计量
  • 文章访问数: 980
  • HTML全文浏览量: 633
  • PDF下载量: 152
  • 被引次数: 19
出版历程
  • 收稿日期:  2022-03-11
  • 修回日期:  2022-05-05
  • 网络出版日期:  2022-05-17
  • 刊出日期:  2022-08-28

目录

/

返回文章
返回