-
摘要: 自动目标识别(ATR)是一个汇集模式识别、人工智能、信息处理等多学科融合发展的技术领域,ATR评价则是将ATR算法/系统等作为研究对象的评价行为。由于ATR算法/系统面临目标非合作、工作条件复杂多样、决策者自身存在多种主观偏好等诸多困难,ATR评价贯穿ATR研制的全过程,对ATR技术发展起到重要的指导作用。该文首先阐述了ATR评价方法研究的内涵,简要回顾ATR技术发展;然后从性能指标定义、测试条件构建、推断与决策等方面详细梳理分析了ATR评价方法研究的成果、应用及最新研究进展;最后总结了若干ATR评价方法研究的发展方向。该文旨在为更好地理解ATR评价和有效使用ATR评价方法提供新的参考借鉴。Abstract: Automatic Target Recognition (ATR) is an interdisciplinary technological field related to pattern recognition, artificial intelligence, and information processing. ATR evaluation focuses on accessing ATR algorithms and systems. Due to the noncooperative targets, complex operating conditions, and multiple subjective preferences of the decision maker, ATR evaluation is performed for the entire ATR research process and shows its importance in guiding ATR development. This paper presents the connotation of ATR evaluation and briefly reviews ATR development. Furthermore, the conventional methods, applications, and latest developments in ATR evaluation are presented and discussed from the perspective of performance measures, test condition, inference and decision. Finally, several ATR evaluation research directions are summarized. This paper serves as a valuable reference for a better understanding of ATR evaluation and the effective adoption of various ATR evaluation methods.
-
1. 引言
极化干涉SAR[1] 将SAR干涉测量能力和全极化探测能力相结合,可以获得地物目标更加丰富的观测信息,从而更好地反映地物目标结构特性,在森林高度反演、城区等复杂场景三维信息提取等方面有着良好的应用潜力,受到了国内外的普遍关注,并针对不同应用需求提出了不同的处理模型和方法。
在极化干涉SAR森林高度反演方面,一些学者提出了RVoG模型等经典物理模型[2-4],并开展了许多研究和验证。近年来,随着SAR系统分辨率的不断提高,极化干涉SAR在城区等复杂场景的应用潜力也受到了更多关注,并且已经发展了相关的处理方法,笔者总结为以下3种主要处理模型:(1)极化最优相干处理后干涉测高;(2)极化分解后干涉测高;(3)直接联立极化干涉观测方程以求解不同散射机制高度。其中,第1种处理模型应用广泛,通过极化最优相干可以提高干涉相干性,从而提升干涉测高的精度,但其只能获得一个综合意义上的高度,无法获悉不同散射机制的高度。第2种处理模型具有良好的物理可解释性,且已应用于城区建筑高度提取。例如,Garestier等人[5]对建筑的结构及周围环境进行了理想化假设,基于Pauli基对建筑区域进行分解,利用Pauli分解后第1项和第3项的干涉相位差对建筑高度进行反演。王萍等人[6]提出了一种基于Freeman三分量分解的极化干涉SAR建筑高度提取方法,分离了不同散射机制的相位中心。但该类方法在散射机制构成复杂的情况下难以得到有效的结果。为此,研究人员提出了第3类更具有普适性的方法。例如,Eric Pottier团队[7]提出在极化干涉中使用基于旋转不变技术估计信号参数(Estimating Signal Parameters via Rotational Invariance Techniques, ESPRIT) 方法用于估计同一个像素内散射点的数目和位置,并以此获取建筑高度。Colin等人[8]在ESPRIT分解基础上,提出了一种新的相干模型以区分同一像素内的3种散射机制,并应用于X波段极化干涉数据中以反演城区建筑高度。之后,Colin-koeniguer等人[9]进一步改进模型,使其可以判断并区分同一个像素内的第1种到第3种散射机制。上述处理模型与方法的研究促进了极化干涉SAR在城区场景下的应用探索,然而,其模型方法研究均主要基于系统无误差的理想情况构建,并未考虑极化干涉SAR系统误差对模型和处理结果的影响,不利于对方法应用结果的分析和评价。为此,有必要对极化干涉SAR不同处理模型下的误差影响进行分析研究。
现有关于极化干涉SAR误差分析的研究,主要包括:在极化失真方面,Cloude[10]分析了极化失真对极化干涉最优相干的影响;张林涛等人[11]进一步提出了一个误差传递模型,分析了极化失真对极化干涉相位的影响;许丽颖[12]分析了极化误差对极化干涉SAR反演林高的影响,还分析了极化误差对ESPRIT算法估计树高的影响。孙翔[13]分析了极化误差对极化干涉SAR反演林高的影响。在干涉误差方面,文献[14-16]分析了基线、基线角和干涉通道相位对干涉的影响,文献[17-19]分析了运动补偿残余误差对干涉误差的影响;笔者前期工作[20]进一步分析了极化失真和运动补偿残余误差对于极化最优相干下干涉相位的共同影响。综上,现有对极化干涉SAR误差影响分析的研究,在误差因素考虑以及与极化干涉SAR不同处理模型的结合上还不够全面,尚缺乏系统性的理论分析。
为此,本文针对极化干涉SAR系统误差进行了全面梳理和建模,并结合极化干涉SAR的3种处理模型推导了误差影响的规律,且通过仿真验证了误差影响模型的正确性。在此基础上,分析给出了极化干涉SAR 3种处理模型下反演的散射机制高度受极化失真、干涉误差、信噪比的影响程度。最后,使用实际无人机数据,给出了补偿误差后的高度反演结果。研究结果可为极化干涉SAR系统设计、极化干涉SAR处理方法选择以及处理结果分析理解提供理论方法支撑。
2. 不同处理模式下的基础模型与误差模型
2.1 极化干涉SAR处理模型
在介绍误差影响模型的推导之前,首先简要介绍本文涉及的3种极化干涉SAR处理模型。
2.1.1 极化最优相干处理模型
极化最优相干处理模型在文献[1]中有详细介绍,其目的是为极化观测矢量寻找一组最优的投影方向,以使得在该投影方向上获得最大的干涉相干性。
记全极化干涉图像组匹配后的某个像素位置Pauli分解后的极化向量分别为
k1,k2 :k1=1√2[S1HH+S1VVS1HH−S1VV2S1HV]Tk2=1√2[S2HH+S2VVS2HH−S2VV2S2HV]T} (1) 寻找使得干涉相干系数最大的投影向量,记为
w1 和w2 ,则得到最优极化相干对应的散射矢量为i1,i2 。i1=wH1k1,i2=wH2k2 (2) 其中,“H”表示共轭转置。极化最优相干后的干涉处理就是基于
i1,i2 进行干涉相位计算、相位解缠和高度反演等处理。2.1.2 基于极化分解的极化干涉处理模型
基于极化分解的极化干涉处理模型,是先对相干的两组全极化图像数据各自进行极化分解,然后对分解后的每个极化分量各自进行干涉处理,从而可获得每个极化分量的相位中心高度。
Pauli分解是一种经典的极化分解方法,Pauli分解后的散射向量如式(1)所示,3个分量分别对应3种散射机制:第1个分量对应平坦表面的单次散射;第2个分量对应0°二面角散射,第3个分量对应45°的二面角散射。
由于Pauli分解在工程中应用普遍,且其为相干分解,可逐像素进行,对于建筑等人造目标比较适用,故本文重点结合Pauli分解后相干处理的模型分析误差影响。
2.1.3 基于极化干涉观测矩阵的处理模型
基于极化干涉观测矩阵的处理模型,是直接构建由主辅图像4种极化方式,共8个复数观测量所构成的观测方程,直接求解该像素内散射子的数量、每个散射子对应的干涉相位,进而反演每个散射子的高度。
该处理模型下,设匹配后的干涉图像组某个像素点内有d个散射子,则每个图像中的观测量可写为
s1pq=d∑m=1σmςpqmei4πλR+npq1s2pq=d∑m=1σ′mς′pqmei4πλ(R+ΔRm)+npq2} (3) 其中,
s1pq,s2pq 为两个干涉图像中该像素的复数值,pq 表示极化通道(HH, HV, VH, VV);σm 和σ′m 表示第m个散射子参考极化方式(如HH)下的散射系数,在基线较小的情况下,可认为σm≈σ′m ;ςpqm 和ς′pqm 表示第m个散射子在pq 极化方式下的散射系数,通常也可认为ςpqm≈ς′pqm ;R 表示该像素对应的干涉主图像中的斜距,ΔRm 表示第m个散射子对应的干涉辅图像和主图像中的斜距差;npq1,npq2 为噪声。式(3)在两个干涉通道散射矢量近似相等的假设下可以写为
s1=Aσ+n1,s2≈AΦσ+n2 (4) 其中
s1=[s1HHs1HVs1VHs1VV]Ts2=[s2HHs2HVs2VHs2VV]TΦ=diag{eiϕ1,eiϕ2,⋯,eiϕd}ϕm=4πλΔRmσ=[σ1,σ2,⋯,σd]TA=[ςHH1ςHV1ςVH1ςVV1ςHH2ςHV2ςVH2ςVV2⋮⋮⋮⋮ςHHdςHVdςVHdςVVd]} (5) 式中,d具体需要根据矩阵性质判定,待求量是
Φ 。在SVH≈SHV 的假设下,协方差矩阵为RXX=⟨XX+⟩ (6) 其中
X=[s1HHs1HVs1VVs2HHs2HVs2VV]T (7) 使用文献[7]中的TLS-ESPRIT算法求解,对矩阵
RXX 进行SVD分解,可以得到:RXX=EΛEH=6∑m=1λmemeHm (8) 其中,
Λ=diag{λ1,λ2,⋯,λ6} ,E=[e1,e2,⋯,e6] 。定义同一个像素中散射子的个数为d,一般假设d小于极化通道的总数,即d≤3 。矩阵E的前d列就是d个散射子对应的特征向量,将它们组合成新矩阵
ES ,并将它按行平均拆分为矩阵EX 和EY 。矩阵ES 的前3行为EX ,后3行为EY 。ES=[√λ1e1,√λ2e2,⋯,√λded]=[EXEY] (9) 将矩阵
EX 和EY 重新写为矩阵EXY ,并对矩阵EXY 进行SVD分解。EHXYEXY=[EHXEHY][EXEY]=E1ΛEH1 (10) 将矩阵
E1 拆分为4个d×d 的子矩阵,并构造矩阵Ψ ,构造Ψ 的推导过程详见文献[21]中的式(26)。E1=[E11E12E21E22],Ψ=−E12E−122 (11) Roy和Kailath[21]推导出矩阵
Ψ 的特征值λ′m 就是矩阵Φ 的对角线元素。因此,每个散射子的干涉相位ϕm 可以写为ϕm=arg(λ′m) (12) 由式(12)求解得到每个散射子的干涉相位
ϕm,(m=1,2,⋯,d) 后,根据干涉SAR高度反演的公式即可得到每个散射子的高度。TLS-ESPRIT方法只能解出对应散射机制的干涉相位,无法解出对应散射机制的散射强度,后向散射系数等其他参数。因此,本文提出通过相关推导,解出ESPRIT模型中的其他参数。
将式(4)中得到的两个子阵模型合并。
X=[AAΦ]S+N=ˉAS+N (13) 得到协方差矩阵如式(14)所示。
R=E[XXH]=ˉARSˉAH+RNR=USΣSUHS+UNΣNUHN} (14) 其中,E为期望算子,
US 为大特征值对应的特征向量,UN 为小特征值对应的特征向量。ΣS ,ΣN 为对应的奇异值矩阵。从式(14)看出US 张成的信号子空间与ˉA 张成的信号子空间是相等的。span{US}=span{ˉA} (15) 此时,存在一个唯一的非奇异矩阵T,使得
US=ˉAT (16) 式(16)对两个子阵都成立,所以有
US=[US1US2]=[ATAΦT] (17) 根据式(17)可以得到
US2=US1T−1ΦT=US1Ψ (18) 由式(18)可以得到
Φ=T−1ΨT (19) 其中,
Ψ 特征值组成的对角阵为Φ ,矩阵T 的各列就是Ψ 的特征矢量。因此根据式(13)—式(19),逆向求解相关参数。步骤如下:
步骤1 根据式(11),求解
Ψ 。步骤2 根据式(19),求解T,
Ψ 的特征向量组合就是T。步骤3 根据式(17)求解A。
A=US1T−1 (20) 2.2 误差类型
极化干涉SAR系统误差可以分为极化失真和干涉误差两大类,下面分别进行梳理和建模。
2.2.1 极化失真模型
极化SAR系统的失真模型为
M=Kejϕ[1δ1δ2f1][SHHSVHSHVSVV][1δ3δ4f2]+N (21) 其中,
δ1 ,δ2 ,δ3 ,δ4 是极化串扰,f1 ,f2 表示幅相不平衡,这些系数均为复数,K是系统增益因子,ϕ 是系统相位。不考虑系统增益和相位这些一致量,式(21)可以简化写为
m=P″sP″=[1δ4δ1δ1δ4δ3f2δ1δ3δ1f2δ2δ2δ4f1δ4f1δ2δ3δ2f2δ3f1f1f2]} (22) 其中,
m=[mHHmHVmVHmVV]T ,s=[sHHsHVsVHsVV]T ,P″ 为失真矩阵。Pauli基下散射向量k可以表示为
k=1√2B′s (23) 其中,
k=1/√2[sHH+sHVVsHH−sVVsHV+sVHj(sHV−sVH)]T ,则在极化失真影响下,含误差的散射向量k′ 可以表示为k′=1√2B′m=1√2B′P″s=B′P″B′−1k=Zk (24) 其中,
Z=B′P″B′−1 是Pauli基下的极化失真矩阵。在互易介质情况下,根据互易定理将相干散射矢量简化为三维矢量,会有类似的表达式,此时Z可以表示为
Z=BPB−1 。其中:P=[1δ1+δ4δ1δ4δ2+δ32δ1δ3+δ2δ4+f1+f22δ1f2+δ4f12δ2δ3δ2f2+δ3f1f1f2],B=[10110−1020] (25) 2.2.2 干涉误差模型
干涉SAR系统误差主要包括系统延迟误差、基线长度误差、基线角误差和干涉相位误差。其中系统延迟误差是极化干涉SAR各个通道共有的误差,故此处不予考虑。
本文重点考虑能引起各个通道间不一致的误差量,即重点考虑基线长度误差、基线角误差和干涉相位误差,其中干涉相位误差包括了系统干涉通道引入的相位误差和运动补偿残余导致的干涉相位误差。因此,本节推导干涉相位、基线和基线角误差对反演高度的影响。
干涉SAR的观测几何如图1所示。
其中,H表示雷达高度,M和N为两个天线。P为目标点,h为目标点高度,
θ1 表示天线的视角,B为基线长度,α 为基线角,R1,R2 为M,N 与目标P的距离。配准后的干涉图像
s1 和s2 进行干涉可得到范围为[−π,π] 的缠绕相位为ϕω=arg(s1sH2) (26) 其中,
arg 表示取相位。通过相位解缠得到解缠后的干涉相位ϕ 如下:ϕ=−2πQλ(R1−R2) (27) 其中,雷达一发双收模式下
Q=1 ;如果雷达双发双收模式下Q=2 。根据图1的几何关系有sin(θ1−α)=R21−R22+B22R1B (28) 将式(27)代入式(28),可以得到:
θ1=α+arcsin(B2R1−λϕ2πQB−λ2ϕ28π2Q2R1B) (29) 当存在基线误差
ΔB 、基线角误差Δα 和干涉相位误差Δϕ 时,有θ′1=(α+Δα)+arcsin(B+ΔB2R1−λ(ϕ+Δϕ)2πQ(B+ΔB)−λ2(ϕ+Δϕ)28π2Q2R1(B+ΔB)) (30) 目标高度可以表示为
h=H−R1cosθ′1 (31) 基于以上公式,求解的目标高度对基线长度、基线角和干涉相位误差的敏感度为
∂h∂ϕ=λR1sinθ12πQBcos(θ1−α)∂h∂B=λϕR1sinθ12πQB2cos(θ1−α)∂h∂α=R1sinθ1} (32) 2.3 不同处理模式下的误差影响分析
基于上述极化失真和干涉误差的模型,本节进一步结合极化干涉SAR不同处理方法进行误差影响的理论分析。
2.3.1 基于极化最优相干的极化干涉误差影响
基于笔者前期工作[20],我们已得到极化失真和干涉相位误差两者共存下对基于极化最优相干的干涉相位影响。考虑极化失真与干涉相位误差后Pauli基下的失真矩阵为
Z′i=BEPB−1=exp(−jΔφei)×12×[1+δi2δi3+δi1δi4+fi1fi21+δi2δi3−δi1δi4−fi1fi2δi1+δi4+δi2fi2+δi3fi11−δi2δi3+δi1δi4−fi1fi21−δi2δi3−δi1δi4+fi1fi2δi1+δi4−δi2fi2−δi3fi1δi2+δi3+δi4fi1+δi1fi2δi2+δi3−δi4fi1−δi1fi2δi1δi3+δi2δi4+fi1+fi2],i=1,2 (33) 其中,
Δφe1,Δφe2 分别是两个干涉天线各自的相位误差,Z′1,Z′2 分别是两个干涉天线的极化失真矩阵。右上角的i表示第i个天线,例如δi1 表示第i个天线的δ1 ,fi1 表示第i个天线的f1 。E 矩阵意义详见文献[20]。基于式(2)、式(24)和式(33),可以推导得到极化最优相干下的干涉相位误差。给出极化失真和干涉相位误差对基于极化最优相干的干涉相位的影响公式,如式(34)所示。
Δϕj=−(Δφe1−Δφe2)−arg(vH1jZ′H2Z′1v2j),j=1,2,3 (34) 其中,
|v1j|=|v2j|=1 ,arg(vH1jv2j)=0 ,v1j 和v2j 表示极化最优相干的投影方向,具体意义参见文献[20]中的说明。本文进一步考虑极化失真和干涉基线、基线角、干涉相位误差共存时对高度的影响。对于极化最优相干后的干涉而言,高度的求解公式同式(29)—式(31),只是式中的
Δϕ 换成了Δϕj 。因此在极化最优相干处理模型下,高度误差对基线、基线角和干涉相位的敏感度同式(32),影响规律与干涉SAR误差影响规律相同,但由于极化失真带来了干涉相位误差的变化,故误差数值会存在差别,具体数值可基于式(29)—式(34)进行计算分析。2.3.2 基于Pauli分解的极化干涉误差影响
根据式(24)和式(33),对于Pauli分解后的散射矢量
k1 ,k2 ,其在极化失真矩阵作用的k′1 ,k′2 为k′i=exp(−jΔφei)×1√2×[siHH+(δi1+δi4+δi2fi2+δi3fi1)siHV+fi1fi2siVVsiHH+(δi1+δi4−δi2fi2−δi3fi1)siHV−fi1fi2siVV2(δi2+δi3)siHH+(fi1+fi2)siHV+(δi1fi2+δi4fi1)siVV],i=1,2 (35) 则每个散射机制对应的干涉相位为
ϕ′p1=arg{k′1(1)k′2(1)H}=−(Δφe1−Δφe2)+arg{[s1HH+(δ11+δ14+δ12f12+δ13f11)s1HV+f11f12s1VV] ×[s2HH+(δ21+δ24+δ22f22+δ23f21)s2HV+f21f22s2VV]H}ϕ′p2=−(Δφe1−Δφe2)+arg{[s1HH+(δ11+δ14−δ12f12−δ13f11)s1HV−f11f12s1VV]×[s2HH+(δ21+δ24−δ22f22−δ23f21)s2HV−f21f22s2VV]H}ϕ′p3=−(Δφe1−Δφe2)+arg{[2(δ12+δ13)s1HH+(f11+f12)s1HV+(δ11f12+δ14f11)s1VV]×[2(δ22+δ23)s2HH+(f21+f22)s2HV+(δ21f22+δ24f21)s2VV]H}} (36) 干涉相位误差为
Δϕ′p1=−(Δφe1−Δφe2)+arg{[s1HH+(δ11+δ14+δ12f12+δ13f11)s1HV+f11f12s1VV]×[s2HH+(δ21+δ24+δ22f22+δ23f21)s2HV+f21f22s2VV]H}−arg{[s1HH+s1VV][s2HH+s2VV]H}Δϕ′p2=−(Δφe1−Δφe2)+arg{[s1HH+(δ11+δ14−δ12f12−δ13f11)s1HV−f11f12s1VV]×[s2HH+(δ21+δ24−δ22f22−δ23f21)s2HV−f21f22s2VV]H}−arg{[s1HH−s1VV][s2HH−s2VV]H}Δϕ′p3=−(Δφe1−Δφe2)+arg{[2(δ12+δ13)s1HH+(f11+f12)s1HV+(δ11f12+δ14f11)s1VV]×[2(δ22+δ23)s2HH+(f21+f22)s2HV+(δ21f22+δ24f21)s2VV]H}−arg{[2s1HV][2s2HV]H}} (37) 可见每个极化分量的干涉相位误差除了
(Δφe1−Δφe2) 外,还受到了极化失真的影响,且影响关系在不同散射机制下不尽相同。此外,对于每个散射机制的高程求解公式同式(29)—式(31),只是式中的Δϕ 换成了Δϕpj,(j=1,2,3) 。基于Pauli分解的极化干涉处理可以得到不同散射机制的高度,因此我们还关心各种误差对不同极化散射机制间高度差的影响,其可有助于指导极化干涉SAR的应用。根据式(31),散射机制
p1 ,p2 的高度差Δh 为Δh=−R1(cosθ1p1−cosθ1p2) (38) 其中,
θ1p1,θ1p2 分别为两种散射机制的散射子对应于干涉主天线的视角。当存在极化失真和干涉误差时,高度差变为Δh′=−R1(cosθ′1p1−cosθ′1p2) (39) 故高度差的误差为
Δh′−Δh=λR1sinθ1p12πQBcos(θ1p1−α)Δϕ′p1−λR1sinθ1p22πQBcos(θ1p2−α)Δϕ′p2+λR12πQB2×(ϕp1sinθ1p1cos(θ1p1−α)−ϕp2sinθ1p2cos(θ1p2−α))ΔB+R1(sinθ1p1−sinθ1p2)Δα (40) 可见,如不同散射子本身的高度差较大,则视角差异较大,故对基线长度、基线角和干涉相位误差的敏感度较大,同时受到极化失真的影响;如果散射子自身的高度差异很小,则高度差的误差基本不受基线、基线角和干涉相位误差的影响,主要受到极化失真的影响。3.2.2节分析了散射子高度差异较大和较小的情况下,各种误差对Pauli分解的影响。
2.3.3 极化干涉观测矩阵直接求解高度的误差影响
3.1.3节用仿真分析了极化串扰对ESPRIT的影响,得到极化串扰对ESPRIT的影响很小的结论,因此此处忽略串扰下进行推导。
若忽略串扰,根据式(22),P可以简化为
P=[1000f1+f22000f1f2] (41) 对于式(7)的散射矢量X,记考虑误差后的散射矢量
X′ 为X′=[m1HHm1HVm1VVm2HHm2HVm2VV]T (42) 其与X的关系为
X′=P′X (43) 其中
P′=[exp(−jΔφe1)×P100exp(−jΔφe2)×P2],P1=[1000f11+f122000f11f12],P2=[1000f21+f222000f21f22] (44) 考虑误差后的相干矩阵为
R′=⟨X′×X′H⟩=⟨P′X′X′HP′H⟩=P′RP′H (45) 对相干矩阵
R′ 进行SVD分解:R′=E′ΛE′H=6∑m=1λmP′em(P′em)H (46) 将前d列向量写成一个新矩阵
E′S ,d≤3 。E′S=[√λ1P′e1,√λ2P′e2,⋯,√λdP′ed]=[exp(−jΔφe1)×P1×EXexp(−jΔφe2)×P2×EY]=[E′XE′Y] (47) 将矩阵
E′X 和E′Y 重新写为矩阵E′XY ,并进行SVD分解。E′HXYE′XY=[E′HXE′HY][E′XE′Y]=[EHXPH1P1EXej(Δφe2−Δφe1)EHXPH1P2EYej(Δφe1−Δφe2)EHYPH2P1EXEHYPH2P2EY]=[c11EHXEXc12EHXEYc21EHYEXc22EHYEY]=E′1ΛE′H1 (48) 因为矩阵
P1 和P2 是对角阵,所以可以将它们的乘积提出来,计算后作为系数,即c11,c12,c21,c22 。其中c11=1+(f11+f12)(f11+f12)H4+f11f12(f11f12)H,c12=ej(Δφe2−Δφe1)(1+(f11+f12)H(f21+f22)4+(f11f12)Hf21f22),c21=ej(Δφe1−Δφe2)(1+(f11+f12)(f21+f22)H4+f11f12(f21f22)H),c22=1+(f21+f22)(f21+f22)H4+f21f22(f21f22)H (49) 将矩阵
E′1 拆分为4个d×d 的子矩阵,并构造矩阵Ψ′ 。E′1=[c11E11c12E12c21E21c22E22]Ψ′=−c12c22E12E−122=c12c22Ψ} (50) Ψ′ 的特征值为λ″m ,每个散射子的干涉相位可以写为ϕ′m=arg(λ″m) (51) 得到分解的干涉相位,进而通过干涉SAR高度反演公式得到对应的高度。
若两个天线的极化误差一致,则
c12/c22=ej(Δφe2−Δφe1) ,即Ψ′=ej(Δφe1−Δφe2)Ψ ,干涉相位ϕ′m=ϕm+(Δφe2−Δφe1) 。当两个天线极化失真一致并忽略极化串扰时,极化失真对基于ESPRIT的极化干涉处理方法无影响,不会引入高程误差。3.1.3节对这一结论进行了验证。
由于本方法得到了不同散射机制的高度,可直接基于式(51)进一步分析不同散射机制间高度差受误差的影响。
3. 仿真验证与分析
3.1 模型正确性验证
为了检验本文提出的误差模型的正确性,本文采用仿真的方法对2.3节的模型进行验证。
本文仿真的系统参数采用实验室Ku波段无人机载极化干涉SAR的实际参数,该无人机采用双天线构型,参数已在表1列出。
表 1 系统仿真参数Table 1. Simulation parameters of system参数 数值 中心频率 15.2 GHz 飞行高度 205 m 斜距 889 m 基线 0.6 m 基线角 –1° 仿真区域示意图如图2所示,左边蓝色部分为地面,高度0 m,作为基准;右边绿色部分为具备一定高度的建筑混合区。混合区由Pauli分解的3种机制混合而成,包括单次散射,0°二面角的二次散射,45°二面角的二次散射,高度分别为20 m(模拟建筑屋顶高度)、0 m(模拟建筑与地面二面角散射高度)、10 m(模拟建筑区植被的体散射高度),3种机制的散射强度设置相同。
以单次散射为例,仿真的过程如式(52)所示。首先给定天线与目标的位置,通过斜距来计算目标的相位
ϕs 。给定其中一种散射机制的强度A1 与Pauli基的散射矩阵sg1 ,将其乘积作为4种极化方式(HH, HV, VH, VV)散射值的幅度,这样就可以得到单次散射的散射值sm1 。同理可以得到Pauli分解另两种散射机制的散射值sm2 和sm3 ,然后将同一分辨单元内3种散射机制的散射值相加,并加入一定信噪比的高斯白噪声N,最终得到每个像素的散射值sm ,其中,sm=sm1+sm2+sm3+N 。sm1=A1×sg1×e−jφs,sm1=[smHH1smHV1smVH1smVV1]T,sg1=[1001]T,ϕs=−2πQRsmλsm (52) 其中,
Rsm 为斜距,λsm 为波长,若系统一发双收,则Q=1 。以无误差、信噪比为30 dB的理想情况计算出的高度为真值,以存在极化失真和干涉误差、信噪比同为30 dB情况下计算出的高度减去上述真值为高度误差结果。
3.1.1 极化最优相干下的极化干涉误差模型验证
为了验证模型的正确性,本文采用两种方式加入极化误差与干涉误差。一种是在仿真数据中加入,另一种是通过2.3节的推导,按照误差的表达式加入误差,得到了高度误差与目标高度的关系。
由于误差因素众多,为了验证的全面性,现分别采用如下两组典型参数进行验证。
(1) 基线B误差2 mm,基线角
α 误差0.03°,幅度不平衡1 dB,信噪比30 dB,极化串扰为–30 dB。(2) 基线B误差1 mm,基线角
α 误差0.01°,幅度不平衡0.5 dB,信噪比30 dB,极化串扰为–30 dB。图3给出了上述两组参数极化最优相干下极化干涉得到的高度误差与干涉相位误差和极化通道相位不平衡两个主要因素的关系。
图3三维曲面为按照2.3.1节式(34)的误差模型得到的误差,红色散点表示在仿真数据上直接加入误差得到的结果。从图中可以看出两种方式得到的高度误差比较接近,两种方式得到的误差相差约0.5 m,说明了本文极化干涉误差模型的正确性。
3.1.2 Pauli分解下的极化干涉误差模型验证
通过仿真得到极化干涉数据,对这个数据进行Pauli分解,计算Pauli分解后3种散射机制的高度。将单次散射、0°二面角的二次散射、45°二面角的二次散射的高度分别记为
Hp1,Hp2,Hp3 。首先验证绝对高程误差模型,即由式(37)计算的高度,同3.1.1节第1组参数的仿真条件,得到误差对3种散射机制的影响如图4。
图4三维曲面为按照2.3.2节式(36),式(37)的误差模型得到的误差结果,红色散点表示在仿真数据上直接加入误差得到的结果。可见两者高度吻合,说明了本文误差模型的正确性。
进一步对不同散射机制高度差的误差模型式(40)进行验证,即给出
Hp1−Hp2 ,Hp1−Hp3 ,Hp3−Hp2 的验证结果如图5所示。同样,图5中三维曲面为按照2.3.2节中式(40)的误差模型得到的误差,红色散点表示在数据上直接加入误差。从图5可以看出两种方式得到的高度误差十分接近,说明了误差模型的正确性。
3.1.3 结合ESPRIT的极化相干误差模型验证
对于Pauli分解而言,即使一个区域内混合的散射机制数量小于3,其也是按照散射机制为3的方式处理。然而,基于ESPRIT分解的方法则与散射机制数量有关,混合的散射机制数量越多得到的分解结果越难以解释。为此,本小节将混合的散射机制变成两种,即表面单次散射(高度为20 m)和45°二面角散射(高度为10 m)。
下面首先给出两种散射机制的高度误差的验证结果,仿真条件如3.1.1节中参数(1),为了与误差模型一致,这部分不考虑串扰。
图6中三维曲面为按照2.3.3节中式(51)的误差模型得到的误差,红色散点表示在数据上直接加入误差的结果。图7给出了两种散射机制高度差的误差验证结果,从图7可以看出两种方式得到的高度误差比较接近,说明了误差模型的正确性。
2.3.3节推导了结合ESPRIT的极化干涉误差模型,推导的前提是忽略极化串扰的影响。此处仿真给出极化串扰对ESPRIT分解的两种散射机制的高度的影响,结果如图8所示。图8(a)是串扰对单次散射机制的影响,图8(b)是串扰对45°二面角二次散射的影响。从图中可以看出,极化串扰对ESPRIT很小,确实可以忽略。
由2.3.3节式(51)得出结论,当两个天线极化失真一致情况下,极化失真对基于ESPRIT的极化干涉的高度没有影响。本部分对这个结论进行验证,结果如图9所示。图9(a),图9(c)是极化失真对单次散射机制的影响,图9(b),图9(d)是极化失真对45°二面角二次散射的影响,可见对高度的影响均在毫米级,可以忽略。
3.2 误差影响程度分析
3.1节在验证模型正确性的同时,可以获得高度误差与干涉相位和极化相位不平衡的关系,但高度误差与其他误差因素的关系曲线并未给出。因此,在上述模型验证正确的基础上,下面进一步分析不同处理方法下不同误差的影响程度。
3.2.1 极化最优相干处理下误差影响结果
在极化最优相干处理下,极化失真、干涉误差及信噪比的影响分析结果分别如图10和图11所示。
从图10可以看出,在极化最优相干处理模型下,极化幅相不平衡对高度反演结果的影响较小,极化串扰在小于–20 dB的情况下,对极化干涉影响较小,但如果极化串扰较大,也会引起较大的高度误差。
从图11可以看出,相比于极化误差,极化最优相干处理模型下对干涉误差的敏感程度更高。基线长度、基线角和干涉相位误差对反演高度影响均较大。由图11可知,信噪比大于24 dB后,误差标准差小于0.5 m,误差的影响比较稳定。
3.2.2 Pauli分解处理下的误差影响结果
图12和图13给出Pauli分解处理下,极化失真和干涉误差对各散射机制间相对高度误差的影响结果。
从图12可以看出,极化幅度相不平衡和极化串扰对于Pauli分解下各散射机制的相对高度有非常大的影响,因此如要采用该方法分离不同散射机制并得到正确的高度,需首先保证数据的极化质量。
从图13可以看出,在本仿真的系统参数下,干涉误差中的基线长度对散射机制间高度差的结果影响较大,基线角和干涉相位误差则对结果影响较小。此外,信噪比大于26 dB,误差标准差小于0.5 m,误差的影响较为稳定。
由2.3.3节式(40)可知,散射子高度差异不同会导致误差影响的不同。为此,此处给出单次散射、0°二面角二次散射、45°二面角二次散射3种散射机制混合,对应高度分别为20 m, 18 m, 19 m情况下的极化失真、干涉误差和信噪比的影响。结果如图14和图15所示。
对比图12和图13可见,在基于Pauli分解的处理模型下,散射子高度差异较小时,极化误差与干涉误差造成的影响也明显减小。
3.2.3 ESPRIT分解处理下的误差影响结果
此处与3.1.3节一致,考虑两类散射机制混合的情况,分析两类散射机制高度差,即
Hi2−Hi1 ,受极化失真和干涉误差的影响程度。结果如图16和图17所示。从图16可以看出,极化幅相不平衡和串扰对结果的影响都很小。从图17可以看出,本文仿真条件下,基线长度误差对结果的影响较大,基线角误差对结果的影响较小,干涉相位误差对结果的影响较大。信噪比大于11 dB以后,误差标准差小于0.5 m,误差的影响变得稳定。
3.3 讨论
3.3.1 对Pauli分解与ESPRIT误差影响分析的比较
由3.1.2节和3.2.2节可知,Pauli分解处理模式下对极化误差影响非常敏感,而在基于ESPRIT分解的处理模式下,则对极化误差的影响不甚敏感。为了更好地对比分析和解释,此处进一步给出仿真结果,结果如图18和图19所示。仿真预设建筑区域由单次散射和45°二次散射混合而成,高度分别为20 m和10 m。
图18,图19分别给出了两种处理模型下极化误差和干涉误差对反演的散射机制高度差的影响。图中红线表示Pauli分解,蓝线表示ESPRIT分解。从图19可以看出,对于Pauli分解,信噪比大于26 dB以后,误差标准差小于0.5 m,误差的影响变得稳定。
由图18可见,极化串扰对基于Pauli分解方式的高度反演结果影响要比对基于ESPRIT分解方式的影响大很多。为了解释这种差异,我们以极化串扰为–20 dB为例,采用2.3.3节提出的方法,给出考虑误差前后分解得到的散射机制。同时预设Pauli分解和ESPRIT分解中单次散射和45°二次散射的强度分别为10 dB和30 dB。
基于ESPRIT分解得到的考虑误差前后主图像的散射矢量,结果如表2。
表 2 ESPRIT方法得到散射机制的结果Table 2. Scattering mechanisms obtained by ESPRIT极化方式 主图像 辅图像 含串扰的
主图像含串扰的
辅图像单次散射 –0.89
+0.11i–0.85
–0.25–0.54
+0.03i–0.45
–0.33i0°二次散射 0.02
–0.01i0.02
–0.01i0.02
+0.01i0.02
+0.01i45°二次散射 1 1 1 1 经过ESPRIT分解,得到的两个散射机制的干涉相位如表3。
表 3 ESPRIT方法得到的干涉相位Table 3. Interferometric phase obtained by ESPRIT极化方式 理想(°) 含串扰(°) 单次散射 58.90 58.41 45°二次散射 84.87 84.24 基于Pauli分解得到的考虑误差前后的散射矢量如表4。得到的干涉相位误差如表5所示。
表 4 Pauli分解得到散射机制的结果Table 4. Scattering mechanisms obtained by Pauli decomposition极化方式 主图像 辅图像 含串扰的主图像 含串扰的辅图像 单次散射 0.10 0.29 0.09+0.04i 0.28+0.04i 0°二次散射 0.002 0.001i –0.001i 0.003 45°二次散射 1 1 1 1 表 5 –20 dB串扰误差下两种分解的干涉相位误差Table 5. Interferometric phase error of two decompositions under –20 dB crosstalk极化方式 ESPRIT (°) Pauli (°) 单次散射 0.49 15.69 45°二次散射 0.63 –0.45 从表2—表5可知,基于ESPRIT分解的处理方式下,分解得到的散射机制强度与仿真预设值一致,其对应的干涉相位几乎不受串扰的影响。而在Pauli分解条件下,散射机制的干涉相位受到串扰影响较大。
这里需要说明本文仿真中按照式(5)预先给定的两个散射机制的强度
σ1 和σ2 相差较大,σ1=10dB ,σ2=30dB 。如果预先给定的两个散射机制的强度σ1 和σ2 相差不大,如σ1=20dB ,σ2=30dB 。这会导致ESPRIT分解得到散射机制的强度存在误差。也就是说表2中主图像的散射机制不是[101]T ,而是[0.501.0]T 。3.3.2 3类散射机制混合下的ESPRIT误差影响分析
前文对ESPRIT的分析都是考虑两类散射机制混合的情况,实际中一个分辨单元内散射体的个数常大于两个。因此,为了更贴合实际情况,我们给出一个分辨单元内存在3种散射机制的情况下,极化误差与干涉误差对ESPRIT的影响。
本文给定的散射机制包括单次散射,0°二面角的二次散射,45°二面角的二次散射,高度分别为20 m, 0 m和10 m。对应的仿真的高度为
He1 ,He2 ,He3 。在这种情况下,极化误差与干涉误差对ESPRIT的影响如图20和图21所示。
从图(20)中可知,极化误差对ESPRIT的影响很小,基线误差与干涉相位误差的影响较大。相较于两种散射机制混合的情况,3种散射机制混合情况下,极化误差与干涉的影响与两种散射机制混合情况基本一致,唯独信噪比的影响与两种散射机制混合情况不一致。可以看出,信噪比对不同机制间的高度差影响不一致。
4. 实际数据结果
第3节给出了误差影响的仿真结果,在这部分,本文补偿实际数据的极化误差与干涉误差,进而提高高程反演的精度。
本文采用的无人机载极化干涉SAR系统是由中国科学院空天信息创新研究院和中科宇达公司于2020年共同研制的,该系统如图22所示。系统中心频率15.2 GHz,工作于Ku波段,基线0.62 m,飞行高度206 m。
成像区域位于上海复旦大学校区周边,如图23所示。
真实高度是由倾斜摄影测量并通过与SAR图像配准得到的,真实高度如图24所示。
通过测量,我们得到发射通道的幅度不平衡–7.727 dB,相位不平衡–6.303°。接收通道幅度不平衡3.76 dB,相位不平衡–23.479°。极化串扰为–7.811 dB。通过未补偿误差前反演得到的高度与航迹,计算出了运动补偿残余导致的干涉相位误差。
分别根据式(34)、式(37)和式(51),我们给出了补偿极化失真与干涉误差后,基于极化最优相干、Pauli分解和ESPRIT分解的高度反演结果。高度反演的结果主要通过干涉算法得到,具体步骤已在笔者的文章[22]中列出。
补偿误差前后,极化最优相干的高度反演结果如图25所示。
根据真实高度,我们通过计算得到,补偿误差前极化最优相干在建筑区域的RMSE(均方根误差)为2.88 m,补偿误差后建筑区域的RMSE为2.77 m。
为了简化篇幅,本文只展示了补偿误差前后Pauli分解中单次散射的高度反演结果,如图26所示。
补偿误差前Pauli分解中单次散射、0°二面角的二次散射和45°二面角的二次散射的RMSE为3.16 m, 3.21 m和3.39 m。补偿误差后对应的RMSE为2.96 m, 2.90 m, 2.95 m。
对于ESPRIT,同一个分辨单元内有3种散射机制,将分离出的3个干涉相位中差值最大的两个作为屋顶相位和地面相位,并通过干涉反演高度。由于ESPRIT分解的过程比较耗时,本文只截取了SAR图像中右下角的一片密集建筑区,补偿误差前后ESPRIT的高度反演结果如图27所示。
补偿误差前ESPRIT分解的RMSE为2.92 m,补偿后RMSE为2.87 m。
从这3组结果可以看出,补偿极化误差与干涉误差后,高程反演精度都有了一定的提升。其中,Pauli分解的反演精度提升较大,ESPRIT的反演精度提升较小,ESPRIT算法反演得到的高度对误差不敏感且更加稳定。
5. 结语
本文建立了极化干涉、Pauli分解和极化干涉结合ESPRIT 3种情况下的误差模型,并通过仿真进行了验证。之后分析了极化误差、干涉误差和信噪比对于3种情况的影响。此外,为了求解ESPRIT除干涉相位以外的其他参数,本文给出了一种逆向求解相关参数的方法。本文在讨论部分还分析了同一像素点内有两种散射机制的情况,并与ESPRIT分解和存在3种散射机制的Pauli分解的结果做对比。最后,通过补偿极化误差与干涉误差,提升了高度反演精度。
本文的分析为Ku波段无人机系统提供了误差分析结果,提高了反演的精度并支撑了该系统的应用。
-
表 1 常见ATR识别性能指标
Table 1. Common ATR performance measures
形式 典型代表 使用要点 适用范围 优/缺点 表格 混淆矩阵 每行数据记录一类目标被正确识别或错误混淆的情况 任意m类目标的分类性能评价 优点:记录所有目标类型之间的相互区分结果
缺点:目标类型数m较大时展示效果不直观概率 检测概率PD
虚警概率PFA
种类识别概率PCC
类型识别概率PID逐级识别过程中特定事件的发生概率 目标识别过程中某个决策任务结果的不确定性度量 优点:内涵清晰,指标点估计值计算简单
缺点:需要根据多次目标识别试验进行统计推断曲线 ROC曲线
P-R曲线转换为AUC, AP采用下面积、曲线积分的形式度量 相互制约的两方面
性能综合刻画优点:综合评价阈值变化对两个相互制约指标的影响
缺点:需调整阈值进行量化,精度受阈值离散取值的影响 -
[1] BHANU B, DUDGEON D E, ZELNIO E G, et al. Guest editorial introduction to the special issue on automatic target detection and recognition[J]. IEEE Transactions on Image Processing, 1997, 6(1): 1–6. doi: 10.1109/TIP.1997.552076 [2] 胡卫东. 雷达目标识别技术的再认识[J]. 现代雷达, 2012, 34(8): 1–5. doi: 10.16592/j.cnki.1004-7859.2012.08.004HU Weidong. Restudy on the technique of radar target recognition[J]. Modern Radar, 2012, 34(8): 1–5. doi: 10.16592/j.cnki.1004-7859.2012.08.004 [3] 郁文贤. 自动目标识别的工程视角述评[J]. 雷达学报, 2022, 11(5): 737–752. doi: 10.12000/JR22178YU Wenxian. Automatic target recognition from an engineering perspective[J]. Journal of Radars, 2022, 11(5): 737–752. doi: 10.12000/JR22178 [4] 张天序. 成像自动目标识别[M]. 武汉: 湖北科学技术出版社, 2005.ZHANG Tianxu. Automated Recognition of Imaged Targets[M]. Wuhan: Hubei Science and Technology Press, 2005. [5] ROSS T D and MOSSING J C. The MSTAR evaluation methodology[C]. SPIE 3721, Algorithms for Synthetic Aperture Radar Imagery VI, Orlando, USA, 1999: 705–713. [6] ROSS T D. Confidence intervals for ATR performance metrics[C]. SPIE 4382, Algorithms for Synthetic Aperture Radar Imagery VIII, Orlando, USA, 2001: 318–329. [7] MOSSING J C and ROSS T D. Evaluation of SAR ATR algorithm performance sensitivity to MSTAR extended operating conditions[C]. SPIE 3370, Algorithms for Synthetic Aperture Radar Imagery V, Orlando, USA, 1998: 554–565. [8] ROSS T D and MINARDI M E. Discrimination and confidence error in detector-reported scores[C]. SPIE 5427, Algorithms for Synthetic Aperture Radar Imagery XI, Orlando, USA, 2004: 342–353. [9] ROSS T D, WESTERKAMP L A, ZELNIO E G, et al. Extensibility and other model-based ATR evaluation concepts[C]. SPIE 3070, Algorithms for Synthetic Aperture Radar Imagery IV, Orlando, USA, 1997: 554–565. [10] ROSS T D, BRADLEY J J, HUDSON L J, et al. SAR ATR: So what’s the problem? An MSTAR perspective[C]. SPIE 3721, Algorithms for Synthetic Aperture Radar Imagery VI, Orlando, USA, 1999: 662–672. [11] ROSS T D, WORRELL S W, VELTEN V J, et al. Standard SAR ATR evaluation experiments using the MSTAR public release data set[C]. SPIE 3370, Algorithms for Synthetic Aperture Radar Imagery V, Orlando, USA, 1998: 566–573. [12] 李彦鹏. 自动目标识别效果评估——基础、理论体系及相关研究[D]. [博士论文], 国防科学技术大学, 2004.LI Yanpeng. Performance evaluation in automatic target recognition—foundation, theoretic system and related research[D]. [Ph. D. dissertation], National University of Defense Technology, 2004. [13] LI Yanpeng, LI Xiang, WANG Hongqiang, et al. A compact methodology to understand, evaluate, and predict the performance of automatic target recognition[J]. Sensors, 2014, 14(7): 11308–11350. doi: 10.3390/s140711308 [14] LI Yanpeng, SHU Shaoxian, and HE Meisheng. Fuzzy run theory and its application in performance evaluation of automatic target recognition[C]. The 9th International Symposium on Next Generation Electronics, Changsha, China, 2021. [15] KECHAGIAS-STAMATIS O and AOUF N. Evaluating 3D local descriptors for future LIDAR missiles with automatic target recognition capabilities[J]. The Imaging Science Journal, 2017, 65(7): 428–437. doi: 10.1080/13682199.2017.1361665 [16] SHARMA S, GUPTA S, GUPTA D, et al. Performance evaluation of the deep learning based convolutional neural network approach for the recognition of chest X-ray images[J]. Frontiers in Oncology, 2022, 12: 932496. doi: 10.3389/fonc.2022.932496 [17] GUO Ming, LI Biao, SHAO Zhaoqun, et al. Objective image fusion evaluation method for target recognition based on target quality factor[J]. Multimedia Systems, 2022, 28(2): 495–510. doi: 10.1007/s00530-021-00850-1 [18] 齐振, 程广涛, 张友奎, 等. 基于信息熵的水声目标识别模型评估方法[J]. 舰船科学技术, 2021, 43(6): 134–137. doi: 10.3404/j.issn.1672-7649.2021.06.025QI Zhen, CHENG Guangtao, ZHANG Youkui, et al. Researching on evaluation method of acoustic target recognition models based on information entropy[J]. Ship Science and Technology, 2021, 43(6): 134–137. doi: 10.3404/j.issn.1672-7649.2021.06.025 [19] 贺文涛, 黄学宇. 工程应用中的目标识别方法评估研究[J]. 工业控制计算机, 2020, 33(11): 78–79, 83. doi: 10.3969/j.issn.1001-182X.2020.11.031HE Wentao and HUANG Xueyu. Research on evaluation of target recognition method in engineering application[J]. Industrial Control Computer, 2020, 33(11): 78–79, 83. doi: 10.3969/j.issn.1001-182X.2020.11.031 [20] 周颖, 张兴敢, 王琼. 雷达目标识别算法性能优化与评估系统[J]. 南京大学学报:自然科学, 2017, 53(6): 1187–1193. doi: 10.13232/j.cnki.jnju.2017.06.021ZHOU Ying, ZHANG Xinggan, and WANG Qiong. Performance optimization and evaluation system for radar target recognition algorithm[J]. Journal of Nanjing University:Natural Science, 2017, 53(6): 1187–1193. doi: 10.13232/j.cnki.jnju.2017.06.021 [21] 何峻, 肖立, 刘峥, 等. ATR系统评价中的因素作用测算方法及应用[J]. 运筹与管理, 2010, 19(2): 56–62. doi: 10.3969/j.issn.1007-3221.2010.02.010HE Jun, XIAO Li, LIU Zheng, et al. A factor effect measuring method and its application in ATR system evaluation[J]. Operations Research and Management Science, 2010, 19(2): 56–62. doi: 10.3969/j.issn.1007-3221.2010.02.010 [22] 刘红娅, 贾鑫. 基于目标跟踪识别的ISAR干扰效果评估[J]. 运筹与管理, 2010, 19(6): 165–170. doi: 10.3969/j.issn.1007-3221.2010.06.026LIU Hongya and JIA Xin. Assessment of ISAR jamming effectiveness based on target tracking and recognizing[J]. Operations Research and Management Science, 2010, 19(6): 165–170. doi: 10.3969/j.issn.1007-3221.2010.06.026 [23] 庄钊文, 黎湘, 李彦鹏, 等. 自动目标识别效果评估技术[M]. 北京: 国防工业出版社, 2006.ZHUANG Zhaowen, LI Xiang, LI Yanpeng, et al. Performance Evaluation Technology for Automatic Target Recognition[M]. Beijing: National Defense Industry Press, 2006. [24] 刘伟. 自动目标识别系统效能评估方法研究[D]. [硕士论文], 国防科学技术大学, 2007.LIU Wei. Research on performance evaluation methods of automatic target recognition system[D]. [Master dissertation], National University of Defense Technology, 2007. [25] 何峻. 自动目标识别评估方法研究[D]. [博士论文], 国防科学技术大学, 2009.HE Jun. Research on automatic target recognition evaluation method[D]. [Ph. D. dissertation], National University of Defense Technology, 2009. [26] 秦富童. 遥感图像目标识别效果评估研究[D]. [硕士论文], 中国科学技术大学, 2010.QIN Futong. Research on performance evaluation for target recognition on remote image[D]. [Master dissertation], University of Science and Technology of China, 2010. [27] 付强, 何峻. 自动目标识别评估方法及应用[M]. 北京: 科学出版社, 2013.FU Qiang and HE Jun. Automatic Target Recognition Evaluation Method and Its Application[M]. Beijing: Science Press, 2013. [28] 吕金建, 丁建江, 阮崇籍, 等. 自动目标识别(ATR)算法评估研究综述[J]. 电光与控制, 2011, 18(9): 48–52, 77. doi: 10.3969/j.issn.1671-637X.2011.09.011LÜ Jinjian, DING Jianjiang, RUAN Chongji, et al. Study on ATR algorithm evaluation: A survey[J]. Electronics Optics&Control, 2011, 18(9): 48–52, 77. doi: 10.3969/j.issn.1671-637X.2011.09.011 [29] NEBABIN V G. Methods and Techniques of Radar Recognition[M]. Boston: Artech House, 1994. [30] DIEMUNSCH J R and WISSINGER J. Moving and stationary target acquisition and recognition (MSTAR) model-based automatic target recognition: Search technology for a robust ATR[C]. SPIE 3370, Algorithms for Synthetic Aperture Radar Imagery V, Orlando, USA, 1998: 481–492. [31] WISSINGER J, WASHBURN R B, FRIEDLAND N S, et al. Search algorithms for model-based SAR ATR[C]. SPIE 2757, Algorithms for Synthetic Aperture Radar Imagery III, Orlando, USA, 1996: 279–93. [32] GILMORE J F. Knowledge-based target recognition system evolution[J]. Optical Engineering, 1991, 30(5): 557–570. doi: 10.1117/12.55829 [33] 邓志鸿, 唐世渭, 张铭, 等. Ontology研究综述[J]. 北京大学学报:自然科学版, 2002, 38(5): 730–738. doi: 10.3321/j.issn:0479-8023.2002.05.022DENG Zhihong, TANG Shiwei, ZHANG Ming, et al. Overview of Ontology[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2002, 38(5): 730–738. doi: 10.3321/j.issn:0479-8023.2002.05.022 [34] KEIM D A. Information visualization and visual data mining[J]. IEEE Transactions on Visualization and Computer Graphics, 2002, 8(1): 1–8. doi: 10.1109/2945.981847 [35] STEINBERG A N. Context-sensitive data fusion using structural equation modeling[C]. The 12th International Conference on Information Fusion, Seattle, USA, 2009: 725–731. [36] ERNISSE B E, ROGERS S K, DESIMIO M P, et al. Complete automatic target cuer/recognition system for tactical forward-looking infrared images[J]. Optical Engineering, 1997, 36(9): 2593–2603. doi: 10.1117/1.601484 [37] INGGS M R and ROBINSON A D. Ship target recognition using low resolution radar and neural networks[J]. IEEE Transactions on Aerospace and Electronic Systems, 1999, 35(2): 386–393. doi: 10.1109/7.766923 [38] NING Wu, CHEN Wugun, and ZHANG Xinggan. Automatic target recognition of ISAR object images based on neural network[C]. International Conference on Neural Networks and Signal Processing, Nanjing, China, 2003: 373–376. [39] AVCI E and COTELI R. A new automatic target recognition system based on wavelet extreme learning machine[J]. Expert Systems with Applications, 2012, 39(16): 12340–12348. doi: 10.1016/j.eswa.2012.04.012 [40] DONG Shi, WANG Ping, and ABBAS K. A survey on deep learning and its applications[J]. Computer Science Review, 2021, 40: 100379. doi: 10.1016/j.cosrev.2021.100379 [41] DARGAN S, KUMAR M, AYYAGARI M R, et al. A survey of deep learning and its applications: A new paradigm to machine learning[J]. Archives of Computational Methods in Engineering, 2020, 27(4): 1071–1092. doi: 10.1007/s11831-019-09344-w [42] ZHAI Yikui, DENG Wenbo, XU Ying, et al. Robust SAR automatic target recognition based on transferred MS-CNN with L2-regularization[J]. Computational Intelligence and Neuroscience, 2019, 2019: 9140167. doi: 10.1155/2019/9140167 [43] KRIZHEVSKY A, SUTSKEVER I, and HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84–90. doi: 10.1145/3065386 [44] ZHU Xiaoxiang, MONTAZERI S, ALI M, et al. Deep learning meets SAR: Concepts, models, pitfalls, and perspectives[J]. IEEE Geoscience and Remote Sensing Magazine, 2021, 9(4): 143–172. doi: 10.1109/MGRS.2020.3046356 [45] NEUPANE D and SEOK J. A review on deep learning-based approaches for automatic sonar target recognition[J]. Electronics, 2020, 9(11): 1972. doi: 10.3390/electronics9111972 [46] 田壮壮, 占荣辉, 胡杰民, 等. 基于卷积神经网络的SAR图像目标识别研究[J]. 雷达学报, 2016, 5(3): 320–325. doi: 10.12000/JR16037TIAN Zhuangzhuang, ZHAN Ronghui, HU Jiemin, et al. SAR ATR based on convolutional neural network[J]. Journal of Radars, 2016, 5(3): 320–325. doi: 10.12000/JR16037 [47] POUYANFAR S, SADIQ S, YAN Yilin, et al. A survey on deep learning: Algorithms, techniques, and applications[J]. ACM Computing Surveys, 2019, 51(5): 92. doi: 10.1145/3234150 [48] 王容川, 庄志洪, 王宏波, 等. 基于卷积神经网络的雷达目标HRRP分类识别方法[J]. 现代雷达, 2019, 41(5): 33–38. doi: 10.16592/j.cnki.1004-7859.2019.05.007WANG Rongchuan, ZHUANG Zhihong, WANG Hongbo, et al. HRRP classification and recognition method of radar target based on convolutional neural network[J]. Modern Radar, 2019, 41(5): 33–38. doi: 10.16592/j.cnki.1004-7859.2019.05.007 [49] PAN Mian, LIU Ailin, YU Yanzhen, et al. Radar HRRP target recognition model based on a stacked CNN-Bi-RNN with attention mechanism[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5100814. doi: 10.1109/TGRS.2021.3055061 [50] 贺丰收, 何友, 刘准钆, 等. 卷积神经网络在雷达自动目标识别中的研究进展[J]. 电子与信息学报, 2020, 42(1): 119–131. doi: 10.11999/JEIT180899HE Fengshou, HE You, LIU Zhunga, et al. Research and development on applications of convolutional neural networks of radar automatic target recognition[J]. Journal of Electronics&Information Technology, 2020, 42(1): 119–131. doi: 10.11999/JEIT180899 [51] DING Baiyuan, WEN Gongjian, MA Conghui, et al. An efficient and robust framework for SAR target recognition by hierarchically fusing global and local features[J]. IEEE Transactions on Image Processing, 2018, 27(12): 5983–5995. doi: 10.1109/TIP.2018.2863046 [52] ZHANG Jinsong, XING Mengdao, and XIE Yiyuan. FEC: A feature fusion framework for SAR target recognition based on electromagnetic scattering features and deep CNN features[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(3): 2174–2187. doi: 10.1109/TGRS.2020.3003264 [53] LI Yi, DU Lan, and WEI Di. Multiscale CNN based on component analysis for SAR ATR[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5211212. doi: 10.1109/TGRS.2021.3100137 [54] FENG Sijia, JI Kefeng, ZHANG Linbin, et al. SAR target classification based on integration of ASC parts model and deep learning algorithm[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 10213–10225. doi: 10.1109/JSTARS.2021.3116979 [55] 喻玲娟, 王亚东, 谢晓春, 等. 基于FCNN和ICAE的SAR图像目标识别方法[J]. 雷达学报, 2018, 7(5): 622–631. doi: 10.12000/JR18066YU Lingjuan, WANG Yadong, XIE Xiaochun, et al. SAR ATR based on FCNN and ICAE[J]. Journal of Radars, 2018, 7(5): 622–631. doi: 10.12000/JR18066 [56] FANG Houzhang, XIA Mingjiang, ZHOU Gang, et al. Infrared small UAV target detection based on residual image prediction via global and local dilated residual networks[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 7002305. doi: 10.1109/LGRS.2021.3085495 [57] LI Boyang, XIAO Chao, WANG Longguang, et al. Dense nested attention network for infrared small target detection[J]. IEEE Transactions on Image Processing, 2023, 32: 1745–1758. doi: 10.1109/TIP.2022.3199107 [58] DU Jinming, LU Huanzhang, HU Moufa, et al. CNN-based infrared dim small target detection algorithm using target-oriented shallow-deep features and effective small anchor[J]. IET Image Processing, 2021, 15(1): 1–15. doi: 10.1049/ipr2.12001 [59] LI Rui, WANG Xiaodan, WANG Jian, et al. SAR target recognition based on efficient fully convolutional attention block CNN[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4005905. doi: 10.1109/LGRS.2020.3037256 [60] GOEL A, AGARWAL A, VATSA M, et al. DNDNet: Reconfiguring CNN for adversarial robustness[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, Seattle, USA, 2020: 103–110. [61] HUANG Teng, ZHANG Qixiang, LIU Jiabao, et al. Adversarial attacks on deep-learning-based SAR image target recognition[J]. Journal of Network and Computer Applications, 2020, 162: 102632. doi: 10.1016/j.jnca.2020.102632 [62] ZHANG Qinghao. Improvement of online game anti-cheat system based on deep Learning[C]. The 2nd International Conference on Information Science and Education, Chongqing, China, 2021: 652–655. [63] HUANG Zhongling, PAN Zongxu, and LEI Bin. Transfer learning with deep convolutional neural network for SAR target classification with limited labeled data[J]. Remote Sensing, 2017, 9(9): 907. doi: 10.3390/rs9090907 [64] MALMGREN-HANSEN D, KUSK A, DALL J, et al. Improving SAR automatic target recognition models with transfer learning from simulated data[J].IEEE Geoscience and Remote Sensing Letters, 2017, 14(9): 1484–1488. doi: 10.1109/LGRS.2017.2717486 [65] ZHAO Siyuan, ZHANG Zenghui, ZHANG Tao, et al. Transferable SAR image classification crossing different satellites under open set condition[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4506005. doi: 10.1109/LGRS.2022.3159179 [66] ZHAO Siyuan, ZHANG Zenghui, GUO Weiwei, et al. An automatic ship detection method adapting to different satellites SAR images with feature alignment and compensation loss[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5225217. doi: 10.1109/TGRS.2022.3160727 [67] 郭炜炜, 张增辉, 郁文贤, 等. SAR图像目标识别的可解释性问题探讨[J]. 雷达学报, 2020, 9(3): 462–476. doi: 10.12000/JR20059GUO Weiwei, ZHANG Zenghui, YU Wenxian, et al. Perspective on explainable SAR target recognition[J]. Journal of Radars, 2020, 9(3): 462–476. doi: 10.12000/JR20059 [68] 柯有安. 雷达目标识别(上)[J]. 国外电子技术, 1978(4): 22–30.KE Youan. Radar target recognition[J]. Foreign Electronic Technique, 1978(4): 22–30. [69] 郁文贤, 郭桂蓉. ATR的研究现状和发展趋势[J]. 系统工程与电子技术, 1994(6): 25–32.YU Wenxian and GUO Guirong. The state of the arts of automatic target recognition[J]. Systems Engineering and Electronics, 1994(6): 25–32. [70] 郁文贤. 智能化识别方法及其在舰船雷达目标识别系统中的应用[D]. [博士论文], 国防科学技术大学, 1992.YU Wenxian. Intelligent recognition method and its application in ship radar target recognition system[D]. [Ph. D. dissertation], National University of Defense Technology, 1992. [71] MOHD M A. Performance characterization and sensitivity analysis of ATR algorithms to scene distortions[C]. SPIE 1957, Architecture, Hardware, and Forward-Looking Infrared Issues in Automatic Target Recognition, Orlando, USA, 1993: 203–214. [72] GU Yuehan, TAO Jiahui, FENG Lipeng, et al. Using VGG16 to military target classification on MSTAR dataset[C]. The 2nd China International SAR Symposium, Shanghai, China, 2021: 1–3. [73] BASSHAM C B. Automatic target recognition classification system evaluation methodology[D]. [Ph. D. dissertation], Air Force Institute of Technology, 2002. [74] ALEMAYEHU D and ZOU K H. Applications of ROC analysis in medical research: Recent developments and future directions[J]. Academic Radiology, 2012, 19(12): 1457–1464. doi: 10.1016/j.acra.2012.09.006 [75] KAMARUDIN A N, COX T, and KOLAMUNNAGE-DONA R. Time-dependent ROC curve analysis in medical research: Current methods and applications[J]. BMC Medical Research Methodology, 2017, 17(1): 53. doi: 10.1186/s12874-017-0332-6 [76] 孙长亮. 基于ROC曲线的ATR算法性能评估方法研究[D]. [硕士论文], 国防科学技术大学, 2006.SUN Changliang. Study of ATR algorithm performance evaluation method based on ROC curve[D]. [Master dissertation], National University of Defense Technology, 2006. [77] LIU Li, OUYANG Wanli, WANG Xiaogang, et al. Deep learning for generic object detection: A survey[J]. International Journal of Computer Vision, 2020, 128(2): 261–318. doi: 10.1007/s11263-019-01247-4 [78] RUSSAKOVSKY O, DENG Jia, SU Hao, et al. ImageNet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115(3): 211–252. doi: 10.1007/s11263-015-0816-y [79] HOIEM D, CHODPATHUMWAN Y, and DAI Qieyun. Diagnosing error in object detectors[C]. The 12th European Conference on Computer Vision, Florence, Italy, 2012: 340–353. [80] KEYDEL E R, LEE S W, and MOORE J T. MSTAR extended operating conditions: A tutorial[C]. SPIE 2757, Algorithms for Synthetic Aperture Radar Imagery III, Orlando, USA, 1996: 228–242. [81] BLASCH E, MAJUMDER U, ZELNIO E, et al. Review of recent advances in AI/ML using the MSTAR data[C]. SPIE 11393, Algorithms for Synthetic Aperture Radar Imagery XXVII, 2020. [82] 赵高丽, 宋军平. 联合多特征的MSTAR数据集SAR目标识别方法[J]. 武汉大学学报:工学版, 2022, 55(7): 732–739. doi: 10.14188/j.1671-8844.2022-07-012ZHAO Gaoli and SONG Junping. SAR target recognition of MSTAR dataset based on joint use of multiple features[J]. Engineering Journal of Wuhan University, 2022, 55(7): 732–739. doi: 10.14188/j.1671-8844.2022-07-012 [83] ROSS T D, BRADLEY J, and O’CONNER M. MSTAR data handbook for experiment planning[R]. AFB, OH: AFRL/SNA with Sverdrup Technology, 1997. [84] KECHAGIAS-STAMATIS O and AOUF N. Automatic target recognition on synthetic aperture radar imagery: A survey[J]. IEEE Aerospace and Electronic Systems Magazine, 2021, 36(3): 56–81. doi: 10.1109/MAES.2021.3049857 [85] EVERINGHAM M, VAN GOOL L, WILLIAMS C K I, et al. The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303–338. doi: 10.1007/s11263-009-0275-4 [86] EVERINGHAM M, ESLAMI S M A, VAN GOOL L, et al. The pascal visual object classes challenge: A retrospective[J]. International Journal of Computer Vision, 2015, 111(1): 98–136. doi: 10.1007/s11263-014-0733-5 [87] DENG Jia, DONG Wei, SOCHER R, et al. ImageNet: A large-scale hierarchical image database[C]. IEEE Conference on Computer Vision and Pattern Recognition, Miami, USA, 2009: 248–255. [88] LIN T Y, MAIRE M, BELONGIE S, et al. Microsoft COCO: Common objects in context[C]. European Conference on Computer Vision, Zurich, Switzerland, 2014: 740–755. [89] KUZNETSOVA A, ROM H, ALLDRIN N, et al. The open images dataset V4: Unified image classification, object detection, and visual relationship detection at scale[J]. International Journal of Computer Vision, 2020, 128(7): 1956–1981. doi: 10.1007/s11263-020-01316-z [90] GUYON I, MAKHOUL J, SCHWARTZ R, et al. What size test set gives good error rate estimates?[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(1): 52–64. doi: 10.1109/34.655649 [91] HE Jun and FU Qiang. Posterior probability calculation procedure for recognition rate comparison[J]. Journal of Systems Engineering and Electronics, 2016, 27(3): 700–711. doi: 10.1109/JSEE.2016.00073 [92] VO T M. An 8.25b-ENOB 100kSps 290fJ-FoM asynchronous SAR capacitance to digital converter[J]. AEU - International Journal of Electronics and Communications, 2022, 153: 154286. doi: 10.1016/j.aeue.2022.154286 [93] KLIMACK W K, BASSHAM C B, and BAUER K W JR. Application of decision analysis to automatic target recognition programmatic decisions[R]. AFIT/EN-TR-02-06, 2002. [94] KLIMACK C B. Hybrid value-utility decision analysis[R]. Operations Research Center of Excellence Technical Report DSE-TR-02-02, 2002. [95] KLIMACK W K. Robustness of multiple objective decision analysis preference functions[D]. [Ph. D. dissertation], Air Force Institute of Technology, 2002. [96] 仇国芳. 评估决策的信息集结理论与方法研究[D]. [博士论文], 西安交通大学, 2003.QIU Guofang. A theoretical and methodological study on information aggregation in assessment processes[D]. [Ph. D. dissertation], Xi’an Jiaotong University, 2003. [97] 何峻, 赵宏钟, 付强. 基于偏好矩阵的混合型多属性决策方法[J]. 系统工程与电子技术, 2009, 31(6): 1386–1390. doi: 10.3321/j.issn:1001-506X.2009.06.028HE Jun, ZHAO Hongzhong, and FU Qiang. Method for solving hybrid multiple attribute decision making problems based on preference matrix[J].Systems Engineering and Electronics, 2009, 31(6): 1386–1390. doi: 10.3321/j.issn:1001-506X.2009.06.028 [98] HE Jun, FU Ruigang, and WANG Guoyan. Prospect value function construction for pattern recognition algorithm’s accuracy metric[C]. 2022 China Automation Congress, Xiamen, China, 2022: 1409–1413. [99] 化盈盈, 张岱墀, 葛仕明. 深度学习模型可解释性的研究进展[J]. 信息安全学报, 2020, 5(3): 1–12. doi: 10.19363/J.cnki.cn10-1380/tn.2020.05.01HUA Yingying, ZHANG Daichi, and GE Shiming. Research progress in the interpretability of deep learning models[J]. Journal of Cyber Security, 2020, 5(3): 1–12. doi: 10.19363/J.cnki.cn10-1380/tn.2020.05.01 [100] 雷霞, 罗雄麟. 深度学习可解释性研究综述[J]. 计算机应用, 2022, 42(11): 3588–3602. doi: 10.11772/j.issn.1001-9081.2021122118LEI Xia and LUO Xionglin. Review on interpretability of deep learning[J]. Journal of Computer Applications, 2022, 42(11): 3588–3602. doi: 10.11772/j.issn.1001-9081.2021122118 [101] RIBEIRO M T, SINGH S, and GUESTRIN C. “Why should I trust you?”: Explaining the predictions of any classifier[C]. The 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, San Francisco, USA, 2016: 1135–1144. [102] SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: Visual explanations from deep networks via gradient-based localization[J]. International Journal of Computer Vision, 2020, 128(2): 336–359. doi: 10.1007/s11263-019-01228-7 [103] 杜兰, 陈晓阳, 石钰, 等. MMRGait-1.0: 多视角多穿着条件下的雷达时频谱图步态识别数据集[J]. 雷达学报, 2023, 12(4): 892–905. doi: 10.12000/JR22227.DU Lan, CHEN Xiaoyang, SHI Yu, et al. MMRGait-1.0: A radar time-frequency spectrogram dataset for gait recognition under multi-view and multi-wearing conditions[J]. Journal of Radars, 2023, 12(4): 892–905. doi: 10.12000/JR22227. [104] 陈杰, 黄志祥, 夏润繁, 等. 大规模多类SAR目标检测数据集-1.0[J/OL]. 雷达学报, https://radars.ac.cn/web/data/getData?dataType=MSAR, 2022.CHEN Jie, HUANG Zhixiang, XIA Runfan, et al. Large-scale multi-class SAR image target detection dataset-1.0[J/OL]. Journal of Radars, https://radars.ac.cn/web/data/getData?dataType=MSAR, 2022. [105] XIA Runfan, CHEN Jie, HUANG Zhixiang, et al. CRTransSar: A visual transformer based on contextual joint representation learning for SAR ship detection[J]. Remote Sensing, 2022, 14(6): 1488. doi: 10.3390/rs14061488 [106] 回丙伟, 宋志勇, 范红旗, 等. 地/空背景下红外图像弱小飞机目标检测跟踪数据集[J]. 中国科学数据, 2020, 5(3): 286–297. doi: 10.11922/csdata.2019.0074.zhHUI Bingwei, SONG Zhiyong, FAN Hongqi, et al. A dataset for infrared detection and tracking of dim-small aircraft targets under ground/air background[J]. China Scientific Data, 2020, 5(3): 286–297. doi: 10.11922/csdata.2019.0074.zh [107] 傅瑞罡, 范红旗, 朱永锋, 等. 面向空地应用的红外时敏目标检测跟踪数据集[J]. 中国科学数据, 2022, 7(2): 206–221. doi: 10.11922/11-6035.csd.2021.0085.zhFU Ruigang, FAN Hongqi, ZHU Yongfeng, et al. A dataset for infrared time-sensitive target detection and tracking for air-ground application[J]. China Scientific Data, 2022, 7(2): 206–221. doi: 10.11922/11-6035.csd.2021.0085.zh [108] 李安然. 面向特定任务的大规模数据集质量高效评估[D]. [博士论文], 中国科学技术大学, 2021.LI Anran. Efficient task-oriented quality assessment for large-scale datasets[D]. [Ph. D. dissertation], University of Science and Technology of China, 2021. [109] SEIDEL H, STAHL C, BJERKELI F, et al. Assessment of COTS IR image simulation tools for ATR development[C]. SPIE 5807, Automatic Target Recognition XV, 2005, Orlando, USA, 2005: 44–54. [110] AHMADIBENI A, JONES B, BOROOSHAK L, et al. Automatic target recognition of aerial vehicles based on synthetic SAR imagery using hybrid stacked denoising auto-encoders[C]. SPIE 11393, Algorithms for Synthetic Aperture Radar Imagery XXVII, 2020: 71–82. [111] WESTLAKE S T, VOLONAKIS T N, JACKMAN J, et al. Deep learning for automatic target recognition with real and synthetic infrared maritime imagery[C]. SPIE 11543, Artificial Intelligence and Machine Learning in Defense Applications II, 2020, Edingburgh, UN. [112] LI Xuesong, LUO Zijuan, YANG Qirui, et al. Airborne infrared imaging simulation for target recognition[J]. IEEE Journal of Radio Frequency Identification, 2022, 6: 846–850. doi: 10.1109/JRFID.2022.3210387 [113] DIVSALAR M, AHMADI M, and NEMATI Y. A SCOR-based model to evaluate LARG supply chain performance using a hybrid MADM method[J]. IEEE Transactions on Engineering Management, 2022, 69(4): 1101–1120. doi: 10.1109/TEM.2020.2974030 [114] PENA J, NÁPOLES G, and SALGUEIRO Y. Implicit and hybrid methods for attribute weighting in multi-attribute decision-making: A review study[J]. Artificial Intelligence Review, 2021, 54(5): 3817–3847. doi: 10.1007/s10462-020-09941-3 [115] SONG Jiekun, HE Zeguo, JIANG Lina, et al. Research on hybrid multi-attribute three-way group decision making based on improved VIKOR model[J]. Mathematics, 2022, 10(15): 2783. doi: 10.3390/math10152783 [116] 张兴贤, 王应明. 一种基于区间信度结构的混合型多属性决策方法[J]. 控制与决策, 2019, 34(1): 180–188. doi: 10.13195/j.kzyjc.2017.1007ZHANG Xingxian and WANG Yingming. A hybrid multi-attribute decision-making method based on interval belief structure[J]. Control and Decision, 2019, 34(1): 180–188. doi: 10.13195/j.kzyjc.2017.1007 [117] LIU Sen, YU Wei, CHAN F T S, et al. A variable weight-based hybrid approach for multi-attribute group decision making under interval-valued intuitionistic fuzzy sets[J]. International Journal of Intelligent Systems, 2021, 36(2): 1015–1052. doi: 10.1002/int.22329 [118] 江文奇, 降晓璐. 面向属性关联的区间犹豫模糊型PROMETHEE决策方法[J]. 系统工程与电子技术, 2021, 43(11): 3250–3258. doi: 10.12305/j.issn.1001-506X.2021.11.25JIANG Wenqi and JIANG Xiaolu. Interval hesitant fuzzy PROMETHEE decision method for attribute association[J]. Systems Engineering and Electronics, 2021, 43(11): 3250–3258. doi: 10.12305/j.issn.1001-506X.2021.11.25 [119] 罗承昆, 陈云翔, 顾天一, 等. 基于前景理论和证据推理的混合型多属性决策方法[J]. 国防科技大学学报, 2019, 41(5): 49–55. doi: 10.11887/j.cn.201905008LUO Chengkun, CHEN Yunxiang, GU Tianyi, et al. Method for hybrid multi-attribute decision making based on prospect theory and evidential reasoning[J]. Journal of National University of Defense Technology, 2019, 41(5): 49–55. doi: 10.11887/j.cn.201905008 [120] 李明. 不确定多属性决策及其在管理中的应用[M]. 北京: 经济管理出版社, 2021.LI Ming. Uncertain Multiple Attribute Decision Making and Its Application in Management[M]. Beijing: Economic Management Press, 2021. [121] 卜凡康. 制导装置性能评价方法及其应用研究[D]. [硕士论文], 国防科技大学, 2020.BU Fankang. Research on performance evaluation method and its application of guidance device[D]. [Master dissertation], National University of Defense Technology, 2020. 期刊类型引用(1)
1. 徐慧智,常梦莹,陈祎楠,郝东升. 目标检测下的车型对交通流速度影响研究. 计算机工程与应用. 2024(24): 314-321 . 百度学术
其他类型引用(0)
-