Multi-polarization Data Fusion Analysis of Full-Polarimetric Ground Penetrating Radar
-
摘要: 对于相同地下目标体,相比大部分传统单极化探地雷达,全极化探地雷达(FP-GPR)可以测得更全面的极化数据,称为VV, HH, VH。为了对地下目标体进行更全面精细的成像和识别, 数据融合技术被应用于FP-GPR将3种不同极化模式的极化信息结合起来。然而,目前全极化探地雷达数据融合常用的加权平均融合方法,它会掩盖全极化的优点,同时也无法同时适应不同的散射机制。因此,该文提出了基于主成分分析(PCA),拉普拉斯金字塔(LP)以及多尺度小波变换(WT)的3种FP-GPR数据融合方法。为了检验几种数据融合方法的可靠性,该文在实验室分别测量了代表3种不同基本散射机制目标体的FP-GPR数据进行分析, 引入瞬时振幅为主、梯度为辅的方法将加权平均融合方法与3种方法进行比较。结果表明该研究所应用的3种数据融合方法效果均优于加权平均融合,并且3种方法可以分别适应不同散射机制的目标体,主成分分析融合可以更好的应用于未知散射机制目标体。最后,将主成分分析融合应用于实际冰裂缝数据成像,得到很好的融合效果,且优于加权平均融合方法。Abstract: Full-Polarimetric Ground Penetrating Radar (FP-GPR), compared to traditional single-polarimetric GPR, can obtain more comprehensive polarization data (such as VV, HH, and VH) for the same target. To ensure a more comprehensive targets’ image identification, data fusion technology is applied to FP-GPR so as to combine the polarization information of three different polarization modes. However, weighted average fusion is usually employed in FP-GPR data fusion, since it masks the advantages of full polarization and is unable to simultaneously adapt to different target scattering mechanisms. Based on Principal Component Analysis (PCA), Laplacian Pyramid (LP), and multi-scale Wavelet Transform (WT), this research proposes three FP-GPR data fusion methods. To check the reliability of several data fusion methods, we obtained FP-GPR data representing three different target scattering mechanisms in the laboratory and, then, compared the weighted average fusion method with the other three methods using instantaneous amplitude and gradient. The result shows that the three methods were better than the weighted average fusion and that they can be adapted to different target scattering mechanisms. However, PCA was used to fuse the unknown target scattering mechanisms. Finally, PCA fusion is applied to actual ice fracture data imaging, as it produces a better fusion effect than that of weighted average fusion.
-
1. 引言
随着诱饵技术和电磁控制技术等的不断发展,基于传统特征量的弹道目标识别技术已难以满足未来高科技战争的需求,而微动特征作为弹道目标的固有属性,难以被模仿,且弹头和诱饵、碎片等运动形式存在明显差异,因而被用来区分识别真弹头,近年来受到国内外研究学者的广泛关注[1–3]。由于目标微动会对雷达回波产生微多普勒调制,无论是宽带雷达还是窄带雷达,均可通过对回波信号参数进行估计来提取目标的微动特征,进而进行目标的分类识别。然而研究表明[4–6],单基雷达获取的目标微多普勒信息均具有较强的姿态敏感性,不同视角获得的微动特征不同,因而难以准确反映目标的真实空间结构。考虑到组网雷达能获得目标在不同视角上的观测信息,于是有望利用多部雷达联合观测对目标进行3维微动特征提取,从而克服单一视角的局限性,提高目标识别精度。
考虑宽带雷达能得到目标的高分辨距离像,获取目标更细微的形状结构特征,目前基于宽带雷达组网的目标微动特征提取研究较多。文献[7]对MIMO雷达中的旋转目标微多普勒效应展开分析,并基于时间-距离像对目标的3维微动特征进行了提取;文献[8]利用分布式组网雷达对有翼锥体目标进行联合观测,并基于不同视角微多普勒特征的相关性,借助几何分析的方法,实现了目标的3维进动特征提取;文献[9]通过三站1维距离像融合实现了锥体目标的3维重构。由此可见,基于宽带雷达组网的目标微动特征提取技术研究已较为成熟,然而,就目前现有雷达实际装备情况来看,由于宽带高分辨雷达价格昂贵,一时间仍难以实现对窄带雷达的全面升级和替换,雷达网仍以窄带体制为主,因此研究利用窄带雷达网对弹道目标进行特征提取具有更大的实际意义,能有效解决目前理论研究与实际脱节的矛盾;文献[10]在窄带组网体制下推导了不同视角锥体散射中心瞬时频率变化关系,利用频谱熵实现了散射中心的匹配关联,并进一步提出了基于散射中心瞬时频率相关性的目标参数提取算法,但没能获取目标的3维微动特征,也无法实现空间目标的3维重构。
本文在文献[10]的基础上,进一步对窄带雷达网中的锥体目标3维进动特征提取展开了研究。在详细分析了锥体进动引发的微多普勒频率调制特性的基础上,利用锥顶微多普勒频率调制系数比,实现了不同视角下散射中心匹配关联,并获取了目标的3维锥旋矢量,进而利用锥顶和底面边缘散射中心微多普勒频率相关性,结合频率补偿的方法对锥体特征参数进行了提取,在此基础上解算出每一时刻锥顶坐标,从而实现了目标空间位置的3维重构。最后,仿真分析了本文方法的有效性。
2. 进动模型
以无翼锥形弹头为例,建立进动模型如图 1所示,由于其存在旋转对称性,因此仅考虑其做锥旋运动。假定目标以角速度ωc绕锥旋轴旋转,且锥旋轴与目标对称轴相交于点o,两者夹角为θ,以交点为坐标原点建立参考坐标系oxyz如下,目标对称轴初始方位为φ0, LOS表示雷达视线方向,其在参考坐标系中的方位角和俯仰角分别为 (ε, χ),与锥旋轴的夹角为α,与对称轴夹角为β,定义雷达视线方向与对称轴构成的平面为底面圆环的电磁波入射平面,该平面与圆环交于p、q两点。锥体高度为h,底面半径为r,锥顶与进动中心的距离为h1,底面中心与进动中心的距离为h2,且目标满足远场条件,雷达与进动中心的距离为R0。
根据散射中心理论,对于旋转对称目标,其高频散射特性主要由锥顶D及底面边缘两个散射中心p, q确定[1, 5]。由几何关系分析可得雷达视线与对称轴的夹角β满足:
式中,φ为初始相位角,且由文献[6]可知是φ=ϕ0−ε。进一步对各散射中心在雷达视线上的投影关系分析可知,锥体3个散射中心到雷达的距离分别为:
考虑到锥体目标在实际运动中各部分之间存在相互遮挡,目标上各散射中心不能始终保持同时可见,使得式 (2) 的使用范围受到限制。但锥顶D和近散射点p在大部分情况下都能被观测到[3],并能够获得二者的稳定连续观测信息,因此本文主要利用D, p的微动信息展开后继研究。假设雷达波长为λ,由式 (1) 和式 (2) 可得,进动引发的D, p两点的微多普勒调制为[11]:
由式 (3) 可以看出,D点的微多普勒频率变化服从正弦规律,而p点的微多普勒频率由两部分之和组成,不再服从简单的正弦调制规律,且两点微多普勒频率均与目标的进动和结构特征有关,共包含wc, h1, h2, r, θ, α, φ 7个未知参数,其中ωc, φ可通过提取正弦曲线特征得到,而θ, α两者之间存在耦合,仅通过单部雷达,仍无法实现对目标进动角及尺寸大小的求解。考虑到多视角观测能获得更加丰富的目标信息,具有较好的解耦合性能,因此本文将采用雷达组网方式对目标特征进行提取,并进一步实现3维重构。
3. 散射中心匹配关联
首先建立窄带雷达网系统观测模型如图 2所示,图中OXYZ为全局坐标系,与参考坐标系oxyz平行,假定系统中共有N部窄带雷达同时进行观测,并都已满足时空同步要求,各雷达视线在OXYZ坐标系中的方位角和俯仰角为 (εi, χi), ni (i=1, 2, ···, N) 为雷达视线方向,满足:
由第2节分析可知,当采用多部雷达同时进行观测时,由于各雷达观测视角不同,同一时刻目标各散射中心在雷达视线上的投影位置排列顺序将存在差异,相对应地,同一时刻各散射中心的微多普勒频率也会不同。因此,在利用组网雷达进行特征提取之前,首先得实现不同视角散射中心的匹配关联。
由式 (3) 可以看出,对于同一观测目标而言,锥顶D的微多普勒频率调制系数A仅与雷达观测视角有关,任取雷达网中两部雷达,其调制系数比满足:
而p点调制规律更为复杂,不具备上述比例关系,因此,通过比较观察不同雷达间的调制系数比即可实现散射中心的匹配关联。文献[10]采用频谱分析的方法,通过计算不同散射中心的频谱熵来实现散射中心的匹配关联,然而在两个散射中心回波信号无法分离的情况下,散射中心无法与各自频谱一一对应起来,因此该方法存在较大的局限性。相比而言,本文方法则更加简单实用。
4. 3维重构
4.1 3维锥旋矢量提取
为更好地实现对锥体目标的3维重构,首先对锥旋轴方向进行估计。采用Viterbi算法提取锥顶微多普勒曲线振幅得到:
Viterbi算法[12–14]作为信号隐状态估计的有效手段之一,能够依据各信号成分强度对信号进行逐次分离,因此常被用来对多目标信号瞬时频率进行估计。与逆Randon变换、Hough变换等曲线参数提取方法相比,Viterbi算法对各信号分量形式依赖性不高,即使是非正弦信号,同样能实现瞬时频率的准确估计。
此外,雷达观测视角αi还满足:
式 (7) 中,⌢ω = (ωx,ωy,ωz)T,联立式 (4)、式 (6)、式 (7),令B=h1sinθ,此时方程组中共包含B, ωx, ωy, ωz 4个未知参数,因此,至少需要3部雷达同时进行观测才能实现对上述参数的求解。进一步将求得的参数回代到方程组,还可以确定sinai的大小。文献[10]采用基于视线角方差最小准则的频率搜索补偿方法对雷达视线角进行估计,需要经过多次循环迭代才能得到准确估计值,计算复杂,且易受噪声影响,而本文所提方法用到的只是锥顶微多普勒频率曲线的振幅和周期,且这两个曲线参数均可由Viterbi算法准确提取得到,在求得锥旋矢量的同时也能估计出各雷达视线角的大小,计算更为简单,算法稳定性更好。
4.2 锥体弹头参数提取
在上述分析的基础上,若要提取锥体弹头参数,还需p对点的微多普勒频率进行充分利用,观察式 (3) 可知,fd–p由正弦部分和非正弦部分之和组成,且正弦部分fk=−2ωch2sinθsinαcos(ωct+φ) / λ 满足fk=(-h2/h1)fd-D,而非正弦部分此时仅包含 (r, θ) 两个未知参数。若能将正弦部分完全补偿,便可利用多视角观测对 (r, θ) 联立求解。考虑到锥体目标尺寸信息仍然未知,先假设补偿系数为η,且η0=h2/h1,当η=η0时,便可实现完全补偿,于是p点补偿后的微多普勒频率满足:
对η进行遍历,利用补偿后的频率两两联立方程可求得:
对每个η取值所对应求得的所有结果(ˆrξ|η,ˆθξ|η)做进一步处理,并定义归一化标准差σ为:
式中,Δr=[ˆr1−ˉr ˆr2−ˉr⋯ˆrC2N−ˉr],Δθ=[ˆθ1−ˉθ ˆθ2−ˉθ⋯ˆθC2N−ˉθ],ˉr,ˉθ为平均值,按照上述归一化标准差定义,对于每一个η取值均能得到对应的σ。若η=η1时,σ取得最小值,则说明此时fk被补偿得最完全,补偿系数η1也越接近η0,由此可求得:
结合4.1节分析,将ˆθ代入B=h1sinθ中,于是求得h1=Bsinˆθ,h2=h1⋅η1。
4.3 锥顶空间位置估计
在求得锥体目标结构参数及旋转轴方向的基础上,为实现对目标空间位置的3维重构,还需确定各散射中心的相对位置,由于底面边缘两个散射中心会随雷达视线方向改变产生滑动,位置坐标不易确定,因而本文从锥顶散射中心入手,在锥体目标结构参数已知的条件下,只要能够求得每一时刻锥顶坐标,同样能实现对目标空间位置的3维重构。由于窄带雷达距离分辨力较低,难以直接从目标回波中获得各散射中心的径向距离变化规律,因此本文考虑在已知各散射中心运动形式和参数基础上,通过微多普勒频率反推每一时刻各散射中心相对应的径向距离变化。
令d=RD–R0,由式 (2) 可得:
式中,φi=ϕ0−χi,由于每一时刻D点的微多普勒频率fd–D均已获得,且fd–D与RD满足导数关系,因而di在每一时刻的值也能求解得到。此外,结合图 1可知,di为oD在第i部雷达视线上的投影,同时还应满足:
若令oD=(Dx, Dy, Dz)T,通过3部雷达同时进行观测可以解算出oD为:
ODOD=[nT1nT2nT3]−1⋅[d1d2d3] (14) 综上所述,基于窄带雷达组网的弹道目标3维微动特征提取及重构步骤为:
步骤1建立弹道目标进动模型,分析各散射中心微多普勒调制规律;
步骤2对目标回波进行时频分析,采用Viterbi算法提取各散射中心微多普勒曲线;
步骤3基于锥顶微多普勒频率调制系数比,实现不同视角下散射中心匹配关联;
步骤4提取3维锥旋矢量和目标结构参数,在此基础上解算出每一时刻锥顶坐标,从而实现锥体目标空间3维重构。
5. 仿真分析
5.1 目标参数估计
在下述仿真中设定目标为锥体,目标参数设置为:h1=2.0 m, h2=0.5 m, r=0.5 m, h=2.5 m, θ=13°,目标对称轴初始方位角φ0=60°,目标的锥旋频率为fc=4 Hz,锥旋矢量为(2√3 π, 4√3 π ,2 π )。雷达参数设置为:载频f=8×109 Hz,信号带宽为5 MHz,雷达脉冲重复频率为2000 Hz,积累时间1 s,信噪比为10 dB。在全局坐标系中3部雷达M1, M2, M3测得的目标方位角和俯仰角 (εi, χi) 分别为 (40°, 84°), (45°, 48°), (30°, 17°)。图 3分别为该3部雷达获得的同一时间段内目标回波Cohen类时频分布重排结果,可以看出重排后的谱图不仅具有更好的时频聚集性,同时还有效抑制了各分量之间的交叉项[15, 16],有利于提高各散射中心瞬时频率的估计精度。
在上述谱图重排的基础上,进一步采用Viterbi算法对各散射中心瞬时频率进行提取,并通过拟合更好地削减了交叉项所带来的不利影响,得到各雷达散射中心瞬时频率估计结果如图 4所示。然后依据第3节匹配关联准则,对各散射中心曲线幅度做进一步处理,区分出锥顶和锥底边缘散射中心。此时提取到各雷达锥顶正弦曲线的频率为‖ =25.14 rad/s,振幅分别为567.6 Hz, 361.8 Hz, 307.8 Hz,而由式 (6) 计算得到的振幅理论值分别为569.2636 Hz, 362.0643 Hz, 309.5390 Hz,两者相当接近,代入方程组式 (7) 可以求解得到3维锥旋矢量\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{\omega }={{\left( 10.8598, 21.7937, 6.2545 \right)}^{\text{T}}},与理论值基本吻合,同时可以求得各雷达视线角分别为{{{\hat{\alpha }}}_{1}}=70.7025, {{{\hat{\alpha }}}_{2}}=36.9851, {{{\hat{\alpha }}}_{3}}=30.7848。
依据4.2节中锥体弹头参数提取算法,由求得的{{{\hat{\alpha }}}_{i}}和各散射中心瞬时频率对 (r, θ) 进行估计,可以得到遍历时η归一化标准差σ随之变化的结果如图 5所示,当η=0.253时,σ取得最小值,接近于理论分析值η0=0.25,进一步将该η值代到方程式 (11),从而求得参数r, θ, h1, h2估计值。定义相对误差=|理论值–估计值|/理论值,各参数估计结果如表 1所示,其中α1, α2, α3估计精度相对较高,r, θ, h1, h2由于受到各散射中心瞬时频率提取误差的影响,估计精度则相对较低,通过进一步提高时频分辨率或者增加雷达网中雷达观测数量可实现上述参数估计精度的提升。但总的来说,各参数估计相对误差均小于5%,满足目标识别的精度要求,可用于下一步对锥顶坐标的求解。而在相同仿真条件下,文献[10]中的目标参数平均估计相对误差则接近于15%,明显高于本文误差,这也从侧面反映出本文参数提取算法的稳定性。
表 1 锥体弹头进动及结构参数估计结果Table 1. The estimation result of cone-shaped warhead's parameters参数 理论值 估计值 相对误差 (%) α1(°) 70.7288 70.7025 0.30 α2(°) 36.8974 36.9851 0.037 α3(°) 30.8829 30.7848 0.32 θ(°) 13 13.5579 4.29 r(m) 0.5 0.5237 4.74 h1(m) 2.0 1.9132 4.43 h2(m) 0.5 0.4811 3.20 在上述目标特征参数提取的基础上,进一步按照4.3节所提算法对锥顶坐标进行求解。当时t=0.25 s,求得锥顶坐标\left( {{{\hat{D}}}_{x}}, {{{\hat{D}}}_{y}}, {{{\hat{D}}}_{z}} \right)=\left( 1.1739, 1.1888, 0.5898 \right) ,与理论值 \left( {{D}_{x}}, {{D}_{y}}, {{D}_{z}} \right)=\left( 1.2050, 1.2495, 0.6093 \right)基本相符,并最终得到在观测时间内0~0.25 s锥顶散射中心的实际轨迹如图 6所示,与其理论轨迹近乎重合,从而更加充分地说明了本文重构方法的准确性和有效性。
5.2 算法鲁棒性分析
为了充分验证本文所提算法的鲁棒性,仿真分析了曲线参数估计误差对目标参数提取及重构精度的影响。由于在4.1节中3维锥旋矢量的求解精度主要受到锥顶微多普勒幅度和微动周期的影响,而微动周期通常都能被准确估计,因而在此主要分析微多普勒幅度的影响。在4.2节中,目标参数的准确提取关键在于式 (9) 的求解,且求解精度主要受瞬时频率提取误差制约,因此也有必要对瞬时频率提取误差带来的影响进行分析。为便于分析,定义归一化误差如下:
上式中 {\hat{X}}为估计值,X为真实值,进一步定义|η|为归一化绝对误差。假设锥顶微多普勒曲线幅度AD提取值以及各散射中心瞬时频率的提取值归一化误差服从[–a a]上的均匀分布,采用蒙特卡洛方法进行分析,仿真100次,可以得到目标特征参数归一化绝对误差平均值的变化如图 7所示。从图 7(a)中可以看出,当a在区间[0, 0.1]变化时,锥旋矢量各方向分量估计误差均呈线性增加趋势,但总的来说,各方向分量估计精度仍然较高。而在图 7(b)中,当a在区间[0, 0.03]变化时,进动角θ变化较为平和,h2/h1则几乎不受影响,只有底面半径r值的估计精度变化最为敏感,随着各种高性能时频分析工具的发展,完全可以将瞬时频率提取精度进一步提高,从而满足目标参数的高精度提取。
综上所述可知,本文所提锥体目标参数提取及重构算法在一定程度上受到微多普勒曲线参数提取精度的影响,但由于文中所采用的基于Cohen类时频重排的Viterbi算法较好地实现瞬时频率曲线的提取,因此本文算法能保证目标参数提取及重构的可靠性,可用于目标识别。
6. 结束语
本文对基于窄带雷达网的锥体目标3维进动特征提取问题展开了研究。依据目标的多视角微多普勒频率调制特性,利用3部雷达获取了目标的3维锥旋矢量及特征参数,并进一步解算出每一时刻锥顶坐标,实现了目标空间位置的3维重构。仿真结果表明,本文所提方法目标参数估计精度高,重构性能好,能够有效克服目标散射中心遮挡和姿态敏感性的不利影响,为基于窄带雷达的空间目标准确识别提供了解决方案。考虑到在实际的导弹防御体系当中,可能会出现窄带雷达和宽带雷达同时对目标进行观测识别的情况,后继工作将就不同体制雷达对目标3维特征参数的融合提取问题展开研究。
-
表 1 瞬时振幅最大值
Table 1. Max of instantaneous amplitude
目标体 加权平均 PCA LP WT 板 0.0066 0.0150 0.0134 0.0183 二面角 0.0031 0.0119 0.0094 0.0100 多分支散射体 3.0135×10–4 8.707×10-4 8.6279×10–4 8.7215×10–4 表 2 梯度最大值
Table 2. Max of gradient
目标体 加权平均 PCA LP WT 板 8.8737×10–9 2.0838×10–8 1.9288×10–9 9.5532×10–8 二面角 9.0147×10–9 1.6597×10–8 3.5484×10–8 6.0511×10–8 多分支散射体 9.0209×10–10 2.3254×10–9 2.4932×10–9 3.8864×10–9 -
[1] KANG M S, KIM N, IM S B, et al. 3D GPR image-based UcNet for enhancing underground cavity detectability[J]. Remote Sensing, 2019, 11(21): 2545. doi: 10.3390/rs11212545 [2] GABALLAH M, GRASMUECK M, and SATO M. Characterizing subsurface archaeological structures with full resolution 3D GPR at the early dynastic foundations of Saqqara Necropolis, Egypt[J]. Sensing and Imaging, 2018, 19(1): 23. doi: 10.1007/s11220-018-0209-8 [3] SATO M and LU Q. Ground water migration monitoring by GPR[C]. IEEE International Geoscience and Remote Sensing Symposium, Toronto, Canada, 2002: 345–347. doi: 10.1109/IGARSS.2002.1025035. [4] FENG Xuan and SATO M. Pre-stack migration applied to GPR for landmine detection[J]. Inverse Problems, 2004, 20(6): S99–S115. doi: 10.1088/0266-5611/20/6/S07 [5] CHENG Siyuan, LIU Sixin, GUO Jingxue, et al. Data processing and interpretation of antarctic ice-penetrating radar based on variational mode decomposition[J]. Remote Sensing, 2019, 11(10): 1253. doi: 10.3390/rs11101253 [6] HU Bin, WANG Deli, ZHANG Ling, et al. Rock location and quantitative analysis of regolith at the Chang’e 3 landing site based on local similarity constraint[J]. Remote Sensing, 2019, 11(5): 530. doi: 10.3390/rs11050530 [7] FENG Xuan, YU Yue, LIU Cai, et al. Subsurface polarimetric migration imaging for full polarimetric ground-penetrating radar[J]. Geophysical Journal International, 2015, 202(2): 1324–1338. doi: 10.1093/gji/ggv208 [8] FENG Xuan, YU Yue, LIU Cai, et al. Combination of H-alpha decomposition and migration for enhancing subsurface target classification of GPR[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(9): 4852–4861. doi: 10.1109/TGRS.2015.2411572 [9] FENG Xuan, LIANG Wenjing, LIU Cai, et al. Application of freeman decomposition to full polarimetric GPR for improving subsurface target classification[J]. Signal Processing, 2017, 132: 284–292. doi: 10.1016/j.sigpro.2016.07.030 [10] 李玲玲. 像素级图像融合方法与应用[M]. 兰州: 甘肃人民出版社, 2006.LI Lingling. Pixel-Level Image Fusion Method and Application[M]. Lanzhou: Gansu People’s Publishing House, 2006. [11] DAILY M I, FARR T, ELACHI C, et al. Geologic interpretation from composited radar and Landsat imagery[J]. Photogrammetric Engineering and Remote Sensing, 1979, 45(8): 1109–1116. [12] ABIDI M A and GONZALEZ R C. Data Fusion in Robotics and Machine Intelligence[M]. Boston: Academic Press, 1992: 1–546. [13] HILL D, EDWARDS P, and HAWKES D. Fusing medical images[J]. Image Processing, 1994, 6(2): 22–24. [14] POHL C and VAN GENDEREN J L. Review article Multisensor image fusion in remote sensing: Concepts, methods and applications[J]. International Journal of Remote Sensing, 1998, 19(5): 823–854. doi: 10.1080/014311698215748 [15] DING Ji, LIU Qiang, BAI Mingxuan, et al. A multisensor data fusion method based on gaussian process model for precision measurement of complex surfaces[J]. Sensors, 2020, 20(1): 278. doi: 10.3390/s20010278 [16] WAN Tao, ZHU Chenchen, and QIN Zengchang. Multifocus image fusion based on robust principal component analysis[J]. Pattern Recognition Letters, 2013, 34(9): 1001–1008. doi: 10.1016/j.patrec.2013.03.003 [17] JOSE C. A fast, on-line algorithm for PCA and its convergence characteristics[J]. IEEE, Transactions on Neural Network, 2000, 4(2): 299–307. [18] PEARSON K. LIII. On lines and planes of closest fit to systems of points in space[J]. The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science, 1901, 2(11): 559–572. doi: 10.1080/14786440109462720 [19] SAFAYANI M, MANZURI SHALMANI M T, and KHADEMI M. Extended two-dimensional PCA for efficient face representation and recognition[C]. 2008 4th International Conference on Intelligent Computer Communication and Processing, Cluj-Napoca, 2008: 295–298. doi: 10.1109/ICCP.2008.4648390. [20] HADRI A, CHOUGDALI K, and TOUAHNI R. Intrusion detection system using PCA and Fuzzy PCA techniques[C]. 2016 International Conference on Advanced Communication Systems and Information Security, Marrakesh, Morocco, 2016: 1–7. doi: 10.1109/ACOSIS.2016.7843930. [21] QIU Changzhen, REN Hao, ZOU Huanxin, et al. Performance comparison of target classification in SAR images based on PCA and 2D-PCA features[C]. 2009 2nd Asian-Pacific Conference on Synthetic Aperture Radar, Xi’an, China, 2009: 868–871. doi: 10.1109/APSAR.2009.5374193. [22] ADELSON E H, ADELSON C H, BERGEN J R, et al. Pyramid methods in image processing[J]. RCA Engineer, 1984, 29(6): 33–41. [23] BURT P and ADELSON E. The Laplacian pyramid as a compact image code[J]. IEEE Transactions on Communications, 1983, 31(4): 532–540. doi: 10.1109/TCOM.1983.1095851 [24] MAO Run, FU Xiansong, NIU Pingjuan, et al. Multi-directional laplacian pyramid image fusion algorithm[C]. 2018 3rd International Conference on Mechanical, Control and Computer Engineering, Huhhot, China, 2018: 568–572. doi: 10.1109/ICMCCE.2018.00125. [25] LIANG Pei, XIE Zhiwei, and DAI Jiguang. Joint edge detector based on Laplacian pyramid[C]. 2010 3rd International Congress on Image and Signal Processing, Yantai, China, 2010: 978–982. doi: 10.1109/CISP.2010.5646931. [26] MALLAT S G. A theory for multiresolution signal decomposition: The wavelet representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1989, 11(7): 674–693. doi: 10.1109/34.192463 [27] KUMAR K, MUSTAFA N, LI Jianping, et al. Image edge detection scheme using wavelet transform[C]. 2014 11th International Computer Conference on Wavelet Actiev Media Technology and Information Processing, Chengdu, China, 2014: 261–265. doi: 10.1109/ICCWAMTIP.2014.7073404. [28] LIU Qingliang, YANG Shuguo, LIU Jing, et al. A discrete wavelet transform and singular value decomposition-based digital video watermark method[J]. Applied Mathematical Modelling, 2020, 85: 273–293. doi: 10.1016/j.apm.2020.04.015 [29] TAŞMAZ H. Dual tree complex wavelet transform based speech enhancement[C]. 2015 23nd Signal Processing and Communications Applications Conference, Malatya, Turkey, 2015: 823–826. doi: 10.1109/SIU.2015.7129955. [30] 梁文婧, 冯晅, 刘财, 等. 多输入多输出极化步进频率探地雷达硬件系统开发[J]. 吉林大学学报: 地球科学版, 2018, 48(2): 483–490. doi: 10.13278/j.cnki.jjuese.20170254LIANG Wenjing, FENG Xuan, LIU Cai, et al. Development of multiple-input and multiple-output polarimetric stepped-frequency ground penetrating radar system[J]. Journal of Jilin University:Earth Science Edition, 2018, 48(2): 483–490. doi: 10.13278/j.cnki.jjuese.20170254 期刊类型引用(7)
1. 庞岳,岳富占,夏正欢,张闯,王洪强,高文宁,张瑶. 基于改进型PCA全极化雷达回波信号融合的动目标检测方法. 现代雷达. 2025(02): 126-133 . 百度学术
2. 尹达,辛国亮,孙学超,张友源,张其道. 实时三维探地雷达关键技术的设计与实现. 物探与化探. 2024(01): 194-200 . 百度学术
3. 冯温雅,程丹丹,王成浩,程星. 基于探地雷达等效采样的时变零偏实时校正方法. 物探与化探. 2023(02): 372-376 . 百度学术
4. 董泽君,冯晅,周皓秋. 不同测量角度下渗流微裂隙的全极化探地雷达响应特征研究. 现代雷达. 2023(12): 15-23 . 百度学术
5. 于虹,李昊,周帅,沈锋. 非均质土壤中直埋式电缆的精确定位技术研究. 哈尔滨理工大学学报. 2023(05): 34-41 . 百度学术
6. 杨军,王筱宇. GF-2和Sentinel-2全色多光谱影像融合方法比较研究. 测绘科学. 2022(01): 112-120 . 百度学术
7. 余昆,朱洁,杜卫峰,仝润北. 基于GprMax的道路空洞全极化数据融合研究. 交通运输研究. 2022(01): 99-106 . 百度学术
其他类型引用(9)
-