基于邻域一致性的极化SAR图像仿射配准

朱庆涛 殷君君 曾亮 杨健

张凌志, 刘飞峰, 胡程. 基于导航卫星的干涉SAR数据采集策略优选方法分析[J]. 雷达学报, 2019, 8(5): 624–630. doi: 10.12000/JR19065
引用本文: 朱庆涛, 殷君君, 曾亮, 等. 基于邻域一致性的极化SAR图像仿射配准[J]. 雷达学报, 2021, 10(1): 49–60. doi: 10.12000/JR20120
ZHANG Lingzhi, LIU Feifeng, and HU Cheng. Optimization method and analysis of data acquisition strategy based on interference SAR with GNSS transmitters[J]. Journal of Radars, 2019, 8(5): 624–630. doi: 10.12000/JR19065
Citation: ZHU Qingtao, YIN Junjun, ZENG Liang, et al. Polarimetric SAR image affine registration based on neighborhood consensus[J]. Journal of Radars, 2021, 10(1): 49–60. doi: 10.12000/JR20120

基于邻域一致性的极化SAR图像仿射配准

DOI: 10.12000/JR20120 CSTR: 32380.14.JR20120
基金项目: 国家自然科学基金(61771043),中央高校基本科研业务费专项资金(FRF-IDRY-19-008, FRF-GF-19-017B)
详细信息
    作者简介:

    朱庆涛(1997–),男,清华大学电子工程系在读硕士研究生,研究方向为极化SAR图像处理。E-mail: zqt19@mails.tsinghua.edu.cn

    殷君君(1983–),女,北京科技大学计算机与通信工程学院副教授,研究方向为雷达极化应用的基础理论,极化合成孔径雷达图像理解、图像分割、数据融合,海洋遥感及生态环境变化监测。E-mail: yinjj07@gmail.com

    曾 亮(1990–),男,清华大学电子工程系在读博士研究生,主要研究方向为极化雷达信号处理、微波遥感、精确制导。E-mail: zengliang14@mails.tsinghua.edu.cn

    杨 健(1965–),男,湖北襄阳人,分别在西北工业大学和日本新潟大学获得学士、硕士和博士学位,2000年回国,现在为清华大学教授,博士生导师,研究方向为极化雷达理论及其应用。E-mail: yangjian_ee@tsinghua.edu.cn

    通讯作者:

    曾亮 zengliang14@mails.tsinghua.edu.cn

    杨健 yangjian_ee@tsinghua.edu.cn

  • 责任主编:陈思伟 Corresponding Editor: CHEN Siwei
  • 中图分类号: TP75

Polarimetric SAR Image Affine Registration Based on Neighborhood Consensus

Funds: The National Natural Science Foundation of China (61771043), The Fundamental Research Funds for the Central Universities (FRF-IDRY-19-008, FRF-GF-19-017B)
More Information
  • 摘要: 极化SAR图像的配准是极化SAR图像处理的基础,需要具备较高的精度与速度。基于深度学习的极化SAR图像配准大多数是结合图像块特征的匹配与基于随机抽样一致性的参数迭代估计来实现的。目前尚未实现端到端的基于深度卷积神经网络的一步仿射配准。该文提出了一种基于弱监督学习的端到端极化SAR图像配准框架,无需图像切块处理或迭代参数估计。首先,对输入图像对进行特征提取,得到密集的特征图。在此基础上,针对每个特征点保留k对相关度最高的特征点对。之后,将该4D稀疏特征匹配图输入4D稀疏卷积网络,基于邻域一致性进行特征匹配的过滤。最后,结合输出的匹配点对置信度,利用带权最小二乘法进行仿射参数回归,实现图像对的配准。该文采用RADARSAT-2卫星获取的德国Wallerfing地区农田数据以及PAZ卫星获取的中国舟山港口地区数据作为测试图像对。通过对升降轨、不同成像模式、不同极化方式、不同分辨率的极化SAR图像对的配准测试,并与4种现有方法进行对比,验证了该方法具有较高的配准精度与较快的速度。

     

  • 基于导航卫星的双基地SAR(Bistatic Synthetic Aperture Radar based on Global Navigation Satellite System, GNSS-BSAR)是空-地双基地SAR中一种典型的应用[1],使用在轨的导航卫星作为发射源,地面部署接收机(地基、车载、机载)构成双基地SAR系统[2]。由于导航星座的日趋完善,其全球覆盖性以及重轨特性所带来的优势是其他照射源暂时所不能替代的,其中以地基接收机为主的导航卫星干涉合成孔径雷达(Interference Synthetic Aperture Radar based on the Global Navigation Satellite System, GNSS-InSAR)在场景形变监测领域有着广阔的应用前景[3],成为了近年来研究热点。

    在GNSS-BSAR系统成像方面,已有研究者分别使用不同的导航卫星星座进行了成像验证,包括了北斗[4,5]、GPS[6]、格洛纳斯[7]、伽利略[8]。除此以外文献[9]还提出了多角度融合方法以增强图像信噪比。在形变监测方面,来自伯明翰大学的学者们[10]使用直达波天线,配合长约50 m的线缆构建了理想点目标,并使用格洛纳斯作为发射源,首次实现了精度约为1 cm的1维形变反演结果。该实验初步验证了GNSS-InSAR应用于形变监测的可行性。为了进一步验证场景形变监测的可能,2017年文献[11]通过对接收机进行高精度移位来模拟场景建筑形变,成功反演出了形变,精度约为1 cm。在3维形变方面,2018年北京理工大学的技术团队[12]通过人为构建转发器,进行了精度可控的强点目标形变模拟,使用我国的北斗IGSO卫星,成功实现了精度优于5 mm的3维形变反演,这些验证性实验充分表明了GNSS-InSAR应用于场景形变检测的可能。

    若要实现GNSS-InSAR场景的3维形变反演,需要同时至少3颗卫星从不同角度照射场景。由于GNSS-InSAR系统的拓扑高度非对称性以及导航信号的窄带特性[13],加上导航卫星的重轨并非是严格意义上的重轨,除了不可避免的空间基线外,重轨时间也并非严格一致,因此在实际数据采集中,需要对系统构型以及数据采集时间进行严格的优化设计。文献[14]提出了一种联合优化方法,解决了面向大场景下的多星多角度构型优化问题,配合多个接收机实现综合分辨性能优异的大场景成像。文献[15]提出了空间去相干的理论描述框架,表明了空间去相干在GNSS-InSAR中的必要性,但未对数据采集时间进行说明。从当前实际情况出发,不精确的数据采集时间可能会造成存储资源浪费,空间去相干导致的数据截取进一步降低了数据有效性。具体如图1所示:

    图  1  数据截取与有效数据示意图
    Figure  1.  Effective data interception diagram

    针对上述问题,本文提出了一种GNSS-InSAR场景连续数据采集优化方法,通过结合当前数据的卫星轨迹和两行星历数据文件(STK Two-Line Element sets, TLE)预测轨迹,基于相干系数轨迹对齐,获取卫星重轨时间间隔,得到最优的数据采集策略,从源头上降低数据的空间去相干性,提升所采集数据有效性,节约存储资源。在第2部分对GNSS-InSAR场景数据采集优化方法进行了详细介绍。第3部分针对提出的方法进行了实验设计,开展了实测数据采集,并针对采集的数据进行了初步分析。第4部分对全文进行总结。

    对于GNSS-InSAR图像而言,经过保相成像处理后,场景中任意一点(x0,y0)的像素信息分别对应分辨单元内所有散射体回波的相参叠加,可建模为

    s(x0,y0)=f(x,y;t)exp[j2πλr(x,y;P)]W(xx0,yy0;P)dxdy+n(x0,y0;t)
    (1)

    其中,f(x,y;t)为时间t下的地表散射系数,P为对应的合成孔径中心位置矢量,W(x,y;P)表示系统的点扩散函数(PSF), n(x,y;t)为图像的加性噪声。对于SAR图像的同名点像素,其相干系数可表示为[16]

    ρ=sm(x0,y0)ss(x0,y0)dxdysm(x0,y0)sm(x0,y0)dxdyss(x0,y0)ss(x0,y0)dxdy
    (2)

    其中,下标m表示主图像,s表示辅图像。根据柯西不等式可以判断:0ρ1,当ρ=0时表示同名点完全不相干,当ρ=1时,同名点完全相干。

    将点目标像素模型式(1)带入到式(2)并化简得到

    ρ=sav(x,y)exp[j2πλ(r(x,y;Pm)r(x,y;Ps))]|W(xx0,yy0;Pm)|2dxdy(sm(x,y)exp[j2πλr(x,y;Pm)]|W(xx0,yy0;Pm)|2dxdy+nm)×(ss(x,y)exp[+j2πλr(x,y;Ps)]|W(xx0,yy0;Pm)|2dxdy+ns)
    (3)

    式(3)的推导使用了如下近似:

    (1) 由于导航卫星的高轨道特性,使得W(xx0,yy0;Pm)W(xx0,yy0;Ps)成立;

    (2) 相邻两天的噪声相干系数为0,即

    n(x0,y0;tm)×n(x0,y0;ts)=0
    (4)

    (3) 相邻两天的目标散射系数为sav(x,y),即

    sav(x,y)f(x,y;tm)f(x,y;ts)
    (5)

    对式(3)中的相干系数ρ进一步分解得到

    ρ=ρth×ρti×ρsp
    (6)

    其中,热噪声相干系数ρth与时间相干系数ρti分别由系统与实际目标决定。

    对于PS点[17]而言,地表散射系数相对稳定,不随时间变化,同时为了便于后续分析,假定散射系数为1得到空间相干系数ρsp的简化式为

    ρsp=exp[j2πλ(r(x,y;Pm)r(x,y;Ps))]|W(xx0,yy0;Pm)|2dxdy(|W(xx0,yy0;Pm)|2dxdy)(|W(xx0,yy0;Pm)|2dxdy)
    (7)

    从式(7)推导结果可以知道,空间基线主要是影响r(x,y;P)从而导致空间去相干。

    导航卫星的重轨时间并非稳定不变,因此需要对数据采集时间进行有效预测,从源头上降低空间去相干,提高数据有效性。

    假定主图像数据采集时间为tm,该采集时间可以通过文献[14]中的广义优化模型进行求解,辅图像数据采集时间为ts=tm+Δt, Δt为时间间隔,那么最优化数据采集模型可通过式(7)推导而来

    Δt=argmax{|˜W(x,y;Pm)|2exp[j2πλ(r(x,y;Pm)r(x,y;P(tm+Δt)))]dxdy}
    (8)

    其中,˜W(x,y;Pm)tm下等效归一化PSF, P(tm+Δt)Δt时间偏置下得合成孔径中心位置矢量。

    第1天数据采集需要进行实验设计以确定最优数据采集时刻,往后的重轨天数据采集可以根据数据采集优化模型,同时结合星历文件进行预测。整体的预测流程如图2所示,n为任意一天采集的数据,k为重轨天数间隔。

    图  2  GNSS-InSAR数据采集时间优化流程
    Figure  2.  Time optimization process of GNSS-InSAR data acquisition

    实际卫星位置对应的实际时间设为tn,经过模型优化得到的时间偏差为Δt,那么第n+k天对应的实际数据采集时间可表示为

    tn+k=tn+Δt
    (9)

    对于固定场景的形变监测,首次数据采集的时候需要严格设计系统构型,使分辨率达到最优化。本次实验接收机部署在北京理工大学信息科学试验楼楼顶西北角,实施监测场景位于西偏北30°。使用理论分辨率计算公式[18]对该场景进行分辨率设计。仿真参数具体参见表1

    表  1  数据采集试验仿真参数
    Table  1.  Data acquisition test simulation parameters
    参数
    照射源北斗 IGSO1~5
    PRF1000 Hz
    带宽10.23 MHz
    合成孔径时间600 s
    TLE文件更新日期2019年4月29日
    预定数据采集日期2019年4月30日
    下载: 导出CSV 
    | 显示表格

    以分辨单元面积作为判定依据,得到预定采集日期当天全时段下各个卫星在预定场景下所能得到的分辨单元面积如图3所示。

    图  3  全时段下场景分辨单元面积
    Figure  3.  Scene resolution unit area in full time

    为了实现3维形变反演,需要同一时间下有3颗卫星对场景进行照射。图3中10点前后与17点前后满足当前场景上空有3颗IGSO卫星可见的条件。更进一步,为了使分辨单元面积达到最优,可以得到具体的数据采集时间。具体如图4红框标注,分别是9点30分前后与17点30分前后。

    图  4  首次数据采集时间设计结果
    Figure  4.  Design results of first data acquisition time

    为了配合实验,在场景布置转发器,整体的系统构型如图5所示。

    图  5  GNSS-InSAR场景3维形变反演实验拓扑构型设计结果
    Figure  5.  GNSS-InSAR topological configuration design results of 3D deformation retrieval experiment

    以2019年4月30日采集的实测数据作为第n天数据,对于北斗的IGSO而言,重轨时间约为1天,即m=1,同时下载当天最新的TLE文件。以IGSO1为例,结合图2进行详细说明:

    (1) 使用实测数据的直达波进行卫星位置解算,同时根据TLE文件推算当天和相邻天的卫星轨迹。经过相干系数轨迹匹配之后,得到的轨迹如图6所示。

    图  6  对齐后的TLE卫星轨迹与实测数据卫星轨迹
    Figure  6.  Aligned TLE satellite trajectory and measured data satellite trajectory

    (2) 以匹配得到的TLE卫星轨迹作为参考,对重轨天的TLE卫星轨迹进行数据采集优化模型求解,系统的PSF与优化模型仿真结果分别如图7图8所示。

    图  7  场景[–147, 20, 0]处理论PSF
    Figure  7.  Theoretical PSF in scene at position of [–147, 20, 0]
    图  8  数据采集优化模型仿真结果
    Figure  8.  Simulation results of data acquisition optimization model

    图8的结果分析可知,第1个峰值点为其本身,由于空间基线为0,相干系数为1。第2个峰值点相干系数为0.999644,满足除了第1个峰值点外相邻天相干系数最大值条件,因此第2个峰值点就是最佳重轨时的空间相干系数。此时经过模型优化得到的时间间隔为:Δt=86163s=23h56min3s,结合第1天的实测数据轨迹对应的时间t1=9h26min0s,第2天准确的数据采集时间为:t2=9h22min3s

    为了说明优化结果的正确性,在实验场景中放置转发器模拟理想点目标(图5),同时按照优化后的时间进行5月1日数据采集。实际采集时间为9h21min53s,总采集时间约650 s。相邻两天的空间相干系数轨迹匹配结果如图9所示。

    图  9  实测数据重轨空间相干系数
    Figure  9.  The spatial coherence coefficient of measured data

    图9中峰值点位置来看,重轨数据采集优化模型得到的结果和实际结果相吻合。为了进一步说明,图10给出了IGSO1卫星实测数据成像结果。

    图  10  场景成像结果
    Figure  10.  Imaging results of scene

    对相邻两天的图像相干系数进行求解,得到图11所示结果。在同一坐标系下,仿真目标位于[–147, 20, 0],空间相干系数为0.999644;转发器位于[–147, 20, 0],相干系数为0.9996;两者的相干系数基本保持一致。

    图  11  相干系数结果
    Figure  11.  Coherence coefficient result

    图9图10的结果表明经过数据采集优化模型后得到的时间间隔与实际卫星轨迹的重轨时间相互吻合,在保证600 s预期合成孔径时间下,可以最大限度减少数据采集时间,节约存储资源。同时避免后期由于数据对齐带来的数据有效性降低问题。

    在GNSS-InSAR场景1维/3维形变反演应用中,针对由于导航卫星重轨时间的非严格一致性与有效数据截取带来的数据冗余,数据有效性低等问题,本文提出了一种面向GNSS-InSAR场景数据采集的优化模型,采用实测数据与TLE文件相结合,根据当天数据采集时间,预测相邻天重轨时间,从而实现精确的数据采集。实测数据验证结果表明了数据采集时间优化模型的正确性。该方法的提出有利于GNSS-InSAR场景1维/3维形变反演实验的开展,在降低原始数据冗余度基础上,保证了有效数据时间长度大于预期合成孔径时间。

  • 图  1  基于邻域一致性的SAR图像配准算法框图

    Figure  1.  Flowchart of image registration based on neighborhood consensus

    图  2  DenseBlock的网络结构

    Figure  2.  Structure of DenseBlock

    图  3  Wallerfing农田数据

    Figure  3.  Wallerfing farmland data

    图  4  舟山港口数据

    Figure  4.  Zhou Shan port data

    图  5  DenseNet+SNCNet算法下,Wallerfing和舟山数据配准叠加图

    Figure  5.  Overlay map of Wallerfing and Zhou Shan data by DenseNet+SNCNet

    图  6  SAR-SIFT+RANSAC算法下,Wallerfing和舟山数据配准叠加图

    Figure  6.  Overlay map of Wallerfing and Zhou Shan data by SAR-SIFT+RANSAC

    图  7  不同算法下,Wallerfing和舟山数据配准的PCK曲线

    Figure  7.  PCK of Wallerfing and Zhou Shan image registration with different algorithms

    图  8  Wallerfing农田数据Span图

    Figure  8.  Span image of Wallerfing farmland data

    图  9  600×600分辨率下,DenseNet-SNCNet和ResNet-SNCNet的配准结果

    Figure  9.  Registration result of DenseNet-SNCNet and ResNet-SNCNet at 600×600 resolution

    图  10  稀疏特征匹配过滤模块的有效性

    Figure  10.  Effectiveness of the sparse filter module

    图  11  显著特征点对的分布

    Figure  11.  Distribution of salient feature pairs

    表  1  特征提取模块的结构

    Table  1.   Structure of the feature extraction module

    网络的层该层输出的尺寸特征提取模块
    Convolution
    Pooling
    600×600×64
    300×300×64
    7×7 conv, stride 2
    3×3 Max Pooling, stride 2
    DenseBlock(1)300×300×256[1×1conv3×3conv]×6
    Transition layer(1)300×300×128
    150×150×128
    1×1 conv
    2×2 Average Pooling, stride 2
    DenseBlock(2)150×150×512[1×1conv3×3conv]×12
    Transition layer(2)
    150×150×256
    75×75×128
    1×1 conv
    2×2 Average Pooling, stride 2
    DenseBlock(3)75×75×1792[1×1conv3×3conv]×48
    下载: 导出CSV

    表  2  各种配准算法的APE值

    Table  2.   APE of different registration algorithms

    MethodWallerfing Pauli imagesWallerfing Span imagesZhou Shan images
    SIFT+RANSAC6.5219.0581.924
    SAR-SIFT+RANSAC4.0536.9272.252
    ResNet-SNCNet9.2229.6413.677
    DenseNet-SNCNet6.1757.5452.553
    DenseNet+RANSAC32.71540.0427.988
    下载: 导出CSV

    表  3  k取不同值时,DenseNet+SNCNet配准结果的APE值

    Table  3.   APE of registration result by DenseNet+SNCNet with different k

    kWallerfing Pauli imagesZhou Shan images
    27.4972.443
    58.9292.080
    88.1573.154
    106.1752.553
    1613.4162.383
    下载: 导出CSV

    表  4  k取不同值时,基于GPU的DenseNet+SNCNet运算时间

    Table  4.   Time consuming of registration based on GPU by DenseNet+SNCNet with different k

    kWallerfing Pauli imagesZhou Shan images
    20.62670.6364
    50.73350.7379
    80.85250.9292
    100.99430.9542
    161.17931.2199
    下载: 导出CSV
  • [1] WANG Shuang, QUAN Dou, LIANG Xuefeng, et al. A deep learning framework for remote sensing image registration[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 145: 148–164. doi: 10.1016/j.isprsjprs.2017.12.012
    [2] YANG Zhuoqian, DAN Tingting, and YANG Yang. Multi-temporal remote sensing image registration using deep convolutional features[J]. IEEE Access, 2018, 6: 38544–38555. doi: 10.1109/ACCESS.2018.2853100
    [3] SARVAIYA J N, PATNAIK S, and BOMBAYWALA S. Image registration by template matching using normalized cross-correlation[C]. 2009 IEEE International Conference on Advances in Computing, Control, and Telecommunication Technologies, Trivandrum, India, 2009: 819–822. doi: 10.1109/ACT.2009.207.
    [4] GAN Rui, WU Jue, CHUNG A C S, et al. Multiresolution image registration based on Kullback-Leibler distance[C]. The 7th International Conference on Medical Image Computing and Computer-Assisted Intervention. Saint-Malo, France, 2004: 599–606. doi: 10.1007/978-3-540-30135-6_73.
    [5] 张涛, 王正勇, 张影, 等. 基于和声算法的图像配准技术[J]. 电视技术, 2014, 38(7): 9–12. doi: 10.16280/j.videoe.2014.07.032

    ZHANG Tao, WANG Zhengyong, ZHANG Ying, et al. Image registration techniques based on harmony search algorithm[J]. Video Engineering, 2014, 38(7): 9–12. doi: 10.16280/j.videoe.2014.07.032
    [6] AVERBUCH A and KELLER Y. FFT based image registration[C]. 2002 IEEE International Conference on Acoustics, Speech, and Signal Processing, Orlando, USA, 2002: IV-3608–IV-3611. doi: 10.1109/ICASSP.2002.5745436.
    [7] HARRIS C and STEPHENS M. A combined corner and edge detector[C]. The 4th Alvey Vision Conference, Manchester, UK, 1988. doi: 10.5244/C.2.23.
    [8] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91–110. doi: 10.1023/B:VISI.0000029664.99615.94
    [9] WANG Yufan, YU Qiuze, and YU Wenxian. An improved normalized cross correlation algorithm for SAR image registration[C]. 2012 IEEE International Geoscience and Remote Sensing Symposium, Munich, Germany, 2012: 2086–2089. doi: 10.1109/IGARSS.2012.6350961.
    [10] DELLINGER F, DELON J, GOUSSEAU Y, et al. SAR-SIFT: A SIFT-like algorithm for SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(1): 453–466. doi: 10.1109/TGRS.2014.2323552
    [11] MA Wenping, WEN Zelian, WU Yue, et al. Remote sensing image registration with modified SIFT and enhanced feature matching[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(1): 3–7. doi: 10.1109/LGRS.2016.2600858
    [12] KRIZHEVSKY A, SUTSKEVER I, and HINTON G. ImageNet classification with deep convolutional neural networks[C]. The 25th International Conference on Neural Information Processing Systems, Lake Tahoe, USA, 2012: 1097–1105.
    [13] 徐丰, 王海鹏, 金亚秋. 深度学习在SAR目标识别与地物分类中的应用[J]. 雷达学报, 2017, 6(2): 136–148. doi: 10.12000/JR16130

    XU Feng, WANG Haipeng, and JIN Yaqiu. Deep learning as applied in SAR target recognition and terrain classification[J]. Journal of Radars, 2017, 6(2): 136–148. doi: 10.12000/JR16130
    [14] JIN Kan, CHEN Yilun, XU Bin, et al. A patch-to-pixel convolutional neural network for small ship detection with PolSAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(9): 6623–6638. doi: 10.1109/TGRS.2020.2978268
    [15] DETONE D, MALISIEWICZ T, and RABINOVICH A. Deep image homography estimation[J]. arXiv: 1606.03798, 2016.
    [16] ROCCO I, ARANDJELOVIC R, and SIVIC J. Convolutional neural network architecture for geometric matching[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 41(11): 2553–2567. doi: 10.1109/TPAMI.2018.2865351
    [17] BALAKRISHNAN G, ZHAO A, SABUNCU M R, et al. VoxelMorph: A learning framework for deformable medical image registration[J]. IEEE Transactions on Medical Imaging, 2019, 38(8): 1788–1800. doi: 10.1109/TMI.2019.2897538
    [18] ROCCO I, CIMPOI M, ARANDJELOVIĆ R, et al. Neighbourhood consensus networks[C]. Advances in Neural Information Processing Systems 31, Montréal, Canada, 2018: 1651–1662.
    [19] ROCCO I, ARANDJELOVIĆ R, and SIVIC J. Efficient neighbourhood consensus networks via submanifold sparse convolutions[J]. arXiv: 2004.10566, 2020.
    [20] HUANG Gao, LIU Zhuang, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 4700–4708.
    [21] CHOY C, GWAK J Y, and SAVARESE S. 4D Spatio-temporal Convnets: Minkowski convolutional neural networks[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 3075–3084.
    [22] YANG Yi and RAMANAN D. Articulated human detection with flexible mixtures of parts[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 35(12): 2878–2890. doi: 10.1109/TPAMI.2012.261
    [23] 魏天华. 基于多核DSP的加速SAR-SIFT算法并行计算设计[D]. [硕士论文], 西安电子科技大学, 2020.

    WEI Tianhua. Parallel calculation of speed-up SAR-SIFT algorithm based on multi-score DSP[D]. [Master dissertation], Xidian University, 2020.
  • 期刊类型引用(7)

    1. 项德良,丁怀跃,管冬冬,程建达,孙晓坤. 结合极化白化滤波和SimSD-CapsuleNet的PolSAR图像配准. 测绘学报. 2024(03): 450-462 . 百度学术
    2. 仇晓兰,罗一通,宋舒洁,彭凌霄,程遥,颜千程,上官松涛,焦泽坤,张柘,丁赤飚. 微波视觉三维SAR实验系统及其全极化数据处理方法. 雷达学报. 2024(05): 941-954 . 本站查看
    3. 唐固城,谢丽芳,刘烜. 基于InSAR复数影像配准方法研究综述. 北京测绘. 2023(01): 1-7 . 百度学术
    4. 申亮,金添,黄晓涛. 结合形状信息的SAR图像特征匹配方法. 信号处理. 2023(02): 252-262 . 百度学术
    5. 王伟,陈颖,王嘉浩,张文成,李先静,张祺. 基于注意力和特征融合的光学遥感图像配准. 激光杂志. 2023(05): 174-181 . 百度学术
    6. 张永显,马国锐,訾栓紧,门行. 多源遥感影像学习型特征双向一致性配准. 测绘学报. 2023(11): 1906-1916 . 百度学术
    7. 王洪淼,杨健,殷君君. 基于Wishart梯度和SIFT方法的极化SAR图像配准. 中国科学:信息科学. 2022(04): 687-699 . 百度学术

    其他类型引用(3)

  • 加载中
图(11) / 表(4)
计量
  • 文章访问数: 2536
  • HTML全文浏览量: 811
  • PDF下载量: 246
  • 被引次数: 10
出版历程
  • 收稿日期:  2020-08-29
  • 修回日期:  2020-11-05
  • 网络出版日期:  2021-02-25

目录

/

返回文章
返回