-
摘要: 由于洪灾区域的地物散射特性受环境影响会发生改变,在对该区域合成孔径雷达(SAR)图像进行变化检测时会使检测结果的错误率提高,而且用单一方法得到的差异图变化检测结果精度较低。针对上述问题,该文提出一种基于融合差异图的变化检测方法,该方法通过构造基于改进相对熵与均值比的融合差异图,综合了熵值差异图的区域敏感性和均值差异图的区域保持性的优势。首先,利用皮尔逊相关系数对模糊局部信息C均值聚类(FLICM)方法的初始聚类结果进行二次分类,再将二次分类结果作为图像初始分割,最后利用迭代条件模型和马尔科夫随机场(ICM-MRF)获得图像的最终分割结果。为了验证所提方法的有效性,该文使用瑞士Bern地区在1999年4月和5月的ERS-2遥感数据以及加拿大Ottawa地区在1997年5月和8月的Radarsat遥感数据进行实验,并用该方法对中国鄱阳湖地区2020年6月和7月的Sentinel-1-A遥感数据进行了洪灾检测实验,估计了鄱阳湖附近区域洪灾前后的受灾范围和变化趋势。实验结果表明该文算法总体检测误差较低,一定程度上降低了检测结果的错误率,提高了检测结果的精度。
-
关键词:
- SAR图像 /
- 变化检测 /
- 无监督 /
- 改进相对熵 /
- 迭代条件模型和马尔科夫随机场
Abstract: Due to the influence of the environment on the scattering characteristics of ground objects in flooded areas, the false error rate of the detection results increases when performing change detection on Synthetic Aperture Radar (SAR) images of these areas, which reduces the accuracy of the results obtained for the difference map. To solve this problem, in this paper, we propose a change-detection method based on a fusion difference map. This method combines the regional sensitivity of the entropy difference map with the regional retention of the mean difference map to construct a fusion difference map based on an improved relative entropy and mean value ratio. First, the initial clustering results of the fuzzy local information C-means clustering method are classified by their Pearson correlation coefficients, and second, the secondary classification results are used for the initial image segmentation. Third, the final segmentation results are obtained using the iterative condition model and Markov random field. To verify the flood-disaster-detection performance of the proposed method, we used the second of Europe Remote-Sensing (ERS-2) Satellite data obtained for the Bern area in Switzerland in April and May 1999 and Radarsat remote-sensing data for the Ottawa region in Canada in May and August 1997. We also applied the proposed method to data obtained for the Poyang Lake region of China in June and July 2020, and estimated the disaster area and change trend before and after the flood in Poyang Lake. The experimental results show that the algorithm had a low overall detection error, the false error rate of the detection results were somewhat reduced, and the accuracy of the detection results was improved. -
1. 引言
合成孔径雷达(Synthetic Aperture Radar, SAR)可对地面区域进行大面积的主动微波成像,能够实现全天时、全天候对地观测,在军事领域和民用领域得到广泛应用。近年来,随着SAR系统和成像算法逐渐成熟,越来越多高质量的SAR图像出现,如何对SAR图像进行准确高效的目标检测是现在研究热点之一。
目前传统的SAR目标检测方法大都围绕经典的恒虚警率(Constant False Alarm Rate, CFAR)算法展开研究,这是一种基于灰度特征的传统SAR目标检测方法。其中双参数CFAR方法[1,2]是一种经典的局部自适应目标检测方法。该方法通过预设滑动窗口遍历SAR图像实现目标检测,对窗口内像素灰度与自适应阈值进行对比以区分目标和杂波。自适应阈值由预先设置的恒定虚警率和窗口中的杂波分布确定。文献[3]提出了一种基于双边微调统计的CFAR检测方法,该方法提出了一种基于双边阈值的策略,自动裁剪窗口内的样本来剔除异常值,提高了在海洋场景下的检测性能。此类方法需要SAR图像中目标与杂波具有较高对比度来拟合杂波的统计分布,因此只适用于简单场景,当场景较为复杂时,会造成检测性能的降低。
近年来,在光学领域,由于网络深度的增加以及计算能力的不断提高[4],基于深度学习的目标检测方法[5-9]开始占据主流,取得了不错的效果。鉴于深度学习在光学图像目标检测领域的成功,研究者也将深度学习运用在SAR目标检测当中[10]。基于深度学习的SAR检测方法相较于浅层模型方法特征提取能力强、对于复杂SAR图像场景的检测效果好。文献[11]将低层纹理、边缘特征与高层深度特征进行融合,提高了SAR舰船目标的检测性能。目前一些基于深度学习的SAR目标检测方法是由基于区域的卷积神经网络(Region-CNN, R-CNN)结合候选区域来设计的两阶段检测方法。文献[12]使用多分辨率卷积特征,基于Faster R-CNN方法,对原有的卷积神经网络VGG-16的结构进行改进,提升了对小型目标的检测效果。文献[13]在Faster R-CNN算法基础上,使用SAR分类数据集对网络进行预训练并扩充训练数据,解决了SAR目标检测训练样本不足的问题。此类方法在对区域候选网络(Region Proposal Network, RPN)产生的大量候选框进行挑选时,往往采用非极大值抑制(Non-Maximum Suppression, NMS)方法。在大场景SAR图像检测中,由于目标特征易受杂波影响,可鉴别性更差,并且单个目标占据图像比例更小,导致基于Faster R-CNN的目标检测方法在整张特征图上产生的候选框会包含大量杂波,而NMS方法无法在筛选候选框时有效去除杂波,导致目标检测产生大量虚警。
近几年,在人工智能领域中,强化学习[14,15]得到了广泛关注。强化学习根据当前自身状态(State)并结合策略(Policy)做出相应的动作(Action),通过与外界的交互获得不同的奖励(Reward)来不断更新自身的状态并调整策略,最终形成解决某一问题的最优策略。将具有解译能力的深度学习与具有决策能力的强化学习结合而形成的深度强化学习,可以更好地与其他基于深度学习算法相结合,应用在目标检测[16-18]中以提高检测性能。在光学领域,文献[16]根据当前收集到的图像信息,使用强化学习从5个预定义的固定形状和尺寸的候选区域中选择最有可能包含目标的区域,并通过迭代不断缩小候选区域,最终框定目标。但由于预设的候选区域并不能完全覆盖所有目标,此方法精度较低。
受强化学习启发,本文基于Faster R-CNN检测模型[7],设计了新的强化学习模型实现自适应候选框挑选,有效减少冗余候选框数量。提出方法在RPN与感兴趣区域(Regions-of-Interest, RoI)池化层之间加入深度强化学习网络,对于RPN产生的大量初始候选框,深度强化学习网络综合相关信息进行迭代搜索,在特征图上不断找到可能含有目标的搜索区域,并挑选搜索区域内的候选框输入后续的检测器进行分类、回归,实现对搜索区域内的目标检测。由于深度强化学习网络是基于循环神经网络(Recurrent Neural Network, RNN)设计的,因此可以在迭代过程中捕捉到图像的上下文信息并确定可能含有目标的搜索区域的位置坐标。并且,本方法在强化学习中对产生的搜索区域尺寸添加距离约束,使得搜索区域尺寸可以根据之前迭代过程中的搜索区域以及目标检测结果进行自适应调整。针对大场景SAR图像中目标数量较多,分布情况较为复杂且易受杂波影响的特点,提出方法通过使用强化学习自适应确定搜索区域实现了对初始候选框的自适应挑选,提升了对背景杂波的鉴别能力并减少传统强化学习应用于检测问题的计算量。所提方法自适应确定搜索区域的能力包括两方面的自适应,一是通过综合利用图像的特征信息和上下文信息自适应确定搜索区域的位置坐标;二是通过搜索区域尺寸约束自适应调整下一次搜索区域的范围尺寸。基于实测数据的实验结果表明,所提方法能够有效减少SAR目标检测的虚警数量,提升传统深度学习目标检测方法的检测性能。
2. 背景介绍
2.1 Faster R-CNN
Faster R-CNN[7]是目前比较常用的目标检测框架,用RPN来获取区域候选。如图1所示,Faster R-CNN的结构可以分为4个主要部分:特征提取网络、RPN、RoI池化层以及检测器。其中,特征提取网络由卷积层、激活函数和池化层组成,用于提取输入图像的特征映射作为输出。后续的RPN和检测器将使用输出的特征映射完成候选框的生成以及分类、回归,实现卷积共享。RPN在特征图中每个点上设置k个锚框,对每个锚框进行二分类和初步位置修正并使用NMS算法进行候选框筛选作为初始的候选框;RoI池化层则负责收集原始的特征图和候选框,将其整合后提取出候选框对应位置的特征映射;最后输入检测器中进行目标分类和边界框的位置修订。
2.2 强化学习
强化学习的过程通常可以用图2中的马尔可夫决策过程[14](Markov Decision Process, MDP)来描述:智能体(agent)在环境当中,拥有其对当前环境感知的状态量S;通过策略
π:S→A 从动作集A中选择动作a∈A ,根据动作的不同,环境出现基于一定概率的改变并更新状态量S;在状态发生变化的同时,环境会根据状态变化通过奖励函数给予智能体相应的奖励r。这样智能体在与环境交换信息的过程中,依据得到的奖励来不断调整策略,最终得到最优策略。智能体能够与环境进行交互,每个状态是智能体对当前环境的感知,并且智能体只能通过动作来影响环境,而策略能够指导智能体在当前状态下做出何种动作,可以将其表示为一个由状态到动作的映射。奖励是在当前环境状态下,对智能体所进行动作的即时评价,这个评价也是策略优化的主要依据,可以表示为奖励函数的形式。当智能体做出一个带来较低奖励的动作时,当下次遇到相同的环境状态时,调整过的策略就可能会选择其他的动作来争取获得更高的奖励。强化学习的目标可以确定为:学习一个最优策略,来最大化期望累计奖励。因此,设置合适的状态、动作以及奖励函数,是强化学习获得最优策略的关键。
3. 结合强化学习的SAR目标检测方法
3.1 总体框架
本方法基于传统Faster R-CNN方法,整体框架如图3所示。除深度强化学习网络之外,其余各部分与Faster R-CNN模型相似。特征提取网络采用VGG-16,尺寸为
hori×wori×3 的输入SAR图像在经过特征提取后生成h×w×512 的特征图,h和w与输入图像的尺寸有关。在获取特征图后,RPN会在特征图的每个像素点上生成k(本文设置k=9 )个锚框,并通过softmax二分类器和回归器获得更精确的初始候选框,初始候选框将构成深度强化学习网络输入的一部分。对于RPN生成的大量初始候选框,我们使用深度强化学习网络进行区域搜索实现对初始候选框的挑选,将可能含有目标的候选框送入RoI池化层进行整合。RoI池化层会将挑选出来的候选框对应位置的特征映射划分为7×7 的网格,并对每一个网格进行最大值池化处理,以输出固定尺寸的特征向量。这些特征向量将被送入检测器,通过全连接层和softmax计算候选框的具体类别,输出类别概率预测向量,同时利用边界框回归,获取更准确的检测目标框。其中深度强化学习网络采用循环神经网络实现,此网络可以在特征图上找到一个可能含有目标的区域,并将该区域内的候选框送入后续的检测器进行分类回归,然后根据检测结果再找到另一个可能含有目标的区域,继续将该区域内的候选框送入检测器,如此迭代,完成候选框的自适应挑选。深度强化学习网络部分参考基于卷积门控循环单元[19](Convolutional Gated Recurrent Unit, Conv-GRU)进行设计。Conv-GRU作为一种计算需求相对较低的循环神经网络,对网络输入输出具有记忆能力,能够捕捉迭代过程中的依赖关系,是能够实现深度强化学习的网络之一。Conv-GRU智能体的方程式如下:
Ot=σ[Wso∗St+Who∗Ht−1+bo] (1) ˜Ht=Wsh∗St+Whh∗(Ot⊙Ht−1)+bh] (2) Zt=σ[Wsz∗St+Whz∗Ht−1+bz] (3) Ht=(1−Zt)⊙Ht−1+Zt⊙tanh[˜Ht] (4) ˜At=ReLU[Wh˜a∗Ht+b˜a] (5) At=tanh[W~aa∗˜At+ba] (6) 其中,
∗ 表示卷积乘法,☉表示Hadamard乘积,权重和偏差分别表示为W和b,所有输入和输出的空间尺寸是h×w 。Ot 为重置门,决定如何将新的输入信息与之前的记忆信息相结合。Zt 为更新门,用于控制记忆信息的保留程度。˜Ht 为候选隐藏状态,包含了当前时刻的输入信息和上一时刻保留的信息。Ht 为最终的隐藏状态,通过更新门决定如何组合过去的隐藏状态和当前的候选隐藏状态。在第t次迭代时到达Conv-GRU的输入是强化学习的状态量St 和上一次迭代输出的隐藏状态Ht−1 ,其中状态量由图像特征和RPN输出组成,Conv-GRU可根据图像信息来进行候选区域搜索。输出是对应两个动作的动作量At ,分别决定是否进行候选区域搜索以及搜索区域的位置和尺寸。深度强化学习可基于Conv-GRU调整策略,完成状态到动作的映射。网络可训练的参数部分包括特征提取网络部分、RPN部分、检测器部分以及深度强化学习部分。
3.2 结合强化学习的候选框挑选方法
下面详细介绍如何利用深度强化学习网络进行区域搜索来实现候选框的自适应挑选。在训练阶段,第t次迭代时,智能体根据当前状态和策略决定是否终止搜索。如果搜索没有停止,就执行固定动作
aft 自动获得新的搜索区域的位置zt 和尺寸参数pt ;RoI观测量Rt 在以zt 为中心的搜索区域中被更新,搜索区域内所有由RPN生成的初始候选框均被发送到ROI池化层,然后在检测器中进行分类和边界框回归预测。根据训练数据的标注与预测结果计算奖励r及检测结果更新强化学习基本状态量St 。基于新状态,在第t+1次迭代时采取新操作,并重复该过程直到发出停止搜索动作adt ,然后收集整个搜索轨迹中的预测结果并计算总的累积奖励∑r 。训练的目标即为累积奖励的最大化,并据此不断优化策略,最终得到最优策略πθ(at|st) ,具体优化方法在3.2.3节中描述。而在测试过程中,搜索策略将被固定,在第t次迭代时,智能体根据当前状态st 和已经训练好的策略πθ(at|st) 决定是否搜索以及搜索区域的位置及尺寸,然后选择候选框送入后续检测部分并更新相应的状态量。基于新状态,在第t+1次迭代时采取新操作,并重复该过程直到发出停止搜索动作adt ,最后收集整个搜索轨迹中的预测结果。算法1展示了强化学习自适应候选框挑选测试过程的伪代码。下面分别介绍状态、动作以及奖励函数的具体设置。算法 1 自适应候选框挑选方法 Alg. 1 Adaptive region proposal selection 输入:状态st={Rt,St,Ht},最大迭代次数为M=10 输出:搜索区域中心坐标和范围参数{zt,pt} 1:初始化状态量st={Rt−1,St−1,Ht} 2:for t=1→M do //t表示迭代次数 3: if (π(adt=1|st)>η) then //η为概率阈值,取0.5 4: break //结束迭代搜索 5: else 6: zt⇐maxπ(adt=0, aft=zt|st) 7: pt⇐zt,zt−1 //计算搜索区域中心坐标和范围 8: end if 9: 输出zt,pt // 挑选候选框并送入后续检测器部分进行检测 10: Rt⇐Rt−1, St⇐St−1 //更新状态Rt, St 11:end for 3.2.1 状态
状态量
st 是一个数组,包含3部分:st=(Rt,St,Ht) ,其中Rt∈{0,1}h×w×k 是RoI观测量,St∈Rh×w×(d+2k+N+1) 是基本状态量,而Ht∈Rh×w×300 是Conv-GRU的隐藏状态,d为VGG-16的输出特征维度,N是要检测对象类别的数量。RoI观测量
Rt 是一个大小为h×w×k 的二元量,其中当相应候选框在搜索区域内时,对应的坐标(i,j,l) 值为1,然后转入到网络的RoI池化和检测器部分进行分类。Rt 初始为全零量。在固定动作aft 之后,固定位置zt 相邻区域的一部分Rt 将被更新,模型将在此区域内使用RPN输出的全部初始候选框进行目标检测。这个相邻区域设置为一个以zt 为中心的矩形区域,区域的边长可以进行自适应的调整。将此矩形区域内对应的所有Rt 项设置为1,表示此区域内的候选框已经被探测过了。基础状态量
St 包括V1t∈Rh×w×d ,V2t∈Rh×w×k ,V3t∈Rh×w×k 和V4t∈Rh×w×(N+1) 。将V10 设置为与输入RPN相同的基本特征映射,将V20 设置为RPN的二分类量。 RPN的回归量被用于V3t ,V30 设置为[0,1]归一化偏移量[Δx1,Δy1,Δx2,Δy2] 。V2t 和V3t 分别对应着特征图每个像素位置上预设的k个anchor的二分类和回归结果。当某一位置在之前的迭代过程中被访问后,使用Rt 更新这些量,将V1t ,V2t 和V3t 中的对应位置设置为–1,表示这些位置已被访问过,这样有利于强化学习在下一次迭代过程中对输入状态量的分析,也有利于强化学习策略的训练,防止在重复的位置上多次进行搜索。V4t 表示候选框检测结果的历史记录,将V40 设置为0。强化学习网络执行固定动作获得搜索区域后,将区域内的所有候选框送入检测器进行分类预测,然后使用NMS对已分类的候选框进行筛选。对筛选后的候选框进行边界框回归预测,并将输出结果即最终检测框的中心坐标和类别概率向量记录在V4t 的相应空间位置,作为下一次迭代过程的输入状态之一。这样做可以为强化学习提供之前迭代过程中的检测结果历史信息,有利于强化学习的决策。3.2.2 动作
动作分为两种类型,分别对应于
At 的两个通道:固定动作aft 和停止动作adt 。停止动作是二值的,其中adt=1 对应于终止搜索。如果adt=0 ,则执行固定动作aft=(zt,pt) ,其中zt 是下一个搜索区域的中心坐标,pt 为下一个搜索区域的尺寸参数,可结合特征图尺寸进一步确定搜索区域尺寸。下面将描述随机策略πθ 如何对动作进行选择。随机策略
πθ(at|st) 使用At 进行动作的选择。令At 中的双通道分别表示为代表停止动作的Adt 和代表固定动作的Aft 两个层。将停止层Adt 调整为向量dt∈R625 。然后,计算出终止于状态st 概率为πθ(adt=1|st)=σ[wTddt+t] (7) 其中,
wTd 是可训练的权重向量的转置。对于固定动作,使用softmax函数,将固定层
Aft 转换为概率映射ˆAft 。在智能体没有执行停止动作的情况下,固定动作选择位置z(t)=(i,j) 的概率为ˆAft[zt] 。因此,在状态st 下搜索区域的中心坐标为z(t) 的概率可以表示为πθ(adt=0,aft=zt|st)=(1−σ[wTddt+t])ˆAft[zt] (8) 同时,为了确定搜索区域尺寸,我们设计了一种新的基于距离的约束。该约束能够通过迭代过程中搜索区域位置的变化,自动调整搜索区域的尺寸,在准确搜索到含有目标区域的同时减少传统强化学习的计算量。具体来说:模型利用本次迭代中选择的中心坐标
z(t) 与上一次迭代选择的中心坐标z(t−1) 对搜索区域尺寸进行调整,形成参数pt 来确定搜索区域尺寸。参数pt 的取值区间为(0,1],计算方法如下:pt={2Δ−ht−1h0,Δ<h0+ht−121,Δ≥h0+ht−12 (9) 其中,
Δ=|z(t)−z(t−1)| 为两次搜索区域中心之间的距离,h0 和w0 为初始搜索区域尺寸(设h<w ),与输入图像宽高比相同,ht−1 和wt−1 为t−1 次迭代时的搜索区域尺寸。第t次迭代时的搜索区域尺寸计算方式如下:ht=h0×pt (10) wt=w0×pt (11) 此设置可实现在两次迭代过程中,当搜索区域之间距离较远时,搜索尺寸扩大;当搜索区域之间距离较近时,搜索尺寸缩小,减少搜索区域的重叠,提高搜索效率。
3.2.3 奖励
深度强化学习网络产生的搜索策略在搜索候选框时,应在保证较高交并比(Intersection over Union, IoU)的同时,尽量减少候选框的数量。这样可以在减少虚警(false positive)数量的同时,节约处理时间。奖励函数以此为标准进行设定。
将奖励函数分为固定动作奖励和停止动作奖励部分。其中,对于固定动作,其奖励函数由两部分组成:第1部分为每次执行固定动作都将获得的较小的负奖励
−β (经过实验β 设置为0.075);第2部分为智能体执行固定动作时获得的正奖励,这个正奖励与在当前图像的任何真实标注数据(ground truth)gi 的IoU相关,即如果固定动作在当前图像与任何gi 的IoU增加了,智能体都会获得正向奖励。对于每个标注数据gi ,设置IoUi 为在过去0, 1, ···, t–1次迭代过程中产生的最大的IoU值,并且在t=0 时,IoUi=0 。当t≥1 时,设置IoUit 为在第t次迭代过程中,对于每个标注数据gi 所产生的最大IoU值。并检查是否满足IoUit>IoUi≥τ 。其中,依据数据集PASCAL VOC的正阈值设置τ=0.5 。如果满足上述情况,将对相应的标注数据gi 给出正向奖励(IoUit−IoUi)/(IoUit−IoUi)IoUimaxIoUimax 并在之后更新IoUi=IoUit 。此处,IoUimax 指的是对于第i个标注数据gi ,在所有可能区域内获得的最大IoU值(即最终预测的关于标注数据gi 的真实IoU值)。综上所述,在第t次迭代时给出的固定动作奖励为rft={−β+∑iI[gi:IoUit>IoUi≥τ]IoUit−IoUiIoUimax,pt<1−β+maxIoU≥τIoU−IoUiIoUimax,pt=1 (12) 其中,当
pt<1 时,表示强化学习网络认为在上次迭代中搜索区域的附近目标分布较密集,因此使用对多目标奖励较高的函数形式;而当pt=1 ,搜索区域距离较远时,则使用对单目标奖励较高的函数形式。对于停止动作,在搜索终止后,智能体会受到一个能够反映搜索轨迹质量的最终奖励:
rdt=∑iI[gi:IoUimax≥τ]IoUi−IoUimaxIoUimax (13) 其中,
IoUi 经过更新,已经成为关于标注数据gi 在整个搜索迭代过程中所产生的最大IoU值。如果gi 没有被最大限度覆盖,则会给予智能体一个随着IoUi 减小而不断增大的负的奖励值。并且,如果gi 已经被最大限度的覆盖了,即IoUi=IoUimax 的时候,本次停止动作的奖励值将变为0。在训练过程中通过累积奖励最大化来优化策略,结合REINFORCE[20]方法进行梯度更新,使用50条搜索轨迹来逼近真实梯度,并使用Adam[21]优化器来更新策略参数。
3.3 训练
整个模型需要训练的参数可分为两部分:一部分是原始Faster R-CNN部分的参数,包括特征提取网络、RPN和检测器部分参数;另一部分是强化学习搜索策略部分的参数。两部分参数采用交替训练的方式进行优化:当强化学习部分参数进行更新后(此时原始Faster R-CNN部分参数保持不变),模型将固定强化学习部分参数并使用该强化学习策略进行自适应候选框挑选,挑选出的候选框将被送入后续检测器进行目标分类和回归,并以此来更新Faster R-CNN部分的参数。模型通过两部分参数交替更新,反复迭代至收敛。
4. 实验与分析
首先对实验所用数据集及评价准则进行介绍,然后与传统Faster R-CNN及其相关改进方法进行对比分析,对提出的创新点进行实验验证,证明所提方法的有效性。实验平台为Ubuntu系统,代码基于Tensorflow编写。训练方面,本方法采用经过预训练的VGG-16网络对Faster R-CNN的共享卷积层部分进行参数初始化;其他网络层则使用零均值、标准差为0.01的高斯分布进行参数随机初始化。
4.1 实验设置
4.1.1 实验数据集介绍
本文使用MiniSAR数据集[22]进行实验,该数据集是美国桑迪亚实验室在2006年公开的SAR图像数据集,包含复杂场景的SAR实测图像数据。在本文实验中,共使用9幅SAR图像(7幅用于训练,2幅用于测试),设置车辆为感兴趣目标。在此数据集中,由于图像的尺寸过大,无法直接输入网络。因此,首先将数据集中的原始图像裁剪成许多大小为300像素×300像素的子图像,并使用这些子图像进行网络训练。与训练类似,在测试过程中通过滑动窗口,将原始的测试图像也裁剪为大小为300像素×300像素的子图像,滑动窗口的步长设置为200像素。对测试子图像进行检测后,再将检测结果恢复到原始大图中。在恢复过程中,我们对子图像中的检测结果进行NMS删除重复数据,以获得最终结果。
4.1.2 评价准则
实验选择F1-score和接收机性能(Receiver Operating Characteristic, ROC)曲线作为检测性能的评价准则。F1-score的计算公式如下:
P=TPTP + FP (14) R=TPTP + FN (15) F1-score=2PRP+R (16) 其中,TP (True Positives)是检测结果中正确的目标个数,FP (False Positives)为虚警,是检测结果中错误的目标个数,FN (False Negatives)是漏警,是未检测到的目标个数,P (Precision)是准确率,R (Recall)是召回率。
ROC曲线的绘制参考文献[23],曲线描述了真阳率(True Positive Rate, TPR)和假阳率(False Positive Rate, FPR)之间的关系。TPR和FPR的计算公式如下:
TPR=TPTP + FN (17) FPR=FPFP + TN (18) ROC曲线和坐标轴下的面积(Area Under Curve, AUC)用于辅助ROC评估。通常,AUC越大,性能越好。
4.2 检测结果分析
表1对比了不同方法的实验结果,其中Gaussian-CFAR表示文献[13]中的方法;Faster R-CNN方法基于文献[7];SSD方法使用文献[24];Faster R-CNN+CBAM在Faster R-CNN中加入通道注意力和空间注意力模块[25]聚焦重要特征来辅助检测;本文方法-尺寸固定表示只使用强化学习确定搜索区域位置,而搜索区域的尺寸不能自适应变化,生成固定尺寸(
h0×w0 )的搜索区域来完成候选框挑选,本文中取h0=hori×0.25 ,w0=wori×0.25 。表 1 不同方法实验结果Table 1. Experimental results of different methods方法 P R F1-score Gaussian-CFAR 0.3789 0.7966 0.5135 Faster R-CNN 0.8156 0.9268 0.8677 SSD 0.8451 0.9106 0.8750 Faster R-CNN+CBAM 0.8409 0.9268 0.8818 本文方法-尺寸固定 0.8369 0.9350 0.8832 本文方法 0.8686 0.9350 0.9006 从表1可以看出,Gaussian-CFAR的F1-score非常低,因为此方法仅使用SAR图像本身的对比度等信息进行检测,需要拟合杂波分布,只适用于简单场景,当场景较为复杂时,会产生大量虚警,造成检测性能的降低。而传统Faster R-CNN方法虽然检测效果好于Gaussian-CFAR,但在深度学习相关方法中F1-score最低,主要原因为虚警很多,很多背景杂波被误判为目标,导致检测的准确率降低;SSD方法则通过使用多尺度特征进行预测,相较于传统Faster R-CNN方法虚警明显减少,获得了不错的性能;Faster R-CNN+CBAM方法在添加了注意力模块之后,能够让网络更加关注目标区域,相较于传统Faster R-CNN方法准确率有所提升,虚警明显减少;本文方法相较于其他方法,在准确率和召回率上都有一定提升,尤其在减少虚警方面,相较于其他方法提升明显;当搜索区域尺寸固定时,本文方法则实现了与Faster R-CNN+CBAM相似的检测结果,相较于传统Faster R-CNN方法的F1-score有一定提升,但由于无法自适应确定搜索区域尺寸,准确率相比本文原始方法有所下降。本文方法的F1-score相较于传统Faster R-CNN方法提升了0.0329,准确率提升了0.0530。因此,本文方法通过强化学习进行区域搜索来实现对候选框的自适应挑选,可以有效减少虚警,提升检测性能。
图4展示了各种方法的ROC曲线和相应的AUC值,由于CFAR检测效果相比于深度学习方法差距较大,研究价值不高,因此只对深度学习相关方法进行了ROC曲线刻画。我们以检测结果中的每一个边界框为对象,设置IoU阈值来判断边界框是否检测到正确目标,并根据其分类得分由高到低进行排序,通过依次将每个边界框划分为正例,来计算不同的TPR和FPR值,最终得到完整的ROC曲线。从中可以发现本文所提方法可以在保持较低FPR的同时获得较高的TPR,因此也获得了最高的AUC值,检测性能最好。
图5分别展示了上述4种方法在MiniSAR数据集上两张图像的测试结果:图中绿色框表示检测正确的目标,红色框表示检测错误的目标(虚警),蓝色框表示未检测到的目标(漏警)。由图5可知,在复杂背景杂波的大场景SAR图像中,传统Faster R-CNN方法检测结果虚警较多;本文方法的检测结果中虚警最少,检测效果最好,并且在目标数量较多,排布较密集且有一定规律时,能实现目标的精确检测。
所提方法检测效果较好的原因主要有两方面:第一,采用深度强化学习网络确定搜索区域对候选框进行自适应挑选,能够对RPN生成的大量初始候选框进行鉴别,剔除其中的大量虚警框;第二,实验所使用数据集中的部分车辆目标分布和排列存在一定规律,本文方法能够在强化学习训练过程中学习这些规律,并在迭代搜索过程中保存这些上下文信息,获得更好的检测效果。我们计算了每张训练图像在训练过程中
pt=1 所占比例来进行实验验证。在使用强化学习确定搜索区域时,pt=1 表示本次迭代确定的搜索区域与上一次迭代确定的搜索区域之间距离较远,pt<1 则表示本次迭代确定的搜索区域在上一次迭代确定的搜索区域附近。因此,如果pt=1 所占比例较小,则说明搜索区域分布较为集中,图像中的目标数量较多且分布密集;如果pt=1 所占比例较大,则说明搜索区域较为分散,图像中的目标数量较少且分布稀疏。以图6中两张训练图像样本为例进行分析,图中白色框为固定动作所产生的搜索区域,左上角数字为区域的生成顺序。图6(a)中目标较少,因此强化学习只执行了3次搜索动作,搜索区域较为分散,pt 值全部为1;而图6(b)中由于目标数量较多、分布密集且排列整齐,因此强化学习共执行了7次搜索动作,且在目标密集分布的区域多次生成搜索区域,pt=1 所占比例为0.33,相比于图6(a)pt=1 所占比例明显减小。这说明,强化学习能够学习到目标分布的规律性并应用于检测:在检测目标较少、分布稀疏的图像时,强化学习生成的搜索区域也较为分散,可以在较少搜索次数内准确找到目标所在区域;而在检测目标密集分布的图像时,强化学习则会在目标密集分布的区域多次生成搜索区域来检测出该区域内的全部目标。4.3 搜索区域对检测的影响
为了研究搜索区域对检测的影响,我们对强化学习的搜索过程进行了分析,并与不使用搜索区域的Faster R-CNN方法进行了对比。
图7展示了测试图像的强化学习可视化搜索过程。图7(a)为原始图像,图7(b)—图7(e)展示了本文方法的迭代搜索过程。其中,白色边框为固定动作所产生的搜索区域,左上角数字为区域的生成顺序,其中心位置坐标和尺寸确定方法与3.2节所述相同;绿色边框则表示已检测到目标的边界框。注意白色边框表示所挑选初始候选框中心点的区域集合,而绿色边框为经过回归的最终目标边界框,因此白色边框并不一定完全包裹目标和绿色边框。
图7(b)表示在强化学习第1次迭代过程中,策略执行固定动作确定的搜索区域,之后中心点在搜索区域内的候选框将被挑选并送入后续的检测器部分。图7(c)展示了在搜索区域内检测到的两个目标。图7(d)表示在强化学习第2次迭代过程中,策略执行固定动作确定的搜索区域,由于距离约束的作用,该次搜索区域尺寸进行自适应调整,较上次迭代有所减小,减少了区域内初始候选框数量,在能够检测到目标的同时,降低了强化学习部分的计算量。图7(e)展示了在搜索区域内检测到的所有目标。两次迭代后,强化学习策略判断SAR图像内全部目标已经检测完成,停止迭代,完成检测流程。
由图7可视化搜索过程可知,强化学习通过训练得到的策略,能够让搜索区域更靠近待检测目标。在迭代搜索过程中,除了利用图像的特征信息进行决策外,深度强化学习网络还能够记录之前迭代步骤中产生的上下文信息,通过上下文信息进行不同搜索区域之间的信息交换,帮助决策,能够有效减少杂波对检测器的干扰,提高检测的准确性。
为了进一步分析搜索区域对检测的影响,我们分别对不使用搜索区域的Faster R-CNN方法和可以自适应确定搜索区域的本文方法的RoI分布进行了对比。图8展示了两种方法产生的RoI分布对比。图8(a)为待检测的原始图像,图8(b)为传统Faster R-CNN产生的RoI分布,图中高亮区域为RoI的中心位置。图8(c)为传统Faster R-CNN的检测结果,绿色框表示检测正确的目标,红色框表示虚警。图8(d)为本文方法产生的RoI分布,图中白框为强化学习产生的搜索区域,所生成RoI的中心位置均在白框之内。图8(e)为本文方法的检测结果。结合图8(b)和图8(d)可以发现,相较于传统的Faster R-CNN方法,经过本文方法的处理,RoI会更集中地产生在目标附近,因图片边缘和复杂背景杂波而产生的RoI大量减少。
结合表1的检测结果及RoI分布可以分析,Faster R-CNN方法由于采用NMS法对RPN在整张特征图上产生的大量初始候选框进行处理,会导致SAR图像的边缘和难鉴别的背景杂波位置生成大量RoI,从而造成检测结果中出现较多虚警。而所提方法则依靠强化学习策略及深度强化学习网络积累的上下文信息来确定含有目标的搜索区域,并且只在搜索区域内生成RoI,能够让RoI尽可能集中在目标周围,有效减少图片边缘及复杂背景杂波导致的虚警,获得较好的检测效果。
4.4 运行时间分析
运算速度也是衡量目标检测算法性能的重要指标之一,本节对Gaussian-CFAR, Faster R-CNN, Faster R-CNN+CBAM, SSD以及所提方法的运行时间进行比较分析,并分别对所提方法采用固定的搜索区域尺寸、自适应搜索区域尺寸进行实验,我们取所有测试图像的平均测试时间作为单张图片的测试时间,结果如图9所示。
由图9可知,Gaussian-CFAR无论在运算速度还是准确率方面与其他方法均具有较大差距。SSD和Faster R-CNN方法的检测速度较快,但F1-score与其他基于深度学习方法相比较低;添加CBAM注意力模块后,在检测速度略有降低的同时,提升了检测精度;对于本文方法,当采用人工设置的固定的搜索区域尺寸(
h0×w0 )时,本文方法的检测速度会降低,这是由于在两次强化学习迭代过程中,当搜索区域尺寸设置较大时,如果两次搜索区域较近,会造成搜索区域的重叠,增加计算量;而当搜索区域尺寸设置较小时,又会造成检测区域过小,需要强化学习迭代更多轮次来找到所有目标。并且,不合理的尺寸设定也会对检测精度造成影响。因此,本文方法在强化学习迭代过程中通过自适应调整搜索区域的尺寸,获得了最高的F1-score,能够在保证较高检测精度的同时,提高检测速度。5. 结语
本文针对SAR目标检测任务,结合强化学习方法对Faster R-CNN模型进行改进,提出新的候选框挑选方法来解决传统Faster R-CNN模型在检测过程中易受SAR图像复杂背景杂波影响而产生大量虚警的问题。本文所提方法利用强化学习序列决策的特点,对大场景SAR图像中可能含有目标的区域进行迭代搜索,通过强化学习策略确定搜索区域的位置坐标和尺寸,最终实现对大量初始候选框的自适应挑选。实验结果表明,所提方法能够找到含有待检测目标的区域,提升对复杂背景杂波的鉴别能力,有效减少虚警。除此之外,通过在强化学习内部添加距离约束,对搜索区域尺寸进行自适应调整,能够在进一步提高检测性能的同时,提高运算速度。与其他主流目标检测方法进行对比实验,结果表明本文方法能够在增加较少运算量的同时,大幅提升SAR目标检测精度。
-
表 1 基于融合差异图的ICM-MRF图像分割计算过程
Table 1. ICM-MRF image segmentation calculation process based on fusion difference map
输入:构造的融合差异图 Y 开始 (1) 将差融合差异图以FLICM算法分为3类(变化类、未变化类、
待定类);(2) 计算变化类、未变化类、待定区域的相关系数均值; (3) 根据待定区域相关系数从属规则分类得到初始标签图; While(设置初始迭代条件) (4) 估计初始标签下分布下的类均值 μ1, μ2,类方差 σ21, σ22; (5) 计算特征场能量 U(Y|X),计算标记场能量 U(X); (6) 计算似然能量函数 U(X|Y); (7) 通过 U(X|Y)最小,计算2类分割结果; (8) 是否满足迭代条件,若满足则输出变化检测图像,若不满足,
则转到(4)继续执行;输出:变化检测结果 表 2 Bern数据集不同差异图不同算法变化检测指标分析
Table 2. Analysis of change detection indicators of different algorithms in Bern dataset
方法 FP (%) OE (%) PCC (%) Kappa系数 A B C A B C A B C A B C EM 0.003 1.400 1.670 0.600 1.830 1.990 99.400 98.170 98.010 0.662 0.468 0.480 K-means 0.001 0.015 0.101 1.100 0.740 0.500 98.900 99.260 99.500 0.277 0.614 0.774 FLICM 0.001 0.001 0.060 1.040 0.780 0.450 98.960 99.220 99.550 0.676 0.549 0.793 ICM-MRF 0.360 0.110 0.171 0.520 0.500 0.400 99.480 99.500 99.600 0.807 0.777 0.837 表 3 Ottawa数据集不同差异图不同算法变化检测指标分析
Table 3. Analysis of change detection indicators of different algorithms in Ottawa dataset
方法 FP (%) OE (%) PCC (%) Kappa系数 A B C A B C A B C A B C EM 55.560 6.453 0.462 55.570 8.760 3.240 44.430 91.240 96.760 0.140 0.702 0.871 K-means 57.367 1.230 5.290 58.310 5.910 6.440 42.690 94.090 93.560 0.106 0.756 0.781 FLICM 4.440 0.110 0.260 4.530 5.180 3.690 95.470 94.820 96.310 0.847 0.777 0.849 ICM-MRF 3.000 0.110 0.160 3.300 4.790 3.050 96.700 95.210 96.950 0.884 0.796 0.877 表 4 鄱阳湖区域变化检测结果量化分析
Table 4. Quantitative analysis of the detection results of Poyang Lake area change
日期 变化像素数 总占比率(%) 受灾面积(km2) 6月26日—7月8日 12589 1.94 743.37 7月8日—7月20日 5475 0.84 323.29 -
[1] KRISHNA VANAMA V S and RAO Y S. Change detection based flood mapping of 2015 flood event of Chennai city using Sentinel-1 SAR images[C]. IGARSS 2019–2019 IEEE International Geoscience and Remote Sensing Symposium, Yokohama, Japan, 2019: 9729–9732. doi: 10.1109/IGARSS.2019.8899282. [2] HOU Biao, WEI Qian, ZHENG Yaoguo, et al. Unsupervised change detection in SAR image based on gauss-log ratio image fusion and compressed projection[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(8): 3297–3317. doi: 10.1109/JSTARS.2014.2328344 [3] ZHOU Licun, CAO Guo, LI Yupeng, et al. Change detection based on conditional random field with region connection constraints in high-resolution remote sensing images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(8): 3478–3488. doi: 10.1109/JSTARS.2016.2514610 [4] JIA Lu, LI Ming, ZHANG Peng, et al. SAR image change detection based on correlation kernel and multistage extreme learning machine[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(10): 5993–6006. doi: 10.1109/TGRS.2016.2578438 [5] NAJAFI A, HASANLOU M, and AKBARI V. Land cover changes detection in polarimetric SAR data using algebra, similarity and distance based methods[J]. International Archives of the Photogrammetry,Remote Sensing and Spatial Information Sciences, 2017, XLII-4/W4: 195–200. doi: 10.5194/isprs-archives-XLII-4-W4-195-2017 [6] GONG Maoguo, CAO Yu, and WU Qiaodi. A neighborhood-based ratio approach for change detection in SAR images[J]. IEEE Geoscience and Remote Sensing Letters, 2012, 9(2): 307–311. doi: 10.1109/LGRS.2011.2167211 [7] ZHENG Yaoguo, ZHANG Xiangrong, HOU Biao, et al. Using combined difference image and k-means clustering for SAR image change detection[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(3): 691–695. doi: 10.1109/LGRS.2013.2275738 [8] INGLADA J and MERCIER G. A new statistical similarity measure for change detection in multitemporal SAR images and its extension to multiscale change analysis[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(5): 1432–1445. doi: 10.1109/TGRS.2007.893568 [9] JIA Meng, HUO Lina, and ZHANG Runzhao. An unsupervised change detection based on automatic relationship analysis[C]. The 2019 14th IEEE Conference on Industrial Electronics and Applications (ICIEA), Xi’an, China, 2019. doi: 10.1109/ICIEA.2019.8833683. [10] WAN Ling, XIANG Yuming, and YOU Hongjian. A cooperative multitemporal segmentation method for SAR and optical images change detection[C]. IGARSS 2019-2019 IEEE International Geoscience and Remote Sensing Symposium, Yokohama, Japan, 2019: 1613–1616. doi: 10.1109/IGARSS.2019.8898866. [11] MA Jingjing, GONG Maoguo, and ZHOU Zhiqiang. Wavelet fusion on ratio images for change detection in SAR images[J]. IEEE Geoscience and Remote Sensing Letters, 2012, 9(6): 1122–1126. doi: 10.1109/LGRS.2012.2191387 [12] AMISSE C, JIJON-PALMA M E, and CENTENO J A S. Mapping extension and magnitude of changes induced by cyclone Idai with multi-temporal Landsat and SAR images[C]. 2020 IEEE Latin American GRSS & ISPRS Remote Sensing Conference (LAGIRS), Santiago, Chile, 2020: 574–578. doi: 10.1109/LAGIRS48042.2020.9165657. [13] 黄平平, 任慧芳, 谭维贤, 等. 基于地基雷达图像的无监督变化检测[J]. 雷达学报, 2020, 9(3): 514–524. doi: 10.12000/JR20004HUANG Pingping, REN Huifang, TAN Weixian, et al. Unsupervised change detection using ground-based radar image[J]. Journal of Radars, 2020, 9(3): 514–524. doi: 10.12000/JR20004 [14] DING Yi, LIU Ming, LI Suju, et al. Mountainous landslide recognition based on gaofen-3 polarimetric SAR imagery[C]. IGARSS 2019-2019 IEEE International Geoscience and Remote Sensing Symposium, Yokohama, Japan, 2019: 9634–9637. doi: 10.1109/IGARSS.2019.8900478. [15] GONG Maoguo, ZHOU Zhiqiang, and MA Jingjing. Change detection in synthetic aperture radar images based on image fusion and fuzzy clustering[J]. IEEE Transactions on Image Processing, 2012, 21(4): 2141–2151. doi: 10.1109/TIP.2011.2170702 [16] HEIDARPOUR SHAHREZAEI I and KIM H C. Fractal analysis and texture classification of high-frequency multiplicative noise in SAR Sea-Ice images based on a transform-domain image decomposition method[J]. IEEE Access, 2020, 8: 40198–40223. doi: 10.1109/ACCESS.2020.2976815 [17] CELIK T and MA Kaikuang. Multitemporal image change detection using undecimated discrete wavelet transform and active contours[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(2): 706–716. doi: 10.1109/TGRS.2010.2066979 [18] 李丹, 吴保生, 陈博伟, 等. 基于卫星遥感的水体信息提取研究进展与展望[J]. 清华大学学报: 自然科学版, 2020, 60(2): 147–161. doi: 10.16511/j.cnki.qhdxxb.2019.22.038LI Dan, WU Baosheng, CHEN Bowei, et al. Review of water body information extraction based on satellite remote sensing[J]. Journal of Tsinghua University:Science and Technology, 2020, 60(2): 147–161. doi: 10.16511/j.cnki.qhdxxb.2019.22.038 [19] SUMAIYA M N and SHANTHA SELVA KUMARI R. Logarithmic mean-based thresholding for SAR image change detection[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(11): 1726–1728. doi: 10.1109/LGRS.2016.2606119 [20] ZHANG Xiaohua, CHEN Jiawei, and MENG Hongyun. A novel SAR image change detection based on Graph-Cut and generalized gaussian model[J]. IEEE Geoscience and Remote Sensing Letters, 2013, 10(1): 14–18. doi: 10.1109/LGRS.2012.2189867 [21] LI Mengke, LI Ming, ZHANG Peng, et al. SAR image change detection using PCANet guided by saliency detection[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(3): 402–406. doi: 10.1109/LGRS.2018.2876616 [22] LI Yangyang, PENG Cheng, CHEN Yanqiao, et al. A deep learning method for change detection in Synthetic Aperture Radar images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(8): 5751–5763. doi: 10.1109/TGRS.2019.2901945 [23] 王志豪, 李刚, 蒋骁. 基于光学和SAR遥感图像融合的洪灾区域检测方法[J]. 雷达学报, 2020, 9(3): 539–553. doi: 10.12000/JR19095WANG Zhihao, LI Gang, and JIANG Xiao. Flooded area detection method based on fusion of optical and SAR remote sensing images[J]. Journal of Radars, 2020, 9(3): 539–553. doi: 10.12000/JR19095 [24] CUI Shiyong and LUO Chengfeng. Feature-based non-parametric estimation of kullback-leibler divergence for SAR image change detection[J]. Remote Sensing Letters, 2016, 7(11): 1102–1111. doi: 10.1080/2150704X.2016.1212418 [25] 冷英, 李宁. 一种改进的变化检测方法及其在洪水监测中的应用[J]. 雷达学报, 2017, 6(2): 204–212. doi: 10.12000/JR16139LENG Ying and LI Ning. Improved change detection method for flood monitoring[J]. Journal of Radars, 2017, 6(2): 204–212. doi: 10.12000/JR16139 [26] GIERULL C H. On the statistics of coherence estimators for textured clutter plus noise[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(5): 679–683. doi: 10.1109/LGRS.2017.2671747 [27] KIM J and FESSLER J A. Intensity-based image registration using robust correlation coefficients[J]. IEEE Transactions on Medical Imaging, 2004, 23(11): 1430–1444. doi: 10.1109/TMI.2004.835313 [28] PU Yunchen, XU Qiongcheng, and WANG Wei. Image change detection based on cross-correlation coefficient by using genetic algorithm[C]. 2012 the 1st International Conference on Agro-Geoinformatics, Shanghai, China, 2012. doi: 10.1109/Agro-Geoinformatics.2012.6311693. [29] BRUZZONE L and FERNANDEZ PRIETO D. An MRF approach to unsupervised change detection[C]. 1999 International Conference on Image Processing, Kobe, Japan, 1999: 143–147. doi: 10.1109/ICIP.1999.821583. [30] WANG Guiting, FAN Yuanzhang, and JIAO Licheng. A new change detection method based on non-parametric density estimation and markov random fields[C]. The SPIE 7497, MIPPR 2009: Medical Imaging, Parallel Processing of Images, and Optimization Techniques, Yichang, China, 2009. doi: 10.1117/12.833052. 期刊类型引用(10)
1. 王棨,狄立,张伟剑,刘善峰,王肖,李进田. 基于面向对象的多特征优化SAR影像洪水提取方法. 水电能源科学. 2025(02): 18-22 . 百度学术
2. 金琴,逄博,徐欣. 基于改进差异算子和Gabor_ELM的SAR图像变化检测算法. 计算机应用与软件. 2024(09): 257-264 . 百度学术
3. 庄会富,王鹏,苏亚男,张祥,范洪冬. 基于多源时序SAR数据的涿州洪涝淹没动态监测. 自然资源遥感. 2024(04): 218-228 . 百度学术
4. 王佑芯,陈斌. 基于深度对比网络的印刷缺陷检测方法. 计算机应用. 2023(01): 250-258 . 百度学术
5. 董婷,范婕,邵攀. 顾及不确定性分析的多数投票SAR影像变化检测. 航天返回与遥感. 2023(02): 118-128 . 百度学术
6. 代杰,姜爱辉,董明月,高立群,王志伟. 基于SAR组合差异图的河南省新乡市洪水淹没监测. 遥感技术与应用. 2023(02): 479-486 . 百度学术
7. 范婕,贾付文,武昌东. 基于二级聚类的遥感影像变化检测. 激光杂志. 2023(08): 49-53 . 百度学术
8. 张萌,潘志刚. 基于分层模糊聚类和小波卷积神经网络的SAR图像变化检测算法. 中国科学院大学学报. 2023(05): 637-646 . 百度学术
9. 贾付文,王恒涛,张上. 邻域级和超像素级差异图融合方法. 激光杂志. 2023(11): 67-71 . 百度学术
10. 眭海刚,赵博飞,徐川,周明婷,杜卓童,刘俊怡. 多模态序列遥感影像的洪涝灾害应急信息快速提取. 武汉大学学报(信息科学版). 2021(10): 1441-1449 . 百度学术
其他类型引用(10)
-