A Novel Approach to Change Detection in SAR Images with CNN Classification
-
摘要:
该文提出了一种基于卷积神经网络(CNN)及有效图像预处理的合成孔径雷达(SAR)图像变化检测方法。为了验证方法的有效性,以2011年日本仙台地区地震导致的城区变化为例进行了研究。在预处理中分别利用DEM模型以及Otsu方法对SAR图像中的山体和水体进行了提取和去除。利用多层卷积神经网络从SAR图像中自动学习目标特征,再利用学习到的特征对图像进行分类。训练集和测试集的分类精度分别达到了98.25%和97.86%。利用图像差值法得到分类后的SAR图像变化检测结果,并验证了该方法的准确性和有效性。另外,文中给出了基于CNN的变化检测方法和传统方法的对比结果。结果表明,相对于传统方法,基于CNN的变化检测方法具有更高的检测精度。
Abstract:This paper presents a novel Synthetic Aperture Radar (SAR)-image-change-detection method, which integrates effective-image preprocessing and Convolutional Neural Network (CNN) classification. To validate the efficiency of the proposed method, two SAR images of the same devastated region obtained by TerraSAR-X before and after the 2011 Tohoku earthquake are investigated. During image preprocessing, the image backgrounds such as mountains and water bodies are extracted and removed using Digital Elevation Model (DEM) model and Otsu’s thresholding method. A CNN is employed to automatically extract hierarchical feature representation from the data. The SAR image is then classified with the theoretically obtained features. The classification accuracies of the training and testing datasets are 98.25% and 97.86%, respectively. The changed areas between two SAR images are detected using image difference method. The accuracy and efficiency of the proposed method are validated. In addition, with other traditional methods as comparison, this paper presents change-detection results using the proposed method. Results show that the proposed method has higher accuracy in comparison with traditional change-detection methods.
-
1. 引言
分布式多雷达系统节点多、分布广,为了适应复杂战场动态作战需求,需要根据作战任务动态组织各个站点的工作,提高整个系统抗干扰、抗截获、抗摧毁等能力。实际中,受各雷达节点工作参数及相对目标的位置等因素的影响,不同节点观测目标获得的信息量不同,为此,如何根据战场态势,动态优化选择雷达站点“匹配”目标跟踪,是一个重要问题。
目标跟踪理论是基于状态空间模型的递推结构,利用所有已知信息来求得目标状态变量的后验概率密度。即使用目标运动状态方程预测目标状态的先验概率,再利用最新时刻的雷达观测值来修正,得到状态的后验概率密度。传统多雷达跟踪通常使用所有雷达进行目标跟踪[1,2],研究的重点在于融合结构和融合算法[1,2],在传感器优化选取方面研究较少,目前,主要有基于目标预测的误差协方差矩阵[3,4]和信息增益[5]这两类优化准则的方法。第1类方法主要思想是依据目标跟踪的实际误差协方差矩阵与预设的期望协方差矩阵之间的差别进行雷达节点选择,使实际协方差矩阵在某种意义上逼近期望协方差矩阵;第2类方法主要思想是通过一个测量行为执行前后信息熵的减少求得信息增量,然后根据使信息增量最大的准则对传感器资源进行科学合理的分配。然而,第1类方法,实际中目标跟踪误差协方差矩阵的变化是相对缓慢的,灵敏度并不高,因此选择标准的精度不高;第2类方法仅是基于单部雷达的跟踪效果进行雷达的选取,并不能适用于雷达组合的选择。
本文提出了使用信息熵定量度量由多雷达联合观测获得的目标的信息量,并给出了该信息量的下界。以此为基础,本文提出基于信息熵的雷达动态自适应选择跟踪方法,该方法通过最小化观测信息熵下界,实时选择信息量高的多个雷达节点进行目标跟踪,从而避免使用信息量低或无信息量的雷达量测。最后,仿真结果表明提出方法的跟踪效果优于任意选择雷达跟踪的平均效果。
本文结构如下。第2节建立了多雷达跟踪目标的状态空间模型。第3节给出了多雷达观测信息熵的定量度量方法及其下界,进而理论推导了雷达动态自适应选择跟踪方法。第4节仿真对比了不同跟踪方法的效果。第5节为结束语。
2. 问题描述
在目标跟踪中,通常使用动态空间模型对目标的运动状态进行描述,包括状态方程和量测方程。其中,状态方程描述了目标运动状态随时间演变的过程,量测方程描述了雷达观测与目标状态的关系。其中,目标运动的状态方程为:
X(k)=f(X(k−1))+V(k) (1) 其中,X(k)为k时刻目标的状态,f为状态转移函数,V(k)为零均值、协方差矩阵为Q(k)的白色高斯过程噪声序列。
雷达通常在2维或3维极坐标系中获得观测值,而目标运动则是在直角坐标系中描述[3,4]。假设目标运动在2维平面,雷达在极坐标系下获得探测目标的观测值。针对任意的多雷达探测系统构型,并且不失一般性,考虑各雷达自发自收的情况,k时刻第n部雷达的观测向量记为Zn(k)=[rn(k) an(k)]T。其中,rn(k)为第n部雷达与目标之间的径向距离,an(k)为第n部雷达与目标之间的方位角。由N部雷达组成的多雷达系统形成的观测集合Z(k)={Z1(k) Z2(k) ··· ZN(k)},对应的观测方程为:
Zn(k)=hn(X(k))+Wn(k),n=1,2,···,N (2) 其中,hn(X(k))为观测函数,具体计算方程为:
hn(X(k))=[√(x(k)−xr,n)2+(y(k)−yr,n)2arctan[(y(k)−yr,n)/(x(k)−xr,n)]] (3) 其中,(x(k) y(k))为k时刻目标在直角坐标系中的位置,(
xr,n ,yr,n )为第n部接收雷达的直角坐标位置。并且,xr,n 为位置的横坐标,yr,n 为位置的纵坐标。Wn(k)为与过程噪声不相关的测量噪声,Wn(k)= [wrn(k) wan(k)]T ,测距噪声wrn(k) 和方位角测角噪声wan(k) 是均值为零、标准差分别为σrn 和σan 的统计独立的高斯白噪声,其中σrn 表征了第n部雷达径向距离测量值误差的波动大小,σan 表征了第n部雷达方位角测量值误差的波动大小。相应的观测协方差矩阵
Rn(k) 为:Rn(k)=E(Wn(k)Wn(k)T)=[(σrn)200(σan)2] (4) 基于上述目标状态方程和观测方法,通常使用所有雷达进行目标跟踪,然而实际中不同雷达观测目标获得的信息量不同,有高有低,甚至有些雷达没有观测到任何目标信息,为此,需要从这些雷达中选择出信息含量高的雷达进行目标跟踪,提高目标跟踪效果。
3. 基于信息熵的多雷达节点自适应选择跟踪
3.1 多雷达联合观测信息熵及其下界
由N部雷达组成的多雷达系统的观测量可以表示为
r=[rn]1×N ,a=[an]1×N ,每个观测量为:rn=Rn+wrn (5) an=An+wan (6) 其中,
Rn , An分别为目标相对于第n部雷达的真实距离和角度,并且雷达n的目标距离观测噪声wrn∼N(0,(σrn)2) ,测角噪声wan∼N(0,(σan)2) 。在N部雷达构成的多雷达系统极坐标观测的条件下,目标直角坐标位置估计协方差矩阵记为:
RN,xy=E[(x−ˆx)(x−ˆx)(x−ˆx)(y−ˆy)(x−ˆx)(y−ˆy)(y−ˆy)(y−ˆy)] (7) 多雷达观测是为了更多更准确地获得目标位置信息,将由多雷达的极坐标系观测获得目标直角坐标位置的信息量,定义为多雷达联合观测信息熵,根据信息论原理,推导得N部雷达观测信息熵为:
HN(x,y|r,a)=12ln((2πe)N|RN,xy|) (8) 根据参数估计理论[6],由式(8)可知,多雷达联合观测信息熵下界为:
HN(x,y|r,a)≥12ln((2πe)N|I−1N(x,y|r,a)|) (9) 其中,
IN(x,y|r,a) 为Fisher信息矩阵。根据参数估计理论[6],式(9)中Fisher信息矩阵可以写为:\begin{align} &\!\!\!{{{{I}}}\!_N}\left( {x,y|{{{r}}},{{{a}}}} \right) \!\\[ &\!\!\! =\!\! \left[\!\!\!\! {\begin{array}{*{20}{c}} { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {x^2}}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial y\partial x}}} \right]}\\ { - {\mathbb{E}} \left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial x\partial y}}} \right]} { - {\mathbb{E}}\left[ {\frac{{{\partial ^2}\ln {f\!_N}\left( {{{{r}}},{{{a}}}} \right)}}{{\partial {y^2}}}} \right]} \end{array}} \!\!\!\right] \end{align} (10) 其中,fN(r, a)为由N部自发自收雷达组成的多雷达系统观测的联合概率密度函数。假设各个观测值独立不相关,那么根据式(5),式(6)中各个雷达观测服从的概率分布可知,联合概率密度函数fN(r, a)为:
fN(r,a)=N∏n=11√2πσrnexp(−|rn−Rn|22(σrn)2)⋅1√2πσanexp(−|an−An|22(σan)2) (11) 由式(9)、式(10)及式(11)可知,在目标距离雷达站较远时,影响多雷达极坐标量测的信息熵下界的因素包括各雷达站与目标距离、方位角,以及各雷达站的测距精度和测角精度。
3.2 基于信息熵的多雷达联合跟踪方法描述
根据贝叶斯理论可知目标跟踪主要过程为,首先使用目标运动状态方程进行预测,获得目标状态的先验信息,然后再结合最新时刻的观测值来更新预测值,获得目标状态的后验概率密度,这样后验概率密度就包含了先验信息和观测在内的所有可利用信息,获得目标状态估计结果。因而,目标跟踪过程可理解为:后验=先验+观测,这表示调节观测会影响目标状态估计结果。
本文提出的基于信息熵的雷达节点自适应选择跟踪方法通过使用信息含量高的雷达节点而不是全部雷达节点进行目标跟踪,从而避免使用信息含量少甚至没有目标信息的雷达,有效提高目标跟踪效果。本文提出的方法在确定要选择的雷达站数目的情况下,通过最小化多雷达观测信息熵下界对每个时刻的雷达编号进行选择,然后使用所选取的信息量高的雷达对目标进行联合跟踪,从而获得较高的目标跟踪精度。
不失一般性,假设多雷达系统中共N部雷达,并且自发自收,在目标k时刻多雷达联合跟踪获得的目标状态估计值为
ˆX(k|k) ,P(k|k) ,那么由k时刻递推到k+1时刻目标状态估计的过程描述如下。•多雷达的选择
在k+1时刻的多个观测量中找出那些具有大的信息量的观测,利用这些观测量来更有效地提高目标跟踪精度。本文以信息熵下界最小,每个时刻自适应从多雷达观测信息熵中选出数值最小的两部(或多部)雷达编号,然后用于目标跟踪。
假设所选雷达站个数为N0(N0<N),那么计算N部雷达中任意N0部雷达的观测信息熵下界,形成
CN0N 个观测信息熵结果,进而选取具有最小观测信息熵下界的N0部雷达的编号集ˆΘ ,用这一编号集中的雷达进行多雷达站联合跟踪。为此,由式(9)可得雷达编号集为:ˆΘ=argminΘ12ln((2πe)N0|I−1N0(x,y|r,a)|) (12) 由于函数ln(·)单调递增,式(12)中
ˆΘ 的求解等价为:ˆΘ=argmaxΘ|IN0(x,y|r,a)| (13) 其中,
IN0 (x, y|r, a)为N0部雷达观测获得目标位置状态估计的Fisher信息矩阵,其求解过程与3.1节中的求N部雷达的类似,仅需要将式(11)中的N部雷达观测的联合概率密度函数替换为N0部雷达观测的联合概率密度函数,其表示为:fN0(rN0,aN0)=∏n∈Θ1√2πσrne(−|rn−Rn|22(σrn)2)⋅1√2πσane(−|an−An|22(σan)2) (14) 式中,
rN0,aN0 分别为N0部雷达距离和方位角观测集,Θ 为N部雷达中任意N0部雷达组成的集合,共有CN0N 个。其余参数含义同3.1节。目前的多雷达融合跟踪算法都与融合结构密切相关,融合结构大致分成3大类:集中式、分布式和混合式[7]。集中式融合也称为中心式融合(centralized fusion)或量测融合(measurement fusion)。分布式融合(distributed fusion)是各传感器都具有自己的局部处理器,能够形成局部航迹,所以在融合中心也主要是对各局部航迹进行融合,所以这种融合方法通常也称为航迹融合(track fusion)。混合式融合(hybrid fusion)是集中式结构和分布式结构的一种综合,融合中心得到的可能是原始量测数据,也可能是局部节点处理过的数据。
在选择完所用的雷达编号后,可采用这3种融合结构的任何一种进行目标融合跟踪,本文以航迹级融合为例,主要步骤包括使用上一时刻目标融合的位置状态估计对时刻k+1目标状态进行预测,然后使用所选择雷达分别对k+1时刻目标状态进行更新,最后对所选取的雷达的k+1时刻目标状态估计进行融合,获得目标k+1时刻状态估计结果。更为具体的算法描述如下。
•目标状态预测
从最优贝叶斯跟踪滤波的角度来看,在获得k时刻的观测值之前,根据目标运动状态转移模型,目标状态预测实现先验概率
p(X(k)|Z1:k) 到p(X(k+1)|Z1:k) 的求解[8]。假设在k–1时刻,p(X(k)|Z1:k) 是已知的,那么,对于1阶马尔可夫过程(即该时刻的状态仅与上一时刻的状态值有关,而与之前所有时刻的状态值无关),由Chapman- Kolmogorov方程可知p(X(k+1)|Z1:k)=∫p(X(k+1)|X(k))⋅p(X(k)|Z1:k)dX(k) (15) 其中,
p(X(k+1)|X(k)) 为目标状态转移概率,Z1:k 表示从1到k时刻观测量的集合,即Z1:k= {Z(1),Z(2),···,Z(k)} 。根据目标运动方程,可得式(15)中的目标状态转移概率为:p(X(k+1)|X(k))=N(X(k+1);f(X(k)),Q(k)) (16) 式中,
N(X(k+1);f(X(k)),Q(k)) 表示均值为f(X(k)) ,协方差矩阵为Q(k) 的高斯分布。上述最优贝叶斯跟踪下的目标状态预测过程的具体实现可以采用转换量测卡尔曼滤波(CMKF)、基于泰勒展开式的扩展卡尔曼滤波[9–11](Extended Kalman Filter, EKF),不敏卡尔曼滤波[12](Unscented Kalman Filter, UKF),粒子滤波[13](PF)等滤波方法中的目标状态预测过程。以EKF预测方法为例,目标状态的一步预测为:
ˆX(k+1|k)=f(ˆX(k|k)) (17) 相应地,状态误差协方差矩阵的一步预测为:
P(k+1|k)=fX(k)P(k|k)fTX(k)+Q(k) (18) 其中,fX(k)为目标状态转移函数关于
ˆXn (k|k)的雅可比矩阵,Q(k)为白色高斯过程噪声序列的协方差矩阵。•目标状态更新
从最优贝叶斯跟踪滤波的角度来看,目标状态更新是在获得k+1时刻的观测值后,实现先验概率
p(X(k+1)|Z1:k) 至后验概率p(X(k+1)|Z1:k+1) 的推导。根据贝叶斯定理可知p(X(k+1)|Z1:k+1)=p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)∫p(Z(k+1)|X(k+1))p(X(k+1)|Z1:k)dX(k+1) (19) 其中,根据跟踪滤波的雷达观测模型,式(19)中的似然函数
p(Z(k+1)|X(k+1)) 表达式为:p(Z(k+1)|X(k+1))=N(Z(k+1);h(X(k+1)),R(k+1)) (20) 式中,N(Z(k+1); h(X(k+1)), R(k+1))表示均值为h(X(k+1)),协方差矩阵为R(k+1)的高斯分布。
同样地,上述最优贝叶斯跟踪下的目标状态更新过程的具体实现可以采用CMKF, EKF, UKF, PF等滤波方法中的目标状态更新过程。本文以EKF目标状态更新过程为例进行描述。
将k+1时刻多雷达观测中的每部雷达观测分别代入滤波中的状态更新,得到对应每部雷达观测的多个目标状态更新值,并将使用第n部雷达观测得到的k+1时刻目标状态更新值记作
ˆX n(k+1|k+1), Pn(k+1|k+1)。具体过程如下:由目标跟踪的状态空间方程中的观测方程,可得观测值和观测新息协方差矩阵预测为:
ˆZn(k+1|k)=hn(ˆX(k+1|k)) (21) Sn(k+1|k)=hn,X(k+1)Pn(k+1|k)⋅hTn,X(k+1)+Rn(k+1) (22) 其中,
hn,X(k+1) 为量测函数关于ˆX n(k+1|k)的雅可比矩阵,即hn,X(k+1)=[∇XhTn(X(k+1))]TX=ˆX(k+1|k)=[x(k+1|k)r(k+1|k)0y(k+1|k)r(k+1|k)0y(k+1|k)(r(k+1|k))20x(k+1|k)(r(k+1|k))20]X=ˆX(k+1|k) (23) EKF滤波方法的增益为:
Pn,XZ=Pn(k+1|k)hn,X(k+1) (24) Kn(k+1)=Pn,XZSn(k+1|k)−1 (25) 空间目标状态和协方差矩阵的更新值分别为:
ˆXn(k+1|k+1)=ˆX(k+1|k)+Kn(k+1)⋅[Zn(k+1)−ˆZn(k+1|k)] (26) Pn(k+1|k+1)=[I−Kn(k+1)hn,X(k+1)]⋅P(k+1|k)[I+Kn(k+1)hn,X(k+1)]T−Kn(k+1)Rn(k+1)KTn(k+1) (27) 其中,I为4阶单位矩阵,其余变量的含义如上。经由以上步骤,得到了目标在k+1时刻的使用雷达n观测的状态估计
ˆXn (k+1|k+1)及状态协方差矩阵Pn(k+1|k+1)。•多雷达跟踪航迹融合
将选出的N0部雷达的目标状态更新结果进行融合,得到最后的目标状态融合结果作为k+1时刻目标状态估计值。设选择的融合雷达编号集合为
Ω ,并且采用广义凸组合融合1(Generalized Convex Combination 1, GCC1),有时也称为简单凸组合融合(Simple Convex Combination, SCC)[1,2,14],得到的融合结果为:ˆX(k+1|k+1)=P(k+1|k+1)⋅∑n∈ΩP−1n(k+1|k+1)ˆXn(k+1|k+1) (28) P(k+1|k+1)=(∑n∈ΩP−1n(k+1|k+1))−1 (29) 重复以上步骤直至跟踪结束,便可得到利用雷达观测信息熵下界自适应选择雷达节点,实现目标跟踪的整个过程。
4. 仿真分析
4.1 参数设置
在目标跟踪中,航迹精度是对跟踪滤波算法性能进行评估的重要指标。航迹精度体现了不同滤波方法对雷达测量误差的平滑程度。概括来讲,航迹精度包括位置精度和速度精度,航迹的位置精度定义为航迹位置估计的均方根误差。目标状态估计的均方根误差越小,滤波器的滤波值与真实值越接近,航迹精度则越高[8]。
第m次蒙特卡诺仿真得到滤波估计误差为:
em(k)=ˆXm(k|k)−X(k) (30) 其中,
ˆX m (k+1|k+1)和X(k)分别为k时刻目标状态的跟踪结果和真实值。目标跟踪位置和速度估计的均方根误差分别为:
RMSEPOS(k)=(1MCMC∑m=1[ˆxm(k|k)−x(k)]2+[ˆym(k|k)−y(k)]2)1/2 (31) \begin{align} {\rm RMSE}_{\rm VEL}\left( k \right) =& \left( \frac{1}{{\rm MC}}\sum\limits_{m = 1}^{\rm MC} {{\left[ {v{{\hat x}_m}\left( {k|k} \right) - vx\left( k \right)} \right]}^2} \right. \\ & + \left. {{\left[ {v{{\hat y}_m}\left( {k|k} \right) - vy\left( k \right)} \right]}^2} \Biggr\right)^{1/2} \end{align} (32) 其中,向量
(ˆxm ˆym ˆzm) 和(x y z) 分别为目标在k时刻的位置估计值和真实值,向量(vˆxm vˆym vˆzm) 和(vx vy vz) 分别为目标在k时刻的速度估计值和真实值,下标m表示第m次蒙特卡诺仿真,MC为总的蒙特卡诺仿真次数,本文设置为200,并且各部雷达的测距和测角误差方差分别为σ2r=25 m2 ,σ2θ= 0.0003 rad2。假设在多雷达系统中共有4部雷达,它们在直角坐标系中的位置为:雷达1为(0, 0)、雷达2为(20000, 0) m、雷达3为(20000, 0) m和雷达4为(1000, 20000) m。设置的4部雷达站位置与目标航迹如图1所示。其中,目标运动时间为40 s,运动间隔为1 s,并在前26 s时间内目标做匀速直线运动,在26 s时目标进行了转弯,然后进行匀速直线运动,目标运动方向如图中箭头所示。
4.2 仿真与分析
为了仿真验证提出的方法,需要从场景中的4部雷达选择信息含量高的N0部雷达进行跟踪,而此个数在实际的多目标多任务复杂跟踪场景,需要进行合理设置。本文从验证提出的方法的角度出发,可以将N0进行人为设置。不失一般性,设计N0=2,即从4部雷达选出联合信息量最多的2部雷达进行联合跟踪。根据3.2节中雷达优化选择方法,可知不同时刻跟踪选择的雷达站编号如图2所示。
将基于联合信息量最大选出的两部雷达进行融合跟踪的方法记为“基于信息熵的联合跟踪”;将不采用信息量最大选择出的任意两部雷达跟踪的效果的平均记为“传统联合跟踪”。对比单部雷达跟踪、不采用和采用信息熵的联合跟踪效果,结果如图3和图4所示。
由图3和图4可知,采用基于两部联合信息量最大选出的雷达进行融合跟踪,得到的位置精度和速度精度最好,其次是不采用基于信息熵的任意两部雷达融合跟踪的平均效果,而单雷达跟踪效果最差。
5. 结束语
为了满足现代复杂战场动态作战需求,针对单雷达站信息量少跟踪精度不高,而多雷达系统中不同雷达、不同时刻获得目标信息量的多少不同的问题,提出一种基于信息熵的雷达动态自适应选择跟踪方法。该方法使用信息熵定量刻画了由多雷达极坐标观测获得目标直角坐标位置的信息量,并给出了其下界。进而,通过最小化雷达观测目标的信息熵下界,理论推导了每个时刻实时最优化选取目标信息含量高的雷达站进行跟踪的方法,具有良好的目标跟踪效果。
-
表 1 几种变化检测方法精度对比
Table 1. Accuracy comparison of several change detection methods
方法 检测率(%) 虚警率(%) 总误差率(%) Kappa系数 基于CNN的方法 93.93 6.09 9.69 0.91 Log-ratio方法 93.68 36.62 29.29 0.90 PCA方法 86.62 10.92 20.11 0.84 MRF方法 88.36 14.65 20.06 0.85 -
[1] Cumming I G and Wong F H. Digital Processing of Synthetic Aperture Radar Data: Algorithms and Implementation[M]. Norwood, MA: Artech House, 2005. [2] Wikipedia. 2011 Tohoku earthquake and tsunami[OL]. http://en.wikipedia.org/wiki/2011_Tohoku_earthquake_ and_tsunami. [3] Chini M, Pacifici F, Emery W, et al. Comparing statistical and neural network methods applied to very high resolution satellite images showing changes in man-made structures at rocky flats[J]. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46(6): 1812–1821. DOI: 10.1109/TGRS.2008.916223. [4] Liao P S, Chen T S, and Chung P C. A fast algorithm for multilevel thresholding[J]. Journal of Information Science and Engineering, 2001, 17(5): 713–727. [5] Bovolo F and Bruzzone L. A detail-preserving scale-driven approach to change detection in multitemporal SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2005, 43(12): 2963–2972. DOI: 10.1109/TGRS.2005.857987. [6] Celik T. Unsupervised change detection in satellite images using principal component analysis and k-means clustering[J]. IEEE Geoscience and Remote Sensing Letters, 2009, 6(4): 772–776. DOI: 10.1109/LGRS.2009.2025059. [7] 杨祥立, 徐德伟, 黄平平, 等. 融合相干/非相干信息的高分辨率SAR图像变化检测[J]. 雷达学报, 2015, 4(5): 582–590. doi: 10.12000/JR15073Yang Xiang-li, Xu De-wei, Huang Ping-ping, et al. Change detection of high resolution SAR images by the fusion of coherent/incoherent information[J]. Journal of Radars, 2015, 4(5): 582–590. DOI: 10.12000/JR15073. [8] Wu Ke, Zhong Yan-fei, Wang Xian-min, et al. A novel approach to subpixel land-cover change detection based on a supervised back-propagation neural network for remotely sensed images with different resolutions[J].IEEE Geoscience and Remote Sensing Letters, 2017, 14(10): 1750–1754. DOI: 10.1109/LGRS.2017.2733558. [9] Feng Wen-qing, Sui Hai-gang, and Tu Ji-hui. Object-oriented change detection for remote sensing images based on multi-scale fusion[C]. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume XLI-B7, 2016: 483–491. DOI: 10.5194/isprs-archives-XLI-B7-483-2016. [10] Yu Wen-juan, Zhou Wei-qi, Qian Yu-guo, et al. A new approach for land cover classification and change analysis: Integrating backdating and an object-based method[J]. Remote Sensing of Environment, 2016, 177: 37–47. DOI: 10.1016/j.rse.2016.02.030. [11] Blaschke T. Object based image analysis for remote sensing[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2010, 65(1): 2–16. DOI: 10.1016/j.isprsjprs.2009.06.004. [12] Wu Chen, Du Bo, Cui Xiao-hui, et al. A post-classification change detection method based on iterative slow feature analysis and Bayesian soft fusion[J]. Remote Sensing of Environment, 2017, 199: 241–255. DOI: 10.1016/j.rse.2017.07.009. [13] 田壮壮, 占荣辉, 胡杰民, 等. 基于卷积神经网络的SAR图像目标识别研究[J]. 雷达学报, 2016, 5(3): 320–325. doi: 10.12000/JR16037Tian Zhuang-zhuang, Zhan Rong-hui, Hu Jie-min, et al. SAR ATR based on convolutional neural network[J]. Journal of Radars, 2016, 5(3): 320–325. DOI: 10.12000/JR16037. [14] Wei X, Huang P P, Wang R, et al. Processing of multichannel sliding spotlight and TOPS synthetic aperture radar data[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(8): 4417–4429. DOI: 10.1109/TGRS.2013.2265306. [15] Simonyan K and Zisserman A. Very deep convolutional networks for large-scale image recognition[R]. International Conference on Learning Representations (ICLR), San Diego, CA, America, May, 2015. [16] 杜康宁, 邓云凯, 王宇, 等. 基于多层神经网络的中分辨SAR图像时间序列建筑区域提取[J]. 雷达学报, 2016, 5(4): 410–418. doi: 10.12000/JR16060Du Kangning, Deng Yunkai, Wang Yu, et al. Medium resolution SAR image time-series built-up area extraction based on multilayer neural network[J]. Journal of Radars, 2016, 5(4): 410–418. DOI: 10.12000/JR16060. [17] Sezgin, M and Sankur B. Survey over image thresholding techniques and quantitative performance evaluation[J]. Journal of Electronic Imaging, 2004, 13(1): 146–165. DOI: 10.1117/1.1631315. [18] Glorot X, Bordes A, and Bengio Y. Deep sparse rectifier neural networks[C]. 14th International Conference on Artificial Intelligence and Statistics, Fort Lauderdale, USA, 2011: 315–323. [19] Ioffe S and Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[C]. 32nd International Conference on Machine Learning, Lille, France, 2015: 448–456. [20] Kingma D P and Ba J. Adam: A method for stochastic optimization[C]. 3rd International Conference for Learning Representations, San Diego, arXiv: 1412.6980, 2015. [21] Goodfellow I, Bengio Y, and Courville A. Deep Learning[OL]. 2016. http://www.deeplearningbook.org/. [22] ©ZKI/DLR. 2011. Earthquake and Tsunami in Japan[OL]. http://www.zki.dlr.de/article/1893. [23] Okajima Y, Yoshikawa K, and Shibayama T. Recent experiences utilizing TerraSAR-X for the monitoring of natural disasters in different parts of the world[C]. 2011 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Vancouver, BC, Canada, July, 2011: 4296–4299. DOI: 10.1109/IGARSS.2011.6050181. [24] Dumitru C O, Cui S Y, Faur D, et al. Data analytics for rapid mapping: Case study of a flooding event in Germany and the tsunami in Japan using very high resolution SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(1): 114–129. DOI: 10.1109/JSTARS.2014.2320777. [25] Bruzzone L and Prieto D F. Automatic analysis of the difference image for unsupervised change detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2000, 38(3): 1171–1182. DOI: 10.1109/36.843009. -