River-Net: A Novel Neural Network Model for Extracting River Channel Based on Refined-Lee Kernel
-
摘要: 高精度提取合成孔径雷达(SAR)图像中的河流边界,对河流水势监测具有重要意义。以检测郑州7·20暴雨后黄河的健康状况为实施例,该文融合精致Lee滤波思想与卷积操作的滤波特性,提出了基于河道几何特性的优化内部权值卷积核Refined-Lee Kernel,进而提出了一种新型河道提取深度神经网络模型,即River-Net。为验证所提模型的有效性,该文获取了郑州7·20暴雨前后两景欧空局Sentinel-1卫星20 m分辨率干涉宽幅(IW)影像数据,利用暴雨前的影像对模型进行训练,用于提取暴雨后的黄河河道,分析黄河在暴雨后的涨势情况。实验结果表明,相比主流语义分割模型,所提模型能够更精确地在SAR图像中提取河道,对洪水灾害的检测与评估有重要应用价值。
-
关键词:
- 合成孔径雷达(SAR) /
- Refined-Lee Kernel /
- 精致Lee滤波 /
- 神经网络 /
- 河道提取
Abstract: High-precision extraction of river boundaries in Synthetic Aperture Radar (SAR) images is of great significance in monitoring rivers. In this paper, the detection of the health of the Yellow River after the rainstorm in 20 July, 2021 in Zhengzhou is the focus of this paper. The refined-Lee filtering concept and the filtering characteristics of the convolution operation are combined, and an optimized internal weight convolution kernel Refined-Lee Kernel is proposed according to the geometric characteristics of the river channel. A novel river extraction deep neural network model, the River-Net, is also proposed. To verify the effectiveness of the proposed model, this article utilized 20 m resolution Interferometric Wideswath (IW) image data obtained from the European Space Agency Sentinel-1 satellite before and after the 20 July rainstorm in Zhengzhou, employing the images before the rainstorm to train the model. The model, after training, was used to extract the Yellow River channel and analyze the rise of the river after the rainstorm. Experimental results show that the proposed model can extract river channels from SAR images more accurately than trendy semantic segmentation models. The model has important application value for flood disaster detection and evaluation. -
1. 引言
随着雷达空间探测技术的发展,空间目标的高精度成像处理已成为空间探测任务的重要组成部分。对空间目标的雷达观测成像主要采用地基逆合成孔径雷达(Inverse Synthetic Aperture Radar, ISAR)体制实现,目前,针对低轨目标的成像技术比较完善[1–4],但从空间目标运动特性上进行ISAR成像体制和信号处理方法设计来提升雷达工作性能的研究偏少,需要直接面对若干问题:(1)根据传统雷达方程可知,由于回波信噪比与雷达目标距离4次方成反比关系,目标轨道高度升高将导致单次回波信噪比急剧下降;(2)传统ISAR成像处理通常将目标认为是“完全”非合作目标,ISAR成像体制与信号处理设计均未能紧密结合目标轨道参数。与空中气动目标和海面舰船目标相比,空间轨道目标的运动相对平稳、可预测性强,而且目标姿态通常严格受控,目标相对雷达视线角变化通常可以根据轨道信息精确解算。此外,与合成孔径雷达(SAR)成像类似,ISAR成像过程也是积累多帧脉冲串相干聚焦实现方位成像,方位相干积累增益可有效地提高成像信噪比质量[5]。针对SAR系统中相干积累对成像质量的分析已较为完善[6–8],考虑方位相干积累增益后,条带SAR雷达方程中成像信噪比将与作用距离的3次方成反比,因此SAR体制参数设计与传统雷达方程是有明显差异的。从成像原理上来看,ISAR成像相干积累角也能带来明显增益,但其成像几何较SAR不同,不能直接应用SAR雷达方程的若干结论[9–12]。尤其是在空间目标ISAR成像中,轨道参数对成像质量的影响未有深入分析,大角度成像的方位相干积累增益能否弥补轨道升高带来的回波信噪比降低尚无明确结论。
类比SAR雷达方程,本文结合目标轨道参数推导针对空间目标ISAR成像雷达方程的一般形式,进而分析轨道高度、目标雷达姿态角变化引起的方位相干积累增益变化及其对目标成像质量的影响,得到较为直观的理论来指导ISAR成像体制中发射功率、波形等参数的优化设计。仿真实验就不同轨道高度成像质量进行比较,探究方位向增益与轨道参数间的变化关系及其对成像质量的改善情况,实验结果验证了推导结论的准确性。
本文结构如下:第2节结合天线理论推导ISAR系统成像雷达方程;第3.1节从地基雷达观测几何出发对空间目标角速度这一关键因素进行推导,并利用其计算结果得到空间轨道目标ISAR系统成像雷达方程;第3.2节分析第3.1节中观测模型引起计算误差;第3.3节对得到的空间轨道目标ISAR系统成像雷达方程作出一些定性结论;第4节结合目标轨道信息,利用空间轨道目标ISAR系统成像雷达方程指导定分辨率成像仿真,并对轨道参数引起的成像质量变化分析,验证了推导公式和结论的正确性。
2. 空间目标逆合成孔径雷达成像雷达方程
结合天线理论,对收发共天线的雷达系统,单次回波信号功率与雷达参数和作用距离的关系可由传统雷达方程表示:
S=PG2λ2σTi(4π)3r4η (1) 其中,P为雷达发射机功率,G为天线增益, λ为信号波长, σ为目标的雷达截面积,Ti为相干积累时间,r为雷达作用距离, η为系统损耗。
区别于一般雷达系统,ISAR成像体制具有2维高分辨率,而空间目标尺寸较大。因此,本文针对成像分辨单元信噪比进行成像质量分析,定义目标分辨单元的等效雷达截面积 σ[13]:
σ=σ0ρrρa (2) 其中, σ0为目标归一化后向散射系数, ρr和 ρa分别为目标ISAR成像纵向和横向分辨率且两者大小相当。一般来说,ISAR成像系统的纵向距离分辨率与斜距r无关而仅和发射信号频率带宽相关[9]:
ρr=c2B (3) 其中,c为光速,B为信号带宽。
横向高分辨是通过在相干测量时间内对多帧回波进行多普勒分析获得,与目标雷达视线的相干积累转角直接相关。空间目标在观测过程中姿态平稳,可采用2维转台模型描述其与雷达间的相对运动。假定雷达视线转速为w,相干测量时间为Ti,则相干积累转角 Δθ=wTi,横距分辨率 ρa可计算为:
ρa=λ2Δθ (4) 将式(3)、式(4)带入重写式(1),考虑方位相干积累的ISAR成像目标某分辨单元对应的接收功率可表达为:
S=PG2λ2σ0ρr(4π)3r4η⋅λ2w (5) 由式(5)可见,与SAR成像雷达方程类似,雷达视角(Light Of Sight, LOS)变化速度w,即下文所述的目标相对转台中心转角速度,将直接影响分辨单元的回波功率,决定分辨单元信噪比质量。下面将结合空间轨道目标轨道参数对以上公式进行扩展分析。
3. 空间目标轨道参数对成像雷达方程影响分析
3.1 空间目标转角速度分析
本节将从轨道高度变化引起的空间目标转角速度变化出发对上节得到的空间目标ISAR成像方程进行完善。在分析转角速度变化过程中,还将对关键性的雷达斜距变化进行建模分析,得到定分辨率观测下的雷达方程。
假定空间目标处于近圆轨道,考虑地球自转后,目标的相对平近角点可表示为[14,15]:
n=√μ(Re+h)3/2 (6) 其中,引力常数 μ=3.986×1014(m3/s2),Re为地球半径,h为目标轨道高度。
如图1(a)观测几何所示,单次脉冲周期Δtm后,目标从p点运动至p′点,其运行绝对距离可由几何计算得:
⌢pp′=(Re+h)nΔtm=√μΔtm(Re+h)1/2 (7) 在目标轨道平面内,目标对于观测站点的相对运动如图1(b)所示,雷达站点处于转台原点,运动起点p的雷达斜距为r,运动终点p′的雷达斜距为r′,原点与终点连线上有一斜距为r处p0,由几何关系可知:
r′=r+Δr (8) ⌢pp0=ωΔtmr (9) 考虑空间目标平近点角远小于地球自转、单帧成像时间在秒级的情况下,短弧段 ⌢pp′可近似为线段pp′,短弧段 ⌢pp0亦可近似为线段pp0, Δpp0p′可近似为直角三角形满足勾股定理:
(pp0)2+(p0p′)2=(pp′)2 (10) 带入式(7)、式(8)、式(9),可得:
w=√μΔtm2Re+h−Δr2rΔtm (11) 在r2=0处泰勒展开,可以得到近似解:
w≈1rΔtm√μΔtm2Re+h(μΔtm2Re+h−Δr22) (12) 其中,关于雷达斜距变化Δr的求解问题可以简化为研究位于目标轨道平面外一点与轨道上的目标间距离变化关系,如图2所示。
以地心为坐标轴原点,目标所在轨道平面为xOy平面建立直角坐标系xyz,观测站点S在xOy平面内投影为 S′(x0,y0,0),目标运动至 p((Re+h) ⋅cosθ(t),(Re+h)sinθ(t),0),其中,q(t) = q0+ n(t−t0)用以表示目标在轨道上的瞬时位置, θ0为单帧成像中心时刻t0对应的位置参数。对于直角三角形DSS′p,由勾股定理知:
r2=d2+l2 (13) 其中,垂直距离d在目标运动过程中视为定值,而水平距离l可由下式计算:
l2=((Re+h)cosθ(t)−x0)2+((Re+h)sinθ(t)−y0)2 (14) 将式(14)带入式(13)并对等式两边关于时间求导:
rr′=[−((Re+h)cosθ(t)−x0)(Re+h)sinθ(t)+((Re+h)sinθ(t)−y0)(Re+h)cosθ(t)]n=[(Re+h)x0sinθ(t)−(Re+h)y0cosθ(t)]n=(Re+h)√x02+y02sin(θ(t)−φ)n (15) 短时Δtm内, r≈r′Δtm,并将式(15)带入可得:
Δr=(Re+h)√x02+y02sin(θ(t)−φ)nΔtmr (16) 其中, φ=arctan(y0x0)。
为进一步简化式(16),当以OS′作为x正半轴,即y0=0, φ=0时,在雷达可视范围内 |θ|≤θ0,式(16)可写为:
Δr=(Re+h)x0sinθ(t)nΔtmr (17) 重写式(11)、式(12):
w=√μr(Re+h)−((Re+h)x0sinθ(t)nr3)2 (18) w≈√μr(Re+h)−12r3√μ(Re+h)5/2(x0sinθ(t)n)2 (19) 为保证方位向分辨率一定,总转角 Δθ需固定,那么相干时间Ti将随目标高度变化:
Ti=Δθw (20) 结合式(6)、式(18),重写空间目标ISAR成像雷达方程:
S=PG2λ3σ0ρr2(4π)3r3η⋅√r2(Re+h)μr2−(Re+h)3(x0sinθ(t)n)2 (21) 3.2 关于Δr求解的模型误差
由于地球自转的影响,空间目标相对于雷达站点的运动轨迹并不是一个闭合的圆,如图3(b)所示。本文采用的近似模型将其轨道近似为圆如图3(a)所示,对于短时间观测任务来说,两者误差可控制在一定程度内。这里分别使用不同高度的轨道参数对LOS转角速度w进行求解并与实际值对比,选择库尔勒作为观测站点,结果如图4所示。其中,真实值为通过STK验证后的实际LOS转角速度,理论值为按式(18)计算得到的结果,近似值为按式(19)计算得到的结果。计算结果与实际值间的误差主要由模型简化引起,可由与轨道高度相关的函数补偿。补偿后的雷达作用距离方程可写成:
S=PG2λ3σ0ρr2(4π)3r3η⋅(√μRe+h−((Re+h)x0sinθ(t)n)2r2−C(h)r)−1 (22) 其中,C(h)为补偿函数。需要说明的是,补偿函数与目标轨道参数和观测点坐标均有关,且对于本文关于空间目标ISAR成像雷达方程的影响有限,故未进一步讨论。
3.3 空间目标ISAR成像雷达方程分析
与条带SAR雷达方程类似,式(20)中ISAR系统回波信号的接收功率与横向分辨率 ρa无关,与LOS转角速度w成反比,而w随轨道目标轨道高度升高而降低。轨道高度升高引起转角速度减小进而导致成像所需相干时间增加。这一变化可部分抵消因目标斜距增大引起的回波能量分散效果,也就是说回波信号接收功率因相干增益不再随作用距离增大呈4次方下降,其下降速度应小于作用距离的4次方,具体数值还与目标与雷达间相对位置有关,一般应介于3次方与4次方之间。采用大角度的ISAR成像处理可弥补轨道升高带来的回波接收功率降低,较普通雷达体制有明显的距离优势。
4. 仿真实验分析
为验证空间目标ISAR成像雷达方程中,回波信号接收功率下降速度的结论。仿真实验将在成像分辨率固定的情况下,仅改变目标轨道高度引起作用距离变化,对相近姿态下的空间目标进行成像观测,研究得到的RD图像中信号功率的变化以及图像质量的变化。实验中ISAR系统主要参数如表1,目标轨道主要参数倾角为42.8°,升交点赤经(Right Ascension of Ascending Node, RAAN)为34.7°E,观测点分别选取库尔勒、北京、西安,其经纬度信息如表2。
表 1 实验ISAR系统主要参数Table 1. Main parameters of ISAR system参数 数值 载频 16.7 GHz 带宽 1 GHz 方位向分辨率 0.18 m 距离向分辨率 0.15 m 脉冲重复频率 200 Hz 表 2 实验地基ISAR观测站位置Table 2. Position parameters of radar sites地点 经纬度 库尔勒 41.5°N, 86.8°E 北京 39.9°N, 116.4°E 西安 31.1°N, 108.4°E 4.1 目标轨道高度变化对回波信号接收功率的影响
对于式(21),为简化计算,本实验中选取 θ0=0,也就是目标均处于轨道上与观测点最近位置附近,其转角速度w达到该轨道上的最大值,其回波接收功率为同一轨道最小值。
目标轨道高度变化将引起目标轨道半径的变化,图5为归一化的回波信号接收功率随目标轨道半径的变化曲线,可以看出对于轨道半径在7400 km以上(作用距离在1400 km以上)的目标,其回波信号接收功率随斜距下降速度介于斜距变化的3次方与4次方之间,具体影响因子与目标与观测点相对位置、观测弧段均有关。在雷达位于西安的观测过程中,低轨道观测甚至出现相干增益超过斜距下降3次方影响的现象,这是由于低轨目标其相干增益与其轨道高度直接相关,而斜距变化与轨道高度变化并不是严格的线性相关,也就说低轨观测中,目标与观测点相对位置以及观测弧段的变化也将较大程度影响回波信号的接收功率。
4.2 目标轨道高度变化对成像质量的影响
结合ISAR体制下目标所具有的孤立散射特点,参考点目标成像质量评价中的积分旁瓣比[16](Integrated SideLobe Ratio, ISLR),本文计算各图像中心单元的目标与背景噪声像素能量比(Target Noise Ratio, TNR)来反映成像质量。理论上来说,孤立散射点成像后对应像素单元与背景噪声的能量比应与脉冲回波信噪比、脉压长度、脉冲积累数等因素均相关。但为直观反映不同轨高下脉冲积累数变化带来的图像信噪比增益变化,本文将所有单脉冲回波信噪比统一设置为10 dB,仅改变脉冲积累数进行实验。
TNR=EtEb (23) 其中,Et为目标像素能量积分,Eb为背景像素能量积分。
实验选取西安站观测结果进行成像质量分析,其中方位维、距离维无单位,代表像素点位置,图6为某空间目标在791 km轨道某处成像结果,目标中心单元的距离维、方位维剖面如图6所示。选取相近姿态下,目标在3个不同轨道高度的成像结果作为对比,如图7所示,其量化质量评价结果如表3所示。
从表3可以看出,随轨道高度升高脉冲积累数增加,相干处理后图像TNR也相应增大,这与3.3节中轨道高度对大角度ISAR成像体制影响的结论一致;其脉冲积累数与TNR之比直观反映相干积累对图像质量提升的作用,在脉冲回波信噪比、脉压长度、等因素相同的情况下,可近似为一定值,但可以预见的是在实际中将随着高度升高而增大。
表 3 不同轨道高度图像质量评价Table 3. Comparison result of imaging quality at different heights轨道高度(km) 成像时间(s) 脉冲积累数 TNR 脉冲积累数/TNR 791 9.94 1988 6.82 291.58 1200 12.40 2484 8.61 288.58 1800 16.82 3364 11.45 293.80 4.3 实验总结
本节实验应用推导的雷达成像方程从回波功率、成像质量两方面进行定分辨成像分析,可总结以下结论。(1)通过有效结合轨道信息,空间目标ISAR成像处理应采用更接近于合作(或半合作)目标的成像处理方式,进一步根据本文方法估计方位分辨性能可在保证横向分辨率的基础上有效指导成像角域优化选择。(2)总体而言,空间目标ISAR观测的回波信噪比受轨道高度升高而下降,另一方面较大的相干积累角ISAR成像,方位相干积累增益可部分补偿目标轨道高度增加引起的信噪比损失,也就是文中所述的回波接收功率下降量级小于斜距4次方,但大于SAR系统中斜距3次方的关系。(3)目标轨道参数、观测几何模型可有效指导空间轨道目标的成像工作功率、波形参数设计,实现ISAR成像信噪比预估计,同时可利用相干积累角的计算进行成像时间段的优化选择,满足高分辨成像任务。
5. 结束语
本文从基本雷达方程出发,推导空间轨道目标ISAR成像雷达方程的一般形式,分析空间目标轨道参数对目标转角速度以及成像相干积累增益的影响,定性分析了采用相干体制下的大转角ISAR雷达系统进行空间观测的优势,提出较为简便的成像信噪比估计方法。仿真实验验证ISAR成像的方位相干增益可部分弥补目标轨道高度增加引起的ISAR成像质量下降,为空间目标ISAR成像体制和信号处理设计、成像信噪比估计、成像时间段优化选择提供了理论基础。
-
表 1 混淆矩阵
Table 1. Confusion matrix
混淆矩阵 真实值 河道 背景 预测值 河道 TP FP 背景 FN TN 表 2 分割结果评价
Table 2. Evaluation of segmentation results
Algorithms/Models Precision (%) Recall (%) IoU (%) F1-score (%) 传统方法 OTSU 93.05 84.74 81.99 88.70 K-means 95.10 87.18 86.67 90.97 ACM 92.08 84.08 81.99 87.90 深度学习 U-Net 95.70 91.03 88.00 93.30 U-Net+RLK 96.22 93.18 91.92 94.68 DeepLab 95.42 91.13 89.40 93.23 PSPNet 96.06 92.73 90.04 94.36 PSPNet+RLK 97.17 93.24 93.36 95.16 River-Net without RLK 96.33 93.36 91.03 94.82 River-Net 97.32 94.40 92.93 95.84 -
[1] LI Ning, WANG R, DENG Yunkai, et al. Waterline mapping and change detection of tangjiashan dammed lake after wenchuan earthquake from multitemporal high-resolution airborne SAR imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(8): 3200–3209. doi: 10.1109/JSTARS.2014.2345417 [2] 冷英, 李宁. 一种改进的变化检测方法及其在洪水监测中的应用[J]. 雷达学报, 2017, 6(2): 204–212. doi: 10.12000/JR16139LENG Ying and LI Ning. Improved change detection method for flood monitoring[J]. Journal of Radars, 2017, 6(2): 204–212. doi: 10.12000/JR16139 [3] MOREIRA A, PRATS-IRAOLA P, YOUNIS M, et al. A tutorial on synthetic aperture radar[J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(1): 6–43. doi: 10.1109/MGRS.2013.2248301 [4] 李宁, 牛世林. 基于局部超分辨重建的高精度SAR图像水域分割方法[J]. 雷达学报, 2020, 9(1): 174–184. doi: 10.12000/JR19096LI Ning and NIU Shilin. High-precision water segmentation from synthetic aperture radar images based on local super-resolution restoration technology[J]. Journal of Radars, 2020, 9(1): 174–184. doi: 10.12000/JR19096 [5] 程江华, 高贵, 库锡树, 等. 高分辨率SAR图像道路交叉口检测与识别新方法[J]. 雷达学报, 2012, 1(1): 100–108. doi: 10.3724/SP.J.1300.2012.20024CHENG Jianghua, GAO Gui, KU Xishu, et al. A novel method for detecting and identifying road junctions from high resolution SAR images[J]. Journal of Radars, 2012, 1(1): 100–108. doi: 10.3724/SP.J.1300.2012.20024 [6] LIU Tao, YANG Ziyuan, MARINO A, et al. PolSAR ship detection based on neighborhood polarimetric covariance matrix[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(6): 4874–4887. doi: 10.1109/TGRS.2020.3022181 [7] LIU Zhongling, LI Fei, LI Ning, et al. A novel region-merging approach for coastline extraction from sentinel-1A IW Mode SAR imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(3): 324–328. doi: 10.1109/LGRS.2015.2510745 [8] LI Wenyu and GONG Peng. Continuous monitoring of coastline dynamics in western Florida with a 30-year time series of Landsat imagery[J]. Remote Sensing of Environment, 2016, 179: 196–209. doi: 10.1016/j.rse.2016.03.031 [9] LI Ning, NIU Shilin, GUO Zhengwei, et al. Dynamic waterline mapping of inland great lakes using time-series SAR data from GF-3 and S-1A satellites: A case study of DJK reservoir, China[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(11): 4297–4314. doi: 10.1109/JSTARS.2019.2952902 [10] JIANG Liguang, NIELSEN K, DINARDO S, et al. Evaluation of Sentinel-3 SRAL SAR altimetry over Chinese rivers[J]. Remote Sensing of Environment, 2020, 237: 111546. doi: 10.1016/j.rse.2019.111546.0 [11] 安成锦, 牛照东, 李志军, 等. 典型Otsu算法阈值比较及其SAR图像水域分割性能分析[J]. 电子与信息学报, 2010, 32(9): 2215–2219. doi: 10.3724/SP.J.1146.2009.01426AN Chengjin, NIU Zhaodong, LI Zhijun, et al. Otsu threshold comparison and SAR water segmentation result analysis[J]. Journal of Electronics &Information Technology, 2010, 32(9): 2215–2219. doi: 10.3724/SP.J.1146.2009.01426 [12] BAO Linan, LV Xiaolei, and YAO Jingchuan. Water extraction in SAR Images using features analysis and dual-threshold graph cut model[J]. Remote Sensing, 2021, 13(17): 3465. doi: 10.3390/rs13173465 [13] 冷英, 刘忠玲, 张衡, 等. 一种改进的ACM算法及其在鄱阳湖水域监测中的应用[J]. 电子与信息学报, 2017, 39(5): 1064–1070. doi: 10.11999/JEIT160870LENG Ying, LIU Zhongling, ZHANG Heng, et al. Improved ACM algorithm for poyang lake monitoring[J]. Journal of Electronics &Information Technology, 2017, 39(5): 1064–1070. doi: 10.11999/JEIT160870 [14] LI Ning, WANG R, LIU Yabo, et al. Robust river boundaries extraction of dammed lakes in mountain areas after Wenchuan Earthquake from high resolution SAR images combining local connectivity and ACM[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2014, 94: 91–101. doi: 10.1016/j.isprsjprs.2014.04.020 [15] JIA Lu, LI Ming, ZHANG Peng, et al. SAR image change detection based on multiple kernel k-means clustering with local-neighborhood information[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(6): 856–860. doi: 10.1109/LGRS.2016.2550666 [16] SUN Xian, WANG Bing, WANG Zhirui, et al. Research progress on few-shot learning for remote sensing image interpretation[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 2387–2402. doi: 10.1109/JSTARS.2021.3052869 [17] LIU Wenjie, ZHANG Wenkai, SUN Xian, et al. HECR-Net: Height-embedding context reassembly network for semantic segmentation in aerial images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 9117–9131. doi: 10.1109/JSTARS.2021.3109439 [18] LATINI D, DEL FRATE F, PALAZZO F, et al. Coastline extraction from SAR COSMO-SkyMed data using a new neural network algorithm[C]. 2012 IEEE International Geoscience and Remote Sensing Symposium, Munich, Germany, 2012: 5975–5977. doi: 10.1109/IGARSS.2012.6352247. [19] LONG J, SHELHAMER E, and DARRELL T. Fully convolutional networks for semantic segmentation[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 3431–3440. doi: 10.1109/CVPR.2015.7298965. [20] PAI M M M, MEHROTRA V, AIYAR S, et al. Automatic segmentation of river and land in SAR images: A deep learning approach[C]. 2019 IEEE Second International Conference on Artificial Intelligence and Knowledge Engineering, Sardinia, Italy, 2019: 15–20. doi: 10.1109/AIKE.2019.00011. [21] RONNEBERGER O, FISCHER P, and BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]. The 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, Munich, Germany, 2015: 234–241. doi: 10.1007/978-3-319-24574-4_28. [22] PAI M M M, MEHROTRA V, VERMA U, et al. Improved semantic segmentation of water bodies and land in SAR images using generative adversarial networks[J]. International Journal of Semantic Computing, 2020, 14(1): 55–69. doi: 10.1142/S1793351X20400036 [23] VERMA U, CHAUHAN A, PAI M M M, et al. DeepRivWidth: Deep learning based semantic segmentation approach for river identification and width measurement in SAR images of Coastal Karnataka[J]. Computers & Geosciences, 2021, 154: 104805. doi: 10.1016/j.cageo.2021.104805. [24] 张金松, 邢孟道, 孙光才. 一种基于密集深度分离卷积的SAR图像水域分割算法[J]. 雷达学报, 2019, 8(3): 400–412. doi: 10.12000/JR19008ZHANG Jinsong, XING Mengdao, and SUN Guangcai. A water segmentation algorithm for SAR image based on dense depthwise separable convolution[J]. Journal of Radars, 2019, 8(3): 400–412. doi: 10.12000/JR19008 [25] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834–848. doi: 10.1109/TPAMI.2017.2699184 [26] ZHAO Hengshuang, SHI Jianping, QI Xiaojuan, et al. Pyramid scene parsing network[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6230–6239. doi: 10.1109/CVPR.2017.660. -