-
摘要: 视频合成孔径雷达(SAR)技术将观测场景的动态信息以视频方式呈现出来,其高帧率成像特性有利于实现对地面机动目标的实时探测。视频SAR信号处理关键技术主要包括高帧率成像处理算法和运动目标检测技术等。该文对视频SAR成像处理进行了探讨,给出了两种典型视频SAR成像处理仿真数据结果,详细分析了视频SAR阴影形成机理和对动目标检测性能的影响,并将基于机器学习的视频SAR阴影目标检测技术与经典处理方法在实际数据上进行了验证对比。Abstract: Video Synthetic Aperture Radar (SAR) provides dynamic information about an observation scene in a video to the human eye, which can be very useful for the real-time detection of the ground maneuvering targets. The focusing of video SAR data is demanding because of its high data rate. In this study, we discuss suitable focusing algorithms and presents the obtained simulation results. Further, the shadow formation mechanism is analyzed with respect to target detection. Finally, the machine learning algorithm used for detecting the shadows of the moving targets is compared with the classical image processing methods that use real datasets.
-
Key words:
- Video SAR /
- High frame rate imaging /
- Moving target detection /
- Radar imaging /
- Shadow detection
-
1. 引言
视频合成孔径雷达(Synthetic Aperture Radar, SAR)连续记录目标区域的变化,并通过信号处理将信息在时间维度上以有利于人眼直观解读的视觉活动图像方式呈现出来,可实时获取车辆和船只等高价值目标的地理位置、移动方向、移动路线和速度等重要信息,并进行持续性跟踪监视。视频SAR作为一种新的雷达成像模式成为近年的研究热点[1,2]。
美国最早于1999年提出视频SAR概念,以类似光电传感器的方式再现场景信息并实现对地面目标的感知[1]。2010年美国桑迪亚实验室首次在Ku波段完成对视频SAR的技术验证。综合考虑成像分辨率、帧率指标及大气衰减特性,视频SAR系统一般设计工作于毫米波直至太赫兹低频段,系统体积小,有利于载荷灵活配置。美国国防高级研究计划局(DARPA)将视频SAR工作频率设计在230 GHz附近,并在2016年将其集成在多光谱瞄准系统中,实现了在235 GHz频段的视频成像[3]。德国高频物理与雷达技术研究所(Fraunhofer-FHR)在W波段成功实现了对城区的视频成像试验[4]。2020年芬兰ICEYE公司发布了雷达卫星通过凝视成像模式获得的SAR视频[5],实现对港口和城市等高价值区域动态成像监测。国内各相关单位也相继对视频SAR系统和关键技术开展了研究并取得很好进展。
由于视频SAR主要任务是监视和跟踪场景内的动目标或动态变化,要求高的成像帧率,而平台运动速度受制于诸多因素只能在合理的范围内选择,因此在保证雷达作用距离以及方位分辨率的前提下提高帧率的较好途径是提高雷达载频。德国宇航中心 (DLR)开发的视频SAR系统工作在94 GHz[4],而雷声公司研制的视频SAR系统[3]工作在235 GHz。考虑到雷达探测威力和电磁波大气衰减因素,机载视频SAR系统也可工作在Ku或Ka频段,这时往往以重叠子孔径成像处理技术来达到图像帧率,即“伪帧”。不重叠孔径处理得到的成像帧率和通过重叠孔径处理得到的帧率,即所谓的“真帧”和“伪帧”,并不是评估视频SAR系统优劣的唯一技术指标,即“真帧”肯定优于“伪帧”。帧率指标应根据任务场景目标运动特性来决定,即动目标慢时间采样率要求。当然,设计高的帧率指标可保证系统可用于更广泛场合,但也造成系统资源冗余。桑迪亚实验室在2016年公开的视频证明了用Ku波段SAR系统同样可实现车辆目标的监视和跟踪[6,7],该系统实际帧率小于1 Hz,通过重叠孔径成像处理所得到的图像刷新率约为3 Hz。本文主要针对机载K波段研究视频SAR技术。
视频SAR不仅仅是SAR,其本质是一种高帧率成像方式下动目标和变化检测技术。动目标探测技术是视频SAR的关键技术,阴影作为视频SAR重要特征,能够反映运动目标真实位置及状态信息,因此有必要分析阴影形成机理并研究相应的阴影检测算法。
本文对视频SAR成像处理算法进行了探讨,研究视频SAR动目标阴影检测问题,除采用经典图像处理方法外,利用机器学习技术在视频SAR阴影检测方面取得了显著效果,实现了对动目标阴影的检测、预测及虚警和漏警抑制。
2. 视频SAR成像处理
由于视频SAR系统载频较高,使得其成像处理对平台定位误差特别敏感,对运动补偿提出挑战,而基于回波数据的自聚焦技术往往不可或缺。总体来讲,视频SAR高帧率成像处理需要从算法软件和硬件技术两方面同时优化,成像算法要较好兼容运动补偿,时域反投影类算法成为好的选择。另一方面成像处理机性能及惯导等实时位置姿态感知器件需要保证足够的精度。
文献[8]分析了机载平台振动对220 GHz视频SAR成像的影响,并指出通过平台隔振技术与自聚焦算法可有效降低影响。文献[9]提出了一种针对直升机载视频SAR的振动补偿方法。文献[10]针对视频SAR的特性提出了一种能够适应图像旋转的相位梯度自聚焦(Phase Gradient Autofocus, PGA)算法。此外,高帧率成像对系统实时处理能力是巨大挑战,因此提高成像及自聚焦算法的计算也是关键。
视频SAR系统适合于监测有限区域内的目标,往往工作在聚束模式,此时雷达载体平台运动轨迹多为曲线。极坐标格式算法(Polar Format Algorithm, PFA)作为一种常见聚束SAR 算法,能够兼顾成像效率和精度,适合视频SAR成像处理。对于能够满足“真帧”处理条件的系统,可将雷达回波数据在慢时间域按照图1(a)的方式排列分组。每一组为一个相干处理单元,对相干处理单元内的数据使用PFA算法成像即得到一帧图像。若雷达系统仅能以“伪帧”的方式实现期望的高帧率成像,则数据排列分组需采取图1(b)的方式。此时相邻帧部分数据是复用的,每帧相干处理时间长度均大于所生成视频序列中每帧对应的时长。而每个相干处理单元内的数据依然可以使用PFA算法成像聚焦。由于无论“真帧”还是“伪帧”处理,成像算法的核心均是PFA,所以近年来国内外学者针对PFA算法的计算效率进行了改进[11,12]。
虽然工作于较低载频的视频SAR系统可通过重叠孔径处理技术来达到期望的图像刷新率,但若使用PFA算法来生成图像序列,孔径重叠部分的大量数据重复参与成像计算,增加了计算负荷。一种直接解决方法是将回波在慢时间划分为不重叠的子孔径如图1(b)所示,对子孔径以不同的加权方式分别成像,最后选取不同的子孔径图像进行融合得到每帧图像[13]。若使用以PFA算法为代表的频域算法对子孔径回波成像,则每幅子孔径图像都位于各自的坐标系下,融合前需要图像配准操作从而降低了成像效率及精度。而使用快速后向投影算法(Fast BackProjection, FBP)等时域算法对子孔径成像则所有图像均位于同一坐标系下,能够避免融合前的配准。
相比于非重叠子孔径图像融合的方式,迭代后向投影(Auto-Regressive Back Projection, ARBP)算法[14]更巧妙地解决了这个问题,该算法将图像的迭代更新融合进了后向投影的过程中,每次后向投影仅使用最新得到的回波数据对图像进行更新,并通过迭代更新将以往的信息遗忘。其后向投影过程与传统的BP算法一致,均通过计算雷达到图像像素坐标点的斜距并对每个脉冲的回波进行插值以寻找对应像素点的幅相信息。不同于传统BP算法,ARBP将所有数据投影在一幅图像中并通过类似于IIR滤波器的方式提取出只和当前帧有关的信息。ARBP算法图像迭代更新的公式为
Ik=M∑m=1αmIk−m+Rk (1) 式中,
Ik 为第k 次迭代更新得到的图像,M 为迭代的阶数,αm 为迭代系数,Rk 为第k 个脉冲回波在图像域的后向投影值。此时,图像聚焦点扩展函数在方位向的形状即为式(1)所表示的IIR滤波器的冲激响应。通过经典的IIR滤波器设计手段从而合理的选择迭代的阶数和系数,能够等效实现非迭代处理算法中的方位加窗效果。ARBP算法保留了传统后向投影算法的优势,每次后向投影可根据实时位置传感器所提供的信息来补偿瞬时斜距,适用于任意飞行轨迹。并且,整幅图像迭代更新可分解为多个子图像或像素点的并行迭代更新,可使用GPU并行加速计算技术来满足实时成像需求。本文对ARBP算法进行了成像仿真,采用正侧视条带模式成像,仿真参数如表1所示。使用去斜方式仿真回波数据,表示为
表 1 仿真参数Table 1. Simulation parameters参数名称 数值 单位 雷达载频 17.6 GHz 调频率 1.5×1013 Hz/s 采样率 5×107 Hz 脉冲重复频率 1000 Hz 脉冲宽度 4.096×10−5 s 载机速度 180 m/s 场景中心斜距 10000 m 载机高度 6000 m 成像擦地角 36.8 ° 天线电尺寸 0.4 m 成像帧率 10 Hz sτ(t)=M×N∑i=1rect(t−2Ri/cTp)⋅e−j4πcγ(t−2Rrefc)Rie−j4πcfcRiej4πγc2R2i (2) 其中
M×N 为波束覆盖范围内仿真图像横向和纵向的像素点数,相邻像素点的间距设为0.2 m,t 是快时间,τ 是慢时间,Ri 是时τ 刻第i 个像素点到雷达的距离。为最大程度地抑制方位向旁瓣,本文使用了文献[14]中给出的经验公式设计一个3阶迭代函数用于方位聚焦处理,使用该函数等效于非迭代处理中的方位向加汉明窗的处理效果。成像场景大小为500 m2,场景内存在两个运动目标分别位于坐标(1160, 600)和(1160, 380)处,运动方向分别为垂直方向和水平方向,从第2~4 s做匀加速运动,加速度为
0.01m/s2 。第10帧和局部放大图如图2所示,此时目标处于静止状态,该帧图像对两个目标实现聚焦。第20帧及局部放大图如图3所示,此时目标运动速度为
0.01m/s ,该帧图像中目标发生了轻微散焦,但主要能量未发生偏移。第30帧及局部放大图如图4所示,此时目标速度为
0.02m/s ,在该帧图像中目标能量发生偏移,可观察到目标留下的阴影。3. 视频SAR动目标阴影检测技术
3.1 阴影形成机理与检测性能
传统SAR中动目标也可能留下阴影,但因为雷达图像一般有大量弱后向散射区域和物体遮挡,此时通过阴影检测来发现动目标的效果很差,而高帧率成像提供了动目标阴影的连续动态信息,使该方法成为可能。
在视频SAR中,极高的工作频率使运动目标回波的多普勒调制对目标运动极为敏感,很小的运动也会导致目标像发生很大偏移和散焦,从而在图像序列中留下能够反映真实位置及状态信息的阴影。一方面,动目标产生的阴影与其背景区域的对比度及阴影强度沿运动方向的梯度信息与目标速度有密切关系。另一方面,由于单帧图像的合成孔径时间较短,动态阴影亦反映了运动目标在场景中的瞬时位置。利用视频SAR中的动态阴影进行动目标检测是SAR运动目标检测的新途径。该技术与传统基于多普勒处理的技术联合应用,可较大程度扩展动目标可检测速度范围并提高稳健性。
视频SAR中的动目标阴影产生受到多种因素的影响。一方面,阴影的检测基于一定背景杂波和噪声条件下,如果背景杂波较弱或阴影区域噪声较强,则很难从背景杂波区域提取出阴影。需要指出,如果目标的雷达散射截面(Radar Cross Section, RCS)弱于噪声等效后向散射系数时,动目标难以产生阴影。因此,视频SAR系统一般要求较高的系统灵敏度。另一方面,当运动目标速度较慢时目标像可能被有效积累起来,因而不能形成阴影,又或者当运动目标速度过快时,目标可能迅速驶过一片区域,导致大部分地物杂波被相干积累,导致产生的阴影不够明显,这些情况均会导致最终检测失效。此外,运动目标的像也可能发生散焦和混叠并使弥散的能量覆盖在阴影区域从而影响检测性能。
在SAR图像中,弱散射的静止区域目标以及物体的高度遮挡会在相应位置产生阴影,在这里本文关注的是由运动目标产生的阴影[15,16]。运动目标的阴影产生原理的俯视图如图5所示,其中平台速度为
v ,单帧图像的相干积累时间为Ta ,运动目标尺寸为W×Lm 并用蓝色矩形代替,目标速度为vt 。由于高频段雷达发射机的有限功率限制,视频SAR往往工作于大擦地角条件以缓解有限作用距离问题,因此运动目标在图像中的阴影基本保持其俯视轮廓。在这里,本文对阴影的分析基于目标像发生偏移和散焦,且不对阴影区域产生影响的假设。在单帧视频 SAR 图像积累时间Ta 的始末时刻平台和运动目标分别如状态①, ②所示(实际中单帧积累时间内平台仅跨越很小的角度),假设目标在积累时间Ta 内以匀速vt 沿某方向运动,在此期间内目标位移长度为Tavt ,因此在积累时间内运动目标将在原本位置留下长度为Lm+Tavt 的阴影区域。为对阴影区域的点散布函数(Point Spread Function, PSF)进行求解,我们首先对动目标对地物的遮挡建模如图6所示,其中横轴
l 表示目标运动轨迹方向,纵轴t表示时间。绿色区域表示了在某位置处地物被运动目标遮挡的时空范围,沿t轴绿色区域的长度表示了该处的遮挡时间长度。根据的运动速度大小可分为两种情况,当目标速度vt>Lm/Ta 时,遮挡时间在遮挡区域两端附近呈线性变化,中间区域遮挡时间TΔ=Lm/vt 。当vt<Lm/Ta 时,TΔ 在遮挡区两端附近也呈线性变化。部分中间区域在积累时间Ta 内完全被遮挡,呈现理想阴影。考虑被遮挡区域中的某一地面分辨率单元B,其沿运动方向位置为l ,结合图6中的两种情况,遮挡时间可以统一表示为TΔ=max(min(lvt,Ta)−max(0,l−Lmvt),0) (3) 图7(a)给出了不同运动速度(5 m/s, 10 m/s, 20 m/s, 30 m/s, 40 m/s) 的目标在均匀背景下产生的阴影,其中单帧图像的合成孔径时间为0.2 s,目标像因其径向速度而偏移出场景。图7(b)为各目标阴影沿运动方向的归一化图像强度,由图7可见慢速目标的阴影更为明显,在阴影的两侧图像强度线性变化。
运动目标的遮挡导致地面散射点在合成孔径时间内产生了相干积累损失,从而形成了较周围区域图像强度较弱的阴影。当运动目标像偏移出其真实位置时,遮挡区域内部的某一点目标的方位向回波可表示为
si′(t)=Arect(tTa)exp(jπKat2)−Arect(t−t0TΔ)exp(jπKat2) (4) 其中,
Ka 为该处静止目标的多普勒调频率,TΔ 的范围为[ta,tb] 且t0=ta+tb2 。该回波经过方位匹配滤波器h(t)=exp(−jπKat2) (5) 回波的匹配结果(即点散布函数)可表示为
so(t)=si(t)⊗h(t)=ATasinc(KaTat)−ATΔsinc(KaTΔ⋅t)exp(−j2πf0t) (6) 其中,
⊗ 为卷积操作,f0=Kat0 。类似地,未被动目标遮盖的完整回波的匹配结果为ˉso(t)=(Ta−|t|)Arect(t2Ta)sinc[Kat(Ta−|t|)] (7) 本文定义方位向积累损失因子ILF为
ILF=|so(0)ˉso(0)|=1−TΔTa (8) 表示该散射点相对于未被遮挡区域散射点的响应峰值的比值。图8给出了遮挡时间分别占相干积累时间0%, 20%, 40%, 60%的归一化脉冲响应结果,由图8可见峰值强度随遮挡时间的增大线性减小,并伴随有主瓣展宽。
SAR图像中主要包括加性噪声和乘性噪声影响,加性噪声主要为接收机的热噪声,而乘性噪声主要取决于积分旁瓣水平以及场景的平均散射强度,因此噪声之和可用等效后向散射系数(EBC)表示为[17,18]
σN=σn+MNRˉσb (9) 其中,EBC表示加性噪声,MNR表示乘性噪声比,
ˉσb 表示观测场景的平均EBC。假设运动目标阴影的周围背景区域是均匀的,对应的EBC为σb ,则背景区域的总EBC为σB=σN+σb=σn+MNRˉσb+σb (10) 相同地,若运动目标阴影区域的EBC可用
σsh 表示,由对脉冲响应的分析可得,目标的遮挡改变了该处散射的EBC,此时阴影区域的总EBC可以表示为σSH=σN+σsh=σn+MNRˉσb+ILFσb (11) 其中ILF由式(8)给出。定义阴影背景比为
SHBR=σSHσB=σn+MNRˉσb+ILFσbσn+MNRˉσb+σb (12) SHBR表示了动目标阴影区域与其所在背景区域在统计意义上的强度对比值,区别于传统的高电平目标检测,视频SAR的阴影检测是在强杂波背景下检测低电平目标,因此阴影作为待检测目标,SHBR越低越有利于动目标阴影的检测。本文以动目标轨迹的中心位置为例进行仿真实验,假定
σn=−48.7dB ,MNR=−18.2dB ,动目标的长度为Lm=5m 。图9(a)描述了SHBR随背景散射强度和运动目标速度的变化关系,图9(b)描述了σb=ˉσb=−16.5dB (均匀干燥土地,94 GHz)条件下SHBR随目标运动速度和合成孔径时间的变化关系,其中标记给出了当前情况下的最优SHBR,此时该位置在合成孔径时间内被全时遮挡,该值决定了动目标阴影的检测性能上限。结果表明,强的背景散射,短的积累时间和低速目标产生更有利于检测的阴影。基于相干斑的产生原理,SAR图像强度服从参数为散射体EBC的负指数分布[19],则对于背景区域和阴影区域分别有
I∼Exp(1/σB) 和I∼Exp(1/σSH) 。基于动目标阴影的动目标检测是从高电平的背景区域检测低电平,因此给定一个检测门限,虚警率PFA和检测概率PD可分别表示为Pfa=∫ξT0fIB(x)dx=1−exp(−ξTσB) (13) Pd=∫ξT0fISH(x)dx=1−exp(−ξTσSH) (14) 其中,
fIB(x) ,fISH(x) 分别表示背景区域和阴影区域的负指数概率密度函数。结合式(13)和式(14),可得阴影的检测性能曲线为Pd=1−(1−Pfa)1/SHBR (15) 假设
σn=−48.7dB ,MNR=−18.2dB ,且目标长度Lm=5m ,图10给出了阴影的检测性能曲线。图10(a)描述了检测概率Pd在不同虚警概率条件下随SHBR的变化结果。图10(b)描述了不同目标速度下阴影中心区域的观测者操作特性曲线(Receiver Operating Characteristic curve, ROC),其中目标速度为5, 10, 20 m/s对应的ROC曲线重合,这是因为当速度较慢时阴影中心区域在合成孔径时间内总是被目标遮盖的,因此形成了更易于检测的低电平区域,当速度继续增加时,中心区域的遮盖时间为Lm/vt ,因此目标速度越大检测性能越差。上述分析针对阴影中心区域的点散射体展开,对于连通阴影区域的检测,往往需要可靠的SHBR,以达到对运动目标的有效检测。假定在满足一定虚警概率和检测概率的条件下,存在
SHBR0 使得在视频SAR图像中可以完成可靠的阴影检测(文献[20]中指出分布式目标的可靠检测对比度参考值可取–1.5 dB),即SHBR=σn+MNRˉσb+ILFσbσn+MNRˉσb+σb≤SHBR0 (16) 对于给定距离横向分辨率
ρ ,则该条件下的动目标可检测速度范围为vt≤2LmρfvσbcR(1−SHBR0)(σN+σb) (17) 其中,c表示光速,
v 表示雷达速度,f 表示雷达工作频率,R表示雷达作用距离。阈值分割作为一种常见的图像目标提取手段,基于此,我们讨论了的运动目标阴影在视频SAR中单帧图像检测性能,其主要目的是为说明并导出动目标阴影检测对环境、系统参数及目标速度的依赖性。当对序列图像进行联合处理时能够有效提高目标的检测性能,为此本文也将通过不同方法将帧间信息进行联合,以达到提高运动目标检测性能的目的。
3.2 基于背景差分的阴影检测技术
文献[21-23]中利用视频SAR图像序列进行处理并可有效检测出动目标阴影。文献[24]利用阴影辅助信息来提高SAR-GMTI的系统性能。本文结合上述对动目标阴影的分析,给出了基于背景提取差分动目标阴影检测方法和桑迪亚实验室实际数据处理结果。
背景差分处理主要面临帧间配准精度与处理时间矛盾问题和背景提取准确度问题。图11给出了基于背景差分的阴影检测流程图。桑迪亚实验室实测数据由Ku波段雷达录取,视频包含295帧图像,本文对其中连续的90帧进行检测,共包含730个真实动目标阴影。
该方法的基本思想是通过多帧SAR图像序列的联合,提取出干净的背景图像,再通过差分最终得到阴影检测结果。首先采用SIFT + RANSAC算法对多帧图像进行配准,之后采取中值滤波的方式[25]在保持分辨率的条件下减小相干斑噪声的影响,并对感兴趣电平区域进行线性增强,降噪增强后的结果如图12(a)所示。之后采用多帧均值的方法进行背景的提取,当场景内存在多目标(特别是呈队列运动)时,均值法将使背景提取不够准确,为此本文计算每个像素的变异系数(方差/均值),并设置阈值对变异系数过大的像素进行电平补偿,图12(b)给出了经补偿后的背景。此后本文对背景已经配准后的图像序列进行阈值分割并进行差分处理,后续再进行形态学处理和连通域筛选,处理结果分别如图12(c), 12(d)和12(e)所示。
表2给出了基于背景差分的阴影检测性能统计。结果表明基于背景差分的阴影检测方法可有效提取视频SAR图像中的运动目标阴影。
表 2 基于背景差分的阴影检测性能统计Table 2. Statistical results of shadow detection based on background difference目标总数 正确检测的目标 虚警目标 漏警目标 730 658 77 72 3.3 机器学习动目标检测技术
传统的阴影检测技术通常使用经典图像处理算法,其中往往会包含一些预处理步骤,例如图像降噪、配准、背景分割与提取。SAR图像的低对比度与相干斑噪声给这些预处理步骤带来困难,恶化了传统阴影检测技术的性能。为了成像的高效性,聚束或者圆迹的视频SAR数据经常由PFA类算法聚焦,导致视频SAR图像是旋转的。同时,波数域插值误差使得相邻SAR图像之间存在像素起伏,特别是在远离成像中心的区域。图像的旋转可以由配准校正,但是无法充分补偿这种插值误差,因此SAR图像噪声增加,阻碍了经典方法的背景提取。此外,在连通域检测中,抑制虚警往往需要一个目标尺寸的先验门限,抑制具有与真实阴影目标像素尺寸相近的虚警是比较困难的,这些因素均会导致经典阴影检测技术的虚警概率增大。另一方面,慢速移动目标的阴影在相邻帧之间差异较小,导致无法准确提取阴影处的背景。在一些视频SAR图像中,动目标的阴影可能被它的像部分或者完全遮挡,这些均增加了对慢速目标检测的漏警概率。
本文讨论基于深度神经网络的视频SAR阴影目标检测技术,流程图如图13所示。
首先,利用基于区域卷积神经网络(Faster Region-based Convolutional Neural Network, Faster-RCNN)在每帧视频SAR图像上进行阴影检测。在初步的检测结果中包含大量的虚警目标与漏警目标,滑窗密度聚类算法被用于抑制虚警,并采用双向长短时记忆 (Bidirectional Long-Short-Term Memory, Bi-LSTM)网络对漏警目标位置进行预测。
3.3.1 基于Faster-RCNN的动目标阴影检测
RCNN作为一种特殊的CNN被广泛应用于图像目标检测领域,它使用选择性搜索算法确定候选区域,结合CNN与支持向量机对候选区域进行特征提取与识别,并对边界框进行回归修正[26]。RCNN开创性地在图像目标检测中引入深度神经网络。Faster-RCNN作为它的改进,将候选区域的产生、识别,边界框的回归统一到一个端到端的深度网络中,极大地提高了计算效率[27]。
特征提取可由常见的AlexNet, VGGNet和ZFNet模型实现。候选区域由区域建议网络确定,并且它的特征可由感兴趣区域池化层获得。
3.3.2 基于滑窗密度聚类的虚警抑制
Faster-RCNN可以实现端到端的阴影检测,但是作为一种单帧检测方法,它的性能不够稳健,特别是直接应用于SAR图像[28]。SAR图像的分辨率通常较低,不能反映如光学图像中丰富的目标特征,因此很难区分动目标阴影与弱反射区域。动目标阴影的特征单一,灰度较低,一些常见的弱反射区域,例如,道路、河流、固定目标阴影等,很容易被误判为动目标阴影。同时,相干斑噪声使得平坦区域也产生一定的梯度变化,增加了动目标阴影检测的难度[29]。此外,由于动目标运动状态的变化,其阴影区域的形状与梯度是时变的[16]。这些因素均导致Faster-RCNN直接应用于SAR图像阴影检测时虚警率的增大。
动目标阴影的轨迹在视频SAR图像序列中具有较好连续性,在相邻帧之间有较强的相关性。如果在某一帧中检测到一个阴影目标,那么在其相邻帧的对应位置附近有较大的概率会检测到该目标。相反,虚警目标通常随机地产生于弱反射区域,在相邻帧之间位置的相关性较弱。因此,利用动目标阴影在序列图像中的运动相关性,可以采用聚类的方法抑制虚警。
在视频SAR序列图像中检测到的阴影目标轨迹可以是任意形状的,并且混合大量的虚警目标,利用一种密度聚类(Density-Based Spatial Clustering of Application with Noise, DBSCAN)算法可以实现任意形状样本点的聚类[30]。DBSCAN算法通过设定的聚类半径和邻域密度阈值,利用样本点分布的相关性无监督地对样本点进行聚类,同时起到剔除异常点的作用。但是,DBSCAN算法将所有样本点作为输入,并且以距离作为聚类依据,因此无法对轨迹交叉的两类样本点进行聚类。本文提出一种改进的密度聚类方法。
在利用Faster-RCNN算法完成单帧检测后,可得到每帧图像中所有检测到的目标位置
q(x,y), x∈[1,M],y∈[1,N] ,其中,M和N是SAR图像的像素尺寸。完成所有帧的检测后,将图像序列中的阴影目标轨迹p(x,y,z),z∈[1,T] 作为聚类的样本集,其中,T 是总帧数。在距离-方位-时间三维数据空间中,设聚类窗长度为L 帧,步长S 为帧(S<L ),则三维数据块能够被划分为W 个重叠的子块。将每个子块中的样本点投影到距离-方位平面,并利用DBSCAN算法完成密度聚类。随后,需要正确关联相邻子块中的聚类结果。由于采用了重叠的聚类窗,相邻两个子块中的一些样本点是相同的,因此可以利用阴影目标在相邻帧之间的运动相关性关联聚类结果。假设两个相邻的聚类窗分别为A 和B ,对于窗B 中的某一类wBi (i∈[1,HB] ),如果wBi 中的一些样本点也出现在窗A 中的类wAj (j∈[1,HA] )中,则可以认为在全部帧中wBi 和wAj 属于同一类并将它们合并,其中HA 和HB 分别为窗A 和B 中的类别数。此外,还可以增加一些约束条件,用于判断某些类是否为孤立的异常点。对于一个聚类窗中的所有聚类结果,需要遍历每一类并判断其与之前窗聚类结果的关系。这样,随着聚类窗的滑动,具有较强相关性的动目标阴影检测点被逐渐关联,而虚警目标往往被分类为异常点。通过这种改进密度聚类处理,可以实现对虚警目标的有效抑制。
3.3.3 基于Bi-LSTM网络的目标预测
如果运动目标的速度变化较剧烈,其多普勒频移超过雷达系统的最大不模糊多普勒频率,那么目标像将呈现出周期性的混叠。在某些视频SAR图像中,动目标阴影可能被其混叠的目标像部分或者全部遮挡,导致出现漏警。同时,由于目标运动状态及雷达视角的变化,阴影区域的形状及灰度是时变的,增大了产生漏警的概率。
本文采用一种联合多帧的预测模型来降低漏警,结合检测结果信息实现对漏警目标位置的预测。循环神经网络(RNN)是一种适用于处理时序问题的记忆型神经网络。Bi-LSTM网络是一类特殊的RNN,其克服了传统RNN不能解决长距离依赖的问题[31]。本文利用Bi-LSTM网络实现对漏警目标的预测,其网络结构如图14所示,包含输入层,一个双向循环层(前、后向传播链)以及两个全连接层。
虚警抑制后的动目标阴影坐标序列被用于作为Bi-LSTM网络的输入。假设该网络用于预测第
m 帧中的漏警目标,那么输入向量由前窗l 中的K 个向量(Xl,Yl,ΔFl) 、后窗r 中的K 个向量(Xr,Yr,ΔFr) 以及缺失向量(0,0,0) 组成。前后窗中的2K 个向量可以表示为(Xl,Yl,ΔFl)={(xαi,yαi,Δfαi),Δfαi=|αi−m|}(Xr,Yr,ΔFr)={(xβi,yβi,Δfβi),Δfβi=|βi−m|}} (18) 其中,
i=1,2,···,K ,(xαi,yαi) 是第αi 帧中动目标阴影的坐标并且αi∈[m−ϖ,m−1] ,βi∈[m+1,m+ϖ] 。ϖ 表示距离预测帧的最大帧间距,Δfαi 表示第αi 帧与第m 帧的帧间距。此外,帧间距满足关系为1≤ΔfαK<···<Δfα1<ϖ1≤Δfβ1<···<ΔfβK<ϖ} (19) 所设计的Bi-LSTM网络仅包含一个双向循环层,其由
2K+1 个单元组成。每个单元包含128个神经元,分别用于构成前向和后向传播链。对应于第m 帧的第K+1 个单元的输出经过两个堆叠的全连接层后产生预测坐标(xpredm,ypredm) ,实现了对第m 帧中缺失目标的预测。在网络训练过程中,本文采用该欧式距离的平方构建损失函数,即由预测坐标与真实坐标的欧式距离的平方表示
loss=1χχ∑i=1[(xpredi−x′i)2+(ypredi−y′i)2] (20) 其中,
(x′i,y′i) 表示阴影目标的真实位置,χ 为每次迭代训练的样本数。3.3.4 基于视频SAR实测数据的检测结果
利用Sandia实验室公布的实测视频SAR数据可以验证所提的基于深度神经网络的阴影辅助视频SAR动目标检测方法。由于共提取到300帧SAR图像,因此将210帧作为训练集的原始图像,其余连续90帧图像作为测试集。利用常用的数据增强方式如旋转、平移等可以有效扩充训练集。每个原始图像分别被中心旋转
0∘ ,45∘ ,90∘ ,135∘ ,180∘ ,225∘ ,270∘ 以及315∘ ,随后每个旋转后的图像被随机裁剪多次,再次扩充数据集以确保阴影目标位于图像中的不同位置。通过这种方式总共可以获得35400张图像用于训练Faster-RCNN网络。此外,提取原始图像上每个阴影目标的坐标序列,采用平移与旋转的方式扩充后作为Bi-LSTM网络的训练集。得到训练好的模型后,在90帧测试视频SAR图像上的初步检测结果如图15所示。首先利用Faster-RCNN在单帧图像上完成初步检测,图15(a)—图15(d)分别给出了第9, 20, 45, 75帧的初步检测检测结果。从图中可以看出,由于动目标阴影的特征简单、与SAR图像中低灰度区域特征相似,严重恶化了检测性能,初步检测结果中包含大量的虚警与漏警目标。正确检测的阴影目标为红色矩形框,虚警为青色矩形框,漏警发生在白色圆形区域。此外,也给出了阴影区域的分类得分,真实阴影目标通常具有较高的分类得分,这表明Faster-RCNN能够以较高的置信度检测动目标阴影。但是,由于特征恶化,某些真实阴影的得分较低,相反,一些虚警由于其特征与真实阴影相似,也具有较高的分类得分。
利用动目标阴影在序列视频SAR图像中的运动相关性,采用滑窗密度聚类方法来抑制虚警。随着滑窗进行,动目标阴影坐标被逐渐关联,虚警最终被分类为一些孤立的异常点。保留包含真实动目标阴影的类,其他类作为虚警目标剔除。通过这种改进的密度聚类方法,可以实现具有交叉轨迹的坐标点分类,并实现对弱相关虚警的抑制。
基于深度神经网络的视频SAR阴影辅助的动目标最终检测结果如图16所示。图16(a)—图16(d)分别为第9, 20, 45, 75帧,正确检测的阴影目标为红色矩形框,预测目标为白色矩形框,虚警为青色矩形框。对比图15可以看出,利用改进的滑窗密度聚类算法以及Bi-LSTM网络提高了检测性能,降低了虚警率与漏警率。但是在图16(d)中,由于虚警与上一帧真实阴影的距离小于聚类半径,该虚警未能抑制。为了更好的分析该方法的检测性能,表3中统计了在全部90帧测试数据上的虚警数与漏警数。同时,给出了每一步的具体结果,可以看出每个步骤对检测性能的提高程度。在90帧中共有730个真实动目标阴影,初步检测结果中包含73个虚警与123个漏警。经过后续两步处理后,最终检测结果中只有9个虚警与7个漏警。
表 3 基于实测视频SAR数据的检测性能对比(目标总数:730)Table 3. Comparisons of detection performance on the real video sar data (Target number: 730)方法 正确检测的目标 虚警目标 漏警目标 基于背景差分的阴影检测方法 658 77 72 Faster-RCNN 607 73 123 Faster-RCNN+滑窗密度聚类 606 9 124 Faster-RCNN+滑窗密度聚类+Bi-LSTM 723 9 7 4. 总结与展望
本文对视频SAR成像处理算法进行了探讨,对视频SAR中动目标阴影形成机理及检测性能进行了定量分析,将机器学习技术应用于视频SAR阴影检测并取得了显著效果,实现了对动目标阴影的检测、预测及虚警漏警抑制,并在实测数据上与经典处理方法进行对比验证。
本文分析了动目标阴影产生及制约条件,过慢或过快的动目标均难以形成可靠阴影,工程应用可考虑阴影检测和传统多普勒检测的联合技术,以实现与目标速度无关的雷达动目标检测能力。尽管基于有监督深度学习方法的阴影检测算法相对经典图像处理算法计算量小,性能优异,但算法泛化能力明显不足,这也是深度学习类算法应用到雷达领域面临的普遍性问题,亟待研究突破。为实现视频SAR实时信号处理,需研究高效率信号处理软硬件技术,并将其工程化。
致谢 感谢廖桂生教授、刘宏伟教授和邢孟道教授对该项研究工作的有益指导。
-
表 1 仿真参数
Table 1. Simulation parameters
参数名称 数值 单位 雷达载频 17.6 GHz 调频率 1.5×1013 Hz/s 采样率 5×107 Hz 脉冲重复频率 1000 Hz 脉冲宽度 4.096×10−5 s 载机速度 180 m/s 场景中心斜距 10000 m 载机高度 6000 m 成像擦地角 36.8 ° 天线电尺寸 0.4 m 成像帧率 10 Hz 表 2 基于背景差分的阴影检测性能统计
Table 2. Statistical results of shadow detection based on background difference
目标总数 正确检测的目标 虚警目标 漏警目标 730 658 77 72 表 3 基于实测视频SAR数据的检测性能对比(目标总数:730)
Table 3. Comparisons of detection performance on the real video sar data (Target number: 730)
方法 正确检测的目标 虚警目标 漏警目标 基于背景差分的阴影检测方法 658 77 72 Faster-RCNN 607 73 123 Faster-RCNN+滑窗密度聚类 606 9 124 Faster-RCNN+滑窗密度聚类+Bi-LSTM 723 9 7 -
[1] DAMINI A, BALAJI B, PARRY C, et al. A videoSAR mode for the x-band wideband experimental airborne radar[C]. The SPIE 7699, Algorithms for Synthetic Aperture Radar Imagery XVⅡ, Orlando, USA, 2010: 76990E. doi: 10.1117/12.855376. [2] WALLACE H B. Development of a video SAR for FMV through clouds[C]. The SPIE 9479, Open Architecture/Open Business Model Net-Centric Systems and Defense Transformation 2015, Baltimore, USA, 2015: 94790L. doi: 10.1117/12.2181420. [3] KIM S H, FAN R, and DOMINSKI F. Visar: A 235 Ghz radar for airborne applications[C]. 2018 IEEE Radar Conference, Oklahoma City, USA, 2018: 1549–1554. [4] PALM S, SOMMER R, JANSSEN D, et al. Airborne circular w-band SAR for multiple aspect urban site monitoring[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(9): 6996–7016. doi: 10.1109/TGRS.2019.2909949 [5] ICEYE. ICEYE demonstrates SAR video capability from current SAR satellite constellation[EB/OL]. https://www.iceye.com/press/press-releases/iceye-demonstrates-sar-video-capability-from-current-sar-satellite-constellation, 2020. [6] BIELEK T P, THOMPSON D G, and WALKER B C. Synthetic aperture design for increased SAR image Rate[P]. US, 7498968, 2009. [7] WELLS L, SORENSEN K, DOERRY A, et al. Developments in SAR and IFSAR systems and technologies at Sandia National Laboratories[C]. 2003 IEEE Aerospace Conference Proceedings, Big Sky, USA, 2003: 2_1085–2_1095. doi: 10.1109/AERO.2003.1235522. [8] 赵雨露, 张群英, 李超, 等. 视频合成孔径雷达振动误差分析及补偿方案研究[J]. 雷达学报, 2015, 4(2): 230–239. doi: 10.12000/JR14153ZHAO Yulu, ZHANG Qunying, LI Chao, et al. Vibration error analysis and motion compensation of video synthetic aperture radar[J]. Journal of Radars, 2015, 4(2): 230–239. doi: 10.12000/JR14153 [9] 孙伟, 孙进平, 张远, 等. 大斜视直升机载太赫兹ViSAR振动补偿成像算法[J]. 北京航空航天大学学报, 2016, 42(12): 2755–2761. doi: 10.13700/j.bh.1001-5965.2015.0862SUN Wei, SUN Jinping, ZHANG Yuan, et al. High squint helicopter-borne terahertz ViSAR vibration compensation imaging algorithm[J]. Journal of Beijing University of Aeronautics and Astronautics, 2016, 42(12): 2755–2761. doi: 10.13700/j.bh.1001-5965.2015.0862 [10] LINNEHAN R, MILLER J, BISHOP E, et al. An autofocus technique for video-SAR[C]. The SPIE 8746, Algorithms for Synthetic Aperture Radar Imagery XX, Baltimore, USA, 2013: 874608. doi: 10.1117/12.2016430. [11] MARTIN G D, DOERRY A W, and HOLZRICHTER M W. A novel polar format algorithm for SAR images utilizing post azimuth transform interpolation[R]. SAND2005-5510, 2005. [12] ZHU Daiyin, YE Shaohua, and ZHU Zhaoda. Polar format agorithm using chirp scaling for spotlight SAR image formation[J]. IEEE Transactions on Aerospace and Electronic Systems, 2008, 44(4): 1433–1448. doi: 10.1109/TAES.2008.4667720 [13] HAWLEY R W and GARBER W L. Aperture weighting technique for video synthetic aperture radar[C]. The SPIE 8051, Algorithms for Synthetic Aperture Radar Imagery XVⅢ, Orlando, United States, 2011: 805107. doi: 10.1117/12.887648. [14] MOSES R L and ASH J N. Recursive SAR imaging[C]. The SPIE 6970, Algorithms for Synthetic Aperture Radar Imagery XV, Orlando, USA, 2008: 69700P. doi: 10.1117/12.786307. [15] MILLER J, BISHOP E, DOERRY A, et al. Impact of ground mover motion and windowing on stationary and moving shadows in synthetic aperture radar imagery[C]. The SPIE 9475, Algorithms for Synthetic Aperture Radar Imagery XXⅡ, Baltimore, USA, 2015: 94750C. doi: 10.1117/12.2179173. [16] RAYNAL A M, BICKEL D L, and DOERRY A W. Stationary and moving target shadow characteristics in synthetic aperture radar[C]. The SPIE 9077, Radar Sensor Technology XVⅢ, Baltimore, USA, 2014: 90771B. doi: 10.1117/12.2049729. [17] SKOLNIK M I. Radar Handbook[M]. 2nd ed. New York: McGraw-Hill, 1990. [18] 保铮, 邢孟道, 王彤. 雷达成像技术[M]. 电子工业出版社, 2005.BAO Zheng, XING Meng-dao, and WANG Tong. Radar Imaging Technique[M]. Publishing House of Electronics Industry, 2005. [19] OLIVER C and QUEGAN S. Understanding Synthetic Aperture Radar Images[M]. Raleigh: SciTech Publishing, 2004. [20] CARRARA W G, GOODMAN R S, and MAJEWSKI R M. Spotlight Synthetic Aperture Radar: Signal Processing Algorithms[M]. Boston, London: Artech House, 1995. [21] JAHANGIR M. Moving target detection for synthetic aperture radar via shadow detection[C]. 2017 IET International Conference on Radar Systems, Edinburgh, UK, 2007: 1–5. doi: 10.1049/cp:20070659. [22] WANG Hui, CHEN Zhansheng, and ZHENG Shichao. Preliminary research of low-RCS moving target detection based on Ka-band video SAR[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(6): 811–815. doi: 10.1109/LGRS.2017.2679755 [23] ZHANG Ying, MAO Xinhua, YAN He, et al. A novel approach to moving targets shadow detection in videoSAR imagery sequence[C]. 2017 IEEE International Geoscience and Remote Sensing Symposium, Fort Worth, USA, 2017: 606–609. doi: 10.1109/IGARSS.2017.8127026. [24] XU Huajian, YANG Zhiwei, TIAN Min, et al. An extended moving target detection approach for high-resolution multichannel SAR-GMTI systems based on enhanced shadow-aided decision[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(2): 715–729. doi: 10.1109/TGRS.2017.2754098 [25] RAYNAL A M, DOERRY A W, MILLER J A, et al. Shadow probability of detection and false alarm for median-filtered SAR imagery[R]. SAND2014-4877, 2014. [26] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA, 2014: 580–587. doi: 10.1109/CVPR.2014.81. [27] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137–1149. doi: 10.1109/TPAMI.2016.2577031 [28] LI Jianwei, QU Changwen, and SHAO Jiaqi. Ship detection in SAR images based on an improved faster R-CNN[C]. 2017 SAR in Big Data Era: Models, Methods and Applications, Beijing, China, 2017: 1–6. doi: 10.1109/BIGSARDATA.2017.8124934. [29] 胡炎, 单子力, 高峰. 基于Faster-RCNN和多分辨率SAR的海上舰船目标检测[J]. 无线电工程, 2018, 48(2): 96–100. doi: 10.3969/j.issn.1003-3106.2018.02.04HU Yan, SHAN Zili, and GAO Feng. Ship detection based on faster-RCNN and multiresolution SAR[J]. Radio Engineering, 2018, 48(2): 96–100. doi: 10.3969/j.issn.1003-3106.2018.02.04 [30] ESTER M, KRIEGEL H P, SANDER J, et al. A density-based algorithm for discovering clusters in large spatial databases with noise[C]. The Second International Conference on Knowledge Discovery and Data Mining, Portland, USA, 1996: 226–231. [31] GERS F A, SCHMIDHUBER J, and CUMMINS F. Learning to forget: Continual prediction with LSTM[C]. The 1999 Ninth International Conference on Artificial Neural Networks, Edinburgh, UK, 1999: 850–855. doi: 10.1049/cp:19991218. 期刊类型引用(18)
1. 刘燊文,崔兴超,陈思伟. 结合空时上下文信息的视频SAR图像相干斑滤波. 系统工程与电子技术. 2024(02): 446-458 . 百度学术
2. 陈庆锌,刘亚波,王露豪,喻忠军. W波段机载视频合成孔径雷达系统. 太赫兹科学与电子信息学报. 2024(01): 46-53 . 百度学术
3. 许宜明,李东生,杨浩. 改进Faster R-CNN的视频SAR动目标检测算法. 火力与指挥控制. 2024(01): 124-130+138 . 百度学术
4. 颜上取,付耀文,张文鹏,杨威,余若峰,张法桐. 视频合成孔径雷达技术发展现状综述. 系统工程与电子技术. 2024(08): 2650-2666 . 百度学术
5. 白浩琦,李和平. 基于改进YOLOv5的Video SAR动目标检测算法. 科技创新与应用. 2024(26): 54-59 . 百度学术
6. 崔硕,蒋梦杰,张邦杰,陈宇智,徐刚. 车载平台毫米波雷达三维点云视频成像. 现代雷达. 2024(10): 32-38 . 百度学术
7. 张营,冀贞海,魏阳杰,刘志武,吴昊. 基于低秩与稀疏分解的VideoSAR散射关键帧提取. 空间电子技术. 2023(01): 93-98 . 百度学术
8. 陈李田,张云,李宏博,王勇. 基于随机有限集的视频SAR多目标跟踪方法. 空军工程大学学报. 2023(02): 77-82 . 百度学术
9. 邱磊,张学志,郝大为. 基于深度学习的视频SAR动目标检测与跟踪算法. 自然资源遥感. 2023(02): 157-166 . 百度学术
10. 黄艳堃,邓玉辉,孙光才,邢孟道. 基于时间信息加权的ViSAR目标阴影跟踪算法. 系统工程与电子技术. 2023(10): 3065-3075 . 百度学术
11. 康腾飞,金敏. 一种SAR动目标联合参数估计与重定位方法. 长江信息通信. 2023(11): 143-145 . 百度学术
12. 安道祥,葛蓓蓓,王武,陈乐平,冯东,周智敏. 机载多通道广角凝视SAR地面动目标指示技术研究. 雷达学报. 2023(06): 1179-1201 . 本站查看
13. 康玉奇,向聪. 基于阴影的视频SAR动目标检测. 火控雷达技术. 2023(04): 23-28 . 百度学术
14. 丁金闪,仲超,温利武,徐众. 视频合成孔径雷达双域联合运动目标检测方法. 雷达学报. 2022(03): 313-323 . 本站查看
15. 张笑博,吴迪,朱岱寅. 基于深度学习的ViSAR多运动目标检测. 雷达科学与技术. 2022(05): 513-519 . 百度学术
16. 何志华,陈兴,于春锐,栗子涵,余安喜,董臻. 一种稳健的视频SAR动目标阴影检测与跟踪处理方法. 电子与信息学报. 2022(11): 3882-3890 . 百度学术
17. 闫贺,黄佳,李睿安,王旭东,张劲东,朱岱寅. 基于改进快速区域卷积神经网络的视频SAR运动目标检测算法研究. 电子与信息学报. 2021(03): 615-622 . 百度学术
18. 周洋,吴福伟,尚士泽,杨予昊,李大圣. W波段视频SAR阴影测速方法研究. 微波学报. 2021(S1): 186-189 . 百度学术
其他类型引用(32)
-