-
摘要: 无人机载雷达具有高机动灵活的特点,可解决传统非接触式生命体征感知中存在的探测范围小和探测场景受限等问题。该项研究工作将4D成像雷达搭载于多旋翼无人机上,提出一种基于点云配准的无人机载4D雷达生命体征感知方法。该方法通过对雷达点云进行配准和运动补偿,消除无人机在悬停状态时的运动误差干扰,进而对齐人体目标后实现生命体征信号的获取。仿真实验结果表明该方法能够对齐4D成像雷达点云序列,有效抑制无人机的运动干扰,从而准确提取人体目标的呼吸和心跳信号,为无人机载非接触式生命体征感知提供了一种新的技术途径。Abstract: Unmanned Aerial Vehicle (UAV)-borne radar technology can solve the problems associated with noncontact vital sign sensing, such as limited detection range, slow moving speed, and difficult access to certain areas. In this study, we mount a 4D imaging radar on a multirotor UAV and propose a UAV-borne radar-based method for sensing vital signs through point cloud registration. Through registration and motion compensation of the radar point cloud, the motion error interference of UAV hovering is eliminated; vital sign signals are then obtained after aligning the human target. Simulation results show that the proposed method can effectively align the 4D radar point cloud sequence and accurately extract the respiration and heartbeat signals of human targets, thereby providing a way to realize UAV-borne vital sign sensing.
-
Key words:
- Vital signs /
- 4D imaging radar /
- Unmanned Aerial Vehicle (UAV) /
- Point cloud /
- Registration
-
1. 引言
雷达可以远距离检测人体的生命体征,在灾后搜索和救援行动中具有重要应用价值。目前通常采用搜救人员手持雷达的方式进行生命体征探测感知,这种携带搜索的方式存在探测范围小、机动性能差、难以进入现场等问题。将生命体征感知雷达搭载于无人机平台上可以有效解决上述问题,但由于平台运动使得无人机的运动与呼吸等生命体征微动混合,干扰了生命体征信号的测量。生命探测感知中呼吸和心跳等生命体征信号非常微弱,通常需要雷达平台处于静止条件使用[1−3]。当雷达搭载于多旋翼无人机上进行悬停探测时,由于飞行控制系统性能、气流干扰影响等会产生抖动,导致无人机姿态发生垂直和水平位置漂移以及偏航、横滚和俯仰变化,雷达的照射姿态也随之发生改变,难以满足雷达生命体征感知的要求。因此需要补偿无人机抖动产生的天线单元的位移偏差,使得雷达在无人机悬停条件下能够精确测量呼吸和心跳等生命体征信号。
补偿无人机平台的运动误差已经在无人机载合成孔径雷达(Synthetic Aperture Radar, SAR)成像应用中被广泛研究,目前主要有两类方法。一类方法是利用惯性导航传感器实时测量定位无人机的姿态。无人机所配备的惯性测量单元(Inertial Measurement Unit, IMU)或者全球定位系统(Globe Positioning System, GPS)的精度和数据率低,因此直接采用测量参数进行运动补偿的精度受限。特别是当悬停时平台抖动不规律,IMU信号中包含了偏置和噪声,并且由于利用加速度数据进行位置计算涉及二次积分,进一步造成误差累积,因此基于IMU的方法难以估计出随机移动的物体的准确位置。在无人机载雷达生命体征探测方面,目前采用惯性导航传感器的研究还很少。Stockel等人[4]分析了运动对安装在无人机下方的MIMO雷达在人体目标检测和相位信号测量方面的影响,并利用IMU数据对每个自由度分别提出了一种算法来减轻或者消除这些影响。这类方法用于生命体征探测时存在的主要问题是运动估计精度较低以及累积误差带来的不利影响。
另一类常用于无人机载SAR的方法是基于采集的回波数据进行运动补偿,例如在机载SAR成像中建立多项式相位模型的方法[5],以及相位梯度自聚焦算法(Phase Gradient Autofocus, PGA)等[6]。与之类似,在无人机载生命体征探测领域,Nakata等人[7]使用额外的雷达来测量垂直位移,分别利用搭载在实验台和4轴飞行器上的雷达中恢复了呼吸信号。Islam等人[8]利用双雷达系统,将垂直地面(或天花板)测量的振动信号作为平台自身振动的参考,采用自适应滤波方法补偿平台运动伪影以提取呼吸运动特征。Rong等人[9]提出使用一种数据驱动方法来消除平台的运动干扰,并使用变分模态分解(Variational Mode Decomposition, VMD)进一步细化运动残差。Jing等人[10]使用超宽带(Ultra-WideBand, UWB)雷达各帧回波数据之间的相关性计算出的延迟来补偿距离偏移,从而捕捉人体呼吸信号。Ma等人[11]针对手持和机器人携带这两种雷达平台移动的场景,利用参考静止目标的回波消除超宽带雷达运动对无线感知的影响。Zhang等人[12]提出通过从人体反射的射频信号与周围静止物体之间的时空相关性来探测目标的呼吸信号。上述研究中,无论是单个还是两个雷达,利用的都是雷达的单通道回波信息,通常只能补偿单一方向的平台振动。此外,人体目标回波信号和背景环境散射信号混叠在一起,严重影响了运动补偿的效果。
建立在已有四维(Four-Dimensional, 4D)成像雷达生命体征感知[13,14]研究基础之上,本文中我们探索将4D成像雷达搭载于多旋翼无人机上,提出一种基于雷达点云配准的平台运动补偿方法,用以抑制无人机悬停状态下的抖动对生命体征感知的影响,其感知原理示意如图1所示。通过雷达成像得到4D雷达图像序列,然后通过对背景区域图像配准对齐目标,进而从雷达图像序列中提取分离呼吸、心跳等生命体征信号。本文的研究工作,一方面利用了4D成像雷达高空间分辨能力的特点,能同时定位和测量人体目标信息,通过在3D空间维度和1D时间维度的处理实现对人体目标的时空信息感知。另一方面,通过克服平台运动误差,极大地拓展了生命体征探测雷达的适用场景。
2. 无人机载4D成像雷达生命体征感知模型
2.1 系统模型
基于雷达的生命体征探测利用了微动检测技术。雷达系统接收来自人体散射的回波,回波中包含肺部吸气和呼气以及心脏的收缩和舒张活动。这些生理活动引起的胸壁位移的幅度变化很小,主要反映在不同时刻雷达回波之间的相位变化上[13]。从雷达成像的角度来讲,当探测生命体征时,每一帧雷达图像都会随着人体目标生理微动而变化。因此可以采用图像序列的连续变化检测来提取由生命体征信号调制的振动信号。
4D雷达成像提供了动态目标的定量重建,能够实现对目标的位置测量和变化估计。雷达成像过程可以作为电磁逆散射问题来分析[15],电磁波前向传播模型的离散矩阵形式可以表示为
Es=Hχ+ν (1) 其中,目标场景被离散化为N个位于rn的体素。Es是散射场Es(r′,k)的采样数据,ν∈CM是测量噪声和杂波。χ代表目标的对比度向量,其元素χ(r)=εt(r)/ε0−1代表目标区域D的对比度函数(目标像),对应目标的散射系数,εt(r)是目标的介电常数,χ(r)描述了探测区域目标和背景介质之间介电常数的差异。通过归一化测量场,感知矩阵H结合了入射场和格林函数G(r,r′,k)。对于该传播模型,H是一个矩阵算子,元素为Hmn=ETm(rn)⋅ERm(rn),其中ETm(rn)和ERm(rn)对应第m对发射/接收通道和位于rn的点之间的格林函数。
成像过程旨在反演目标的对比度图像,即通过对式(1)表示的正演过程的求解可以获得雷达图像。在实际应用中,由于感知矩阵H往往很大,并且因各列间较强的相关性而成为秩缺矩阵,因此难以在最小二乘意义下获得关于χ的最优估计ˆχ=(HTH)−1HTEs,其中,T表示共轭转置。用于成像模型的准确、简单和健壮的解决方案是后向投影(Back-Projection Algorithm, BPA)算法[16],该算法的计算过程可以等效为一个匹配滤波器,其解的形式为
ˆχ=HTEs (2) 该算法对复杂场景具有较强的鲁棒性,并且便于用快速傅里叶变换和并行计算来实现加速。
利用4D成像雷达周期发射并接收电磁波信号,可以实现连续测量,从而动态监测呼吸和心脏运动。将BPA成像算法应用于原始雷达数据后,可以得到包含3D空间和1D时间信息的4D时空复图像序列。利用配置二维MIMO阵列并发射SFCW信号的4D雷达,可以通过BPA重建三维图像。通过4D成像雷达连续测量可以形成3D雷达图像时间序列,如图2所示。前3个维度表示X,Y,Z坐标,原点位于MIMO阵列的中心,第4个维度表示时间。对于4D复数雷达图像,t时刻目标的对比度ˆχ的估计可以利用BPA成像得到,即
o(rn,t)=MT∑mT=1MR∑mR=1L∑l=1SmTmR(fl,t)ej2πflτmT−mRn (3) 其中,rn=(xn,yn,zn)是3D空间坐标,N是成像区域离散后的体素总数,第n个体素位置处目标的回波时延τmTmRn=[RmT(r,t)+RmR(r,t)]/c也被称为“快时间”延迟,c是电磁波传播速度。t=iΔt是“慢时间”采样,表示采样间隔为Δt的第i个采样时刻。L为频点数量,fc是中心频率。MT是发射单元的数量,MR是接收单元的数量。SmTmR(fl,t)是由第mT个发射单元发射,并由第mR个接收单元接收的第l个频率fl的回波数据。
2.2 生命体征信号提取
获取雷达图像序列后,可以利用变化检测提取人体目标的生理微动信号。根据成像定位结果,提取检测位置的图像体素相位作为微动信号,该微动信号混叠了呼吸和心跳信号,进而利用信号分离算法分离呼吸和心跳信号,如图2所示。
在电磁波传播过程中,对于位于空间位置rp=(xp,yp,zp)处的理想点目标,接收回波信号可以表示为
SmTmR(fl)=σ(rp)e−j2πflRmTmRp/c (4) 其中,σ(rp)代表位于rp处目标的反射率,是RCS和距离的函数。RmTmRp是第mT个发射单元发射的电磁波信号经目标散射返回到第mR个接收单元的双程距离。因此,式(3)可以写为
o(rn,t)=L∑l=1MT∑mT=1MR∑mR=1σ(rp)e−jkl(RmTmRp−RmTmRn) (5) 其中,RmTmRn=cτmTmRn是体素n对应的双程距离,kl=2πfl/c是频率fl对应的波数。由于胸腔表面振动和照射之间的夹角很小[17],可以近似为
o(rq,t)≈LMTMRσ(rp)e−j4πfcρ(t)/c=LMTMRσ(rp)e−j4πfc(ρr(t)+ρh(t))/c (6) 其中,ρ(t)是胸腔表面位移,ρr(t)和ρh(t)分别是呼吸和心跳对应的胸腔表面位移。通过连续雷达成像,可以获得不同时刻的雷达图像。
此外,4D雷达成像通过空间分辨抑制了目标上的背景杂波。作为对比,连续波多普勒雷达没有任何空间分辨率,因此回波完全混合了目标和背景的散射;宽带SISO雷达具有距离分辨率,可以区分不同距离的目标回波,但难以有效消除与雷达距离相等位置的目标像之间的相互干扰;而4D成像雷达的空间分辨率与其阵列拓扑结构有关,恰当设计的天线阵列能够实现三维空间分辨能力,这样就可以得到目标和背景分开的雷达图像。
当确定了胸腔表面的位置之后,就可以从4D图像的对应体素沿时间维度抽取出生理微动信号。根据式(6),胸腔表面的位移与图像体素的相位成正比,即
ρ(t)=−Phase(o(rq,t))⋅c4πfc (7) 其中,Phase(⋅)代表相位计算函数。由于相位具有周期性的特点,为了避免波形跳变还需要对其进行解缠,通常可以采用反正切解调、对数方法或者微分交叉相乘(Differentiate And Cross Multiply, DACM)算法[18]。由于体素的相位线性正比于呼吸和心跳叠加构成的生命体征信号ρr(t)+ρh(t),这种基于相位的方法避免了谐波和互调分量的干扰,提取的生命体征信号提供了真实的胸腔位移幅度,可以获得精确的生理微动信息。DACM算法已经成功用于光学信号处理中的相位解调,其没有共域限制,可以有效避免小角度近似和直接反正切解调的缺点,是一种有效的相位解调算法。但是,传统DACM算法中需要计算微分,使得计算对噪声非常敏感,尤其是高频噪声。为了抑制微分带来的噪声,可以进一步增加一个积分步骤来得到相位Φ(t),这样可以有效地抑制零均值噪声,该方法称为扩展微分交叉相乘(Extended Differentiate And Cross Multiply, EDACM)算法[18]。
在数字域,EDACM算法计算相位的离散形式为
Φ[i]=i∑κ=2I[κ](Q[κ]−Q[κ−1])−Q[κ](I[κ]−I[κ−1])I[κ]2+Q[κ]2 (8) 其中,Φ[i]是第i个离散时刻的相位值,I[κ]和Q[κ]分别代表第κ个离散时刻体素值的实部和虚部。利用EDACM算法计算相位,可以得到解缠绕后的生理微动信号。
雷达测量的是生理活动引起的体表微动。在生理活动过程中,心肺等器官运动使得胸部节律性地扩张和收缩,引起胸腹壁的周期性位移。在运动幅度上,典型的呼吸引起的胸壁移位范围是4~12 mm;相比之下,心跳的位移为0.2~0.6 mm。在运动频率上,呼吸频率的范围是0.2~0.5 Hz,心跳频率的范围是0.9~2.0 Hz[19]。为了从微动信号ρ(t)中分离出呼吸信号ρr(t)和心跳信号ρh(t),可以采用变分模态分离(Variational Mode Separation, VMS)算法实现[13]。VMS算法是VMD的改进,通过自动构建自适应滤波器实现呼吸和心跳微动模式的分离,适用于两个具有多谐波分量信号的自适应分离,因此本文采用VMS算法分离呼吸和心跳信号。
3. 无人机载4D成像雷达平台运动补偿方法
3.1 平台运动分析
无人机初步发现目标后悬停于待探测人体目标上方,雷达持续发射电磁波信号,从雷达回波时间序列中提取呼吸和心跳等生命体征信号。在此过程中无人机会发生平移和旋转运动,阵列天线单元与目标之间发生相对运动,同一目标点在图像上的位置和角度会改变,导致雷达图像序列间的晃动现象,如图2所示,因此在上述无人机载生命体征感知中的一个关键处理是分析并补偿运动引起的误差。
无人机的运动导致了雷达图像序列中不同帧之间的图像变化,可以将多种运动形式分解为沿水平轴X轴的平移运动、旋转运动(倾斜运动),沿水平轴Y轴的平移运动、旋转运动;沿阵列平面法向Z轴的升降运动、旋转运动,对应形成6个自由度(6DOF)的运动矢量。六自由度决定了一个物体在三维空间中的位置和方向,不仅能够确定物体的平移(x, y, z),还能确定其旋转(俯仰角、偏航角、翻滚角)。对于搭载其上的雷达而言,天线阵列是刚性的,因此六自由度能够完全确定各个阵元的位置,从而将阵元位置信息用于成像算法。此外,4D成像雷达具有较高的成像帧率,远高于多旋翼无人机悬停状态的抖动频率,无人机的振动和旋转通常在3 Hz以内[4],在每帧数据周期内可以近似认为平台姿态保持不变,因此主要考虑帧间运动误差。如图3所示,在无人机悬停过程中,相比基准时刻t,在t+1时刻雷达天线阵列发生平移和旋转运动,导致t+1时刻成像坐标系随之发生平移和旋转。
3.2 运动补偿方法
为了使被探测目标在雷达图像中保持稳定,需要估计当前图像帧与参考图像帧之间的运动矢量,从而得到待补偿抖动分量,进一步补偿当前图像帧,最终使补偿后的雷达图像与参考帧雷达图像中的目标位置对应一致。针对3D雷达图像的特点,借鉴激光雷达成像的处理,我们采用3D点云来表征雷达图像,通过对3D点云的处理实现运动补偿,运动补偿的流程如图4所示,主要包括如下步骤:
(1) 雷达成像。对原始回波数据进行雷达成像,得到三维雷达图像。
(2) 点云生成。对三维雷达图像进行CFAR检测,并将体素数据转换为3D点云。
(3) 点云配准。对雷达点云序列进行配准,通过对雷达点云进行平移、旋转、缩放等变换处理,使当前待配准帧点云与基准帧点云匹配。求解当前帧点云相对于参考帧点云的运动矢量,用该运动矢量对阵元位置坐标进行变换并成像,生成运动补偿后的雷达图像序列。
(4) 人体检测。通过对雷达图像序列进行多普勒滤波,检测出人体目标区域。
(5) 提取生理微动信号。对人体目标点提取相位,得到生理微动信号。
(6) 分离呼吸和心跳信号。利用VMS算法对生理微动信号进行自适应分离,分别得到呼吸和心跳信号波形。
上述步骤中的关键点是通过点云配准的方式对雷达进行运动估计。根据成像模型,求解出t+k时刻的待配准点云与t时刻基准点云之间的对应关系,寻找待配准点云的点在基准点云中距离最近的点作为对应点,通过空间坐标变换实现二者的对齐。
在无人机悬停探测过程中,运动偏移使得雷达阵列与目标之间的相对位置和视角发生改变,导致不同位置和视角采集的成像数据不是相同的空间坐标系。通过三维空间变换,可以将雷达点云转换到同一坐标系实现雷达点云的配准。因此配准就是对同一目标场景的两个或多个像进行几何对齐的匹配过程,通过对源进行变换,使之尽可能与目标对齐。针对生命体征探测问题,通过对时间序列中的目标精确配准,使得时间序列中各帧人体目标像匹配,从而准确提取人体目标的微动信息。
待配准点云和基准点云之间的关系可以表示为
I1(q)=G(I0(p)) (9) 其中,p和q分别是目标在待配准点云和基准点云上的位置坐标。为了改善几何形变对点云的影响,首先需要将其经过仿射变换、透视变换、相似变换、刚性变换等将图像从畸变坐标系下校正到标准坐标系下,然后根据特征匹配后的准确匹配点对完成最终几何空间变换矩阵的计算,通过重采样技术实现图像配准。本项工作中采用的仿射变换,普遍应用于平移、旋转、缩放(尺度变换)、剪切变换的图像中,被广泛应用于合成孔径雷达图像配准中。
在点云配准过程中,各个数据点对应的几何变换关系可以表示为
qj=Api+b (10) 其中,P={pi}Npi=1和Q={qj}Nqj=1分别是待配准点云和基准点云中所有点坐标构成的点集。
因此,点云配准目的就是求取变换矩阵,使待配准点云P和基准点云Q对应点之间的距离最小。即两幅点云的匹配点越准确,仿射矩阵A越准确,点云配准精度越高。该问题可以转换为对仿射矩阵A和偏移向量b的优化求解:
(A,b)=argminA∈SO(3),b∈R3Np∑i=1wi‖ (11) 其中, w_{i} 是加权值。从而,通过求解变换矩阵和偏移向量,使得不同时刻测量的雷达图像点云对齐,然后在4D时间序列中提取人体目标的生命体征信号。对于刚体变换,变换矩阵对应旋转矩阵和平移向量;考虑到4D成像雷达成像的空变性质,采用仿射变换模型计算变换矩阵。在求解算法方面,采用加权迭代最近点(Iterative Closest Point, ICP)算法[20]实现雷达点云的精确配准。ICP算法是一种用于点云配准问题的主流方法,目的是通过寻找两幅点云中距离最近的对应点,迭代求解两幅点云之间的坐标系变换关系。在配准过程中,经过迭代直至对应点的距离误差小于某一阈值或者达到迭代次数,从而得到最优的变换矩阵并确定最终的变换关系。加权ICP算法通过引入点云强度信息进行加权,将目标函数中计算欧氏距离改为加权距离,增加了雷达点云中强散射点的权重,更加符合雷达点云图像的特点,有助于减少误差对匹配结果的影响,提高算法的准确性和鲁棒性。加权ICP算法的流程主要包括以下步骤:
(1) 根据仿射变换建立源和目标点云的对应关系:
c_{k}(i)=\underset{j \in\{1,2, \cdots, N_q\}}{\operatorname{argmin}}\left\|{\boldsymbol{A p}}_{i}+{\boldsymbol{b}}-{\boldsymbol{q}}_{j}\right\|^{2} (12) 其中, i=1,2 ,\cdots, N_{p} ,有许多有效的方法可以使用,如基于k-d树的最近点搜索算法。
(2) 根据当前的对应关系计算新的仿射变换:
(\boldsymbol{A}, \boldsymbol{b})=\underset{{\boldsymbol{A}} \in {\mathrm{SO}}(3), {\boldsymbol{b}} \in \mathbb{R}^{3}}{\operatorname{argmin}} \sum_{i=1}^{N_p} w_{i}\left\|{\boldsymbol{A p}}_{i}+\boldsymbol{b}-\boldsymbol{q}_{c_k(i)}\right\|_{2}^{2} 本项研究工作中将加权值定义为点云强度的乘积。该式的求解可以使用SVD求解。
(3) 如果目标函数之间的变化小于预设阈值 \varepsilon>0 或达到最大迭代次数,则循环结束并输出最终的仿射变换矩阵 \boldsymbol{A} 和偏移向量 {\boldsymbol{b}} ,否则迭代步骤(1)和步骤(2)。
4. 实验结果与分析
4.1 实验设置
根据第3.2节方法,我们进行了无人机载4D成像雷达生命体征感知仿真实验。仿真实验中采用20发20收的MIMO雷达体制作为4D成像雷达,表1列出了其主要参数。雷达天线包含20个发射阵元和20个接收阵元,呈L型分布,可以在62~69 GHz的频段内发送和接收SFCW信号,天线阵列结构如图5所示。MIMO阵列结构使等效阵列具有400个虚拟单元,在平行于阵列平面的方向上具有较高的分辨率,可以达到6°的角分辨率。雷达图像数据采集帧率设置为30 Hz,即每秒可以获取30帧3D图像。通过雷达成像算法,能够得到包含3D空间位置和1D时间序列的4D雷达图像。因此,该4D成像雷达能够连续地探测感知目标场景的3D空间和1D时间信息。
表 1 无人机载4D成像雷达主要参数Table 1. Key parameters of the UAV-borne 4D radar prototype参数 参数值 中心频率 67 GHz 信号带宽 1 GHz 发射功率 –10 dBm 帧率 30 Hz 阵元数量 20 Tx, 20 Rx 阵列尺寸 6 cm × 6 cm 仿真中设置3个固定目标点作为背景物体,设置1个周期运动的目标点作为人体目标,如图6(a)所示,采用正弦波模型模拟呼吸和心跳运动,呼吸运动的幅度为10 mm,呼吸频率为15 次/min,心跳运动的幅度为2 mm,心跳频率为70 次/min,呼吸、心跳以及二者混叠在一起的生命体征信号波形如图6(b)所示。无人机悬停于人体目标上方约2 m处,在悬停过程中,会出现三维空间平移运动和俯仰、偏航、翻滚旋转运动,由于飞控系统的调节,平移和旋转运动在一定范围内按照某种趋势漂移,并伴随着随机波动,根据通常的4旋翼无人机参数,本仿真实验中在垂直、水平X、水平Y方向平移量最大为10 cm,在俯仰、偏航、翻滚旋转角度最大为6°,各个自由度的趋势项为正弦运动,频率为2 Hz,其中30个连续时刻的姿态如图6(a)所示。在建立上述仿真场景之后,连续获取雷达回波数据,根据本文所提出的方法进行数据处理。
4.2 成像结果
原始雷达成像结果如图7(a)所示,显示了该4D成像雷达点云序列中的一个基准帧和一个待配准帧。成像结果中的三维点云显示了人体目标和背景物体,三维点云是3D空间中的数据点的集合,其中每个点对应目标位置的3D坐标及其图像强度。从两帧点云的对比中可以看到,人体目标和背景物体的像出现了位置偏移和角度旋转。通过对两幅点云的配准,利用变换矩阵对待配准点云进行变换后得到相互匹配的点云对,得到配准后的点云与基准帧点云近似重合,如图7(b)所示,3个背景物体和人体目标点云相互对齐,三维空间位置偏移和俯仰、偏航、翻滚角度旋转得到补偿。在配准的同时,我们得到了变换矩阵以及对平台运动的平移向量和旋转角度的估计,无人机运动轨迹与真值的对比如图8所示。依次对4D成像雷达图像序列的所有帧点云数据进行上述处理,可以得到配准之后的图像序列。
4.3 生命体征信号提取结果
利用估计出的运动向量进行运动补偿之后,从人体目标所在位置提取相位信息得到生理微动信号,进一步利用VMS算法分离出呼吸和心跳信号。图9显示了运动补偿前直接提取人体目标生命体征信号的结果,其提取的生命体征信号波形与真实波形差距较大,无法直接从中获取呼吸和心跳信号。图10显示了进行运动补偿后提取的生命体征信号,图10(a)中波形结果显示,利用点云配准进行运动补偿处理后,能够观察到明显的呼吸信号,得到的波形与真实波形真值具有相似的形状。图10(b)显示分离的呼吸信号频率为0.24 Hz (14.4 次/min),心跳信号频率为1.17 Hz (70.2 次/min),由此可见,估计的呼吸频率、心跳频率与真值(分别为15 次/min和70 次/min)接近,与图9相比显著提高了对呼吸和心跳信号估计的准确度。值得注意的是,从图10(b)中显示出提取的生命体征信号中残留了无人机平台的运动干扰,这主要是由点云配准误差引起的。
对生命体征信号提取结果与无人机姿态估计的准确度关系紧密,为了评估基于点云配准的运动补偿方法中对无人机六自由度估计的准确度,进一步通过蒙特卡罗仿真统计了估计的平均误差(Mean Error, MEAN)和均方根误差(Root Mean Square Error, RMSE),平均误差的计算式为 \operatorname{MEAN}= {1}/{N}\left|\displaystyle\sum\nolimits_{n=1}^{N}\left(x_{{n}}-\hat{x}_{n}\right)\right| ,均方根误差的计算式为 \mathrm{RMSE}=\sqrt{{1}/{N}\displaystyle\sum\nolimits_{n=1}^{N}\left(x_{n}-\hat{x}_{n}\right)^{2}} ,其中, x_{n} 为估计值, \hat x_{n} 为真值。六自由度估计误差统计结果如表2所示,表2中显示了对运动偏移和旋转估计的准确度。针对本文的实验设置,雷达天线阵列沿X轴和Y轴分布,阵列平面法向(Z轴)朝下,翻滚角和俯仰角分别是雷达天线阵列绕X轴和Y轴的旋转,偏航角是雷达天线阵列绕Z轴的旋转。对六自由度的估计值越接近真值,意味着运动补偿的效果就越好。对于平移分量,垂直偏移的误差小于水平偏移量,其原因是4D成像中垂直方向的分辨率高于水平方向,该方向上的点云配准更加准确。
表 2 六自由度估计误差统计Table 2. Estimation error statistics of the 6DOF指标 MEAN RMSE 垂直偏移(m) 0.0031 0.0140 水平偏移X (m) 0.0069 0.0261 水平偏移Y (m) 0.0071 0.0249 俯仰角(°) 0.0372 0.1108 偏航角(°) 0.0515 0.1932 翻滚角(°) 0.0355 0.1099 5. 结语
本文将4D成像雷达搭载于无人机上,提出了一种基于点云配准的无人机载4D成像雷达生命体征感知方法。通过对成像区域的雷达点云进行配准,从而消除无人机在悬停状态时的运动误差干扰,对齐人体目标后通过提取相位信息实现对生命体征信号的获取,并利用自适应信号分离算法分离呼吸和心跳信号。仿真实验结果表明,该方法能够有效对齐4D雷达点云序列,准确提取人体目标的呼吸和心跳信号,为无人机载非接触式生命体征感知提供了一种鲁棒可靠的实现方式。
-
表 1 无人机载4D成像雷达主要参数
Table 1. Key parameters of the UAV-borne 4D radar prototype
参数 参数值 中心频率 67 GHz 信号带宽 1 GHz 发射功率 –10 dBm 帧率 30 Hz 阵元数量 20 Tx, 20 Rx 阵列尺寸 6 cm × 6 cm 表 2 六自由度估计误差统计
Table 2. Estimation error statistics of the 6DOF
指标 MEAN RMSE 垂直偏移(m) 0.0031 0.0140 水平偏移X (m) 0.0069 0.0261 水平偏移Y (m) 0.0071 0.0249 俯仰角(°) 0.0372 0.1108 偏航角(°) 0.0515 0.1932 翻滚角(°) 0.0355 0.1099 -
[1] LI Changzhi. Vital-sign monitoring on the go[J]. Nature Electronics, 2019, 2(6): 219–220. doi: 10.1038/s41928-019-0260-z. [2] RONG Yu, GUTIERREZ R, MISHRA K V, et al. Noncontact vital sign detection with UAV-borne radars: An overview of recent advances[J]. IEEE Vehicular Technology Magazine, 2021, 16(3): 118–128. doi: 10.1109/MVT.2021.3086442. [3] ISLAM S M M, OBA L, LUBECKE L, et al. Contactless vital sign monitoring with unmanned aerial vehicle-borne radar[J]. IEEE Potentials, 2023, 42(1): 27–34. doi: 10.1109/MPOT.2021.3138726. [4] STOCKEL P, WALLRATH P, HERSCHEL R, et al. Motion compensation in six degrees of freedom for a MIMO radar mounted on a hovering UAV[J]. IEEE Transactions on Aerospace and Electronic Systems, 2023, 59(5): 5791–5801. doi: 10.1109/TAES.2023.3266181. [5] 李悦丽, 李泽森, 王建, 等. 多旋翼无人机载SAR的视线运动误差修正与补偿[J]. 雷达学报, 2022, 11(6): 1061–1080. doi: 10.12000/JR22082.LI Yueli, LI Zesen, WANG Jian, et al. Modification and compensation of the line-of-sight motion error for multirotor UAV SAR[J]. Journal of Radars, 2022, 11(6): 1061–1080. doi: 10.12000/JR22082. [6] CHEN Jianlai, XING Mengdao, YU Hanwen, et al. Motion compensation/autofocus in airborne synthetic aperture radar: A review[J]. IEEE Geoscience and Remote Sensing Magazine, 2022, 10(1): 185–206. doi: 10.1109/MGRS.2021.3113982. [7] NAKATA R H, HARUNA B, YAMAGUCHI T, et al. Motion compensation for an unmanned aerial vehicle remote radar life sensor[J]. IEEE Journal on Emerging and Selected Topics in Circuits and Systems, 2018, 8(2): 329–337. doi: 10.1109/JETCAS.2018.2821624. [8] ISLAM S M M, LUBECKE L C, GRADO C, et al. An adaptive filter technique for platform motion compensation in unmanned aerial vehicle based remote life sensing radar[C]. 2020 50th European Microwave Conference (EuMC), Utrecht, Netherlands, 2021: 937–940. doi: 10.23919/EuMC48046.2021.9338011. [9] RONG Yu, HERSCHFELT A, HOLTOM J, et al. Cardiac and respiratory sensing from a hovering UAV radar platform[C]. 2021 IEEE Statistical Signal Processing Workshop (SSP), Rio de Janeiro, Brazil, 2021: 541–545. doi: 10.1109/SSP49050.2021.9513771. [10] JING Yu, QI Fugui, YANG Fang, et al. Respiration detection of ground injured human target using UWB radar mounted on a hovering UAV[J]. Drones, 2022, 6(9): 235. doi: 10.3390/drones6090235. [11] MA Junqi, CHANG Zhaoxin, ZHANG Fusang, et al. Mobi2Sense: Enabling wireless sensing under device motions[C]. The 28th Annual International Conference on Mobile Computing and Networking, Sydney, Australia, 2022: 766–768. doi: 10.1145/3495243.3558748. [12] ZHANG Binbin, ZHANG Dongheng, SONG Ruiyuan, et al. RF-search: Searching unconscious victim in smoke scenes with RF-enabled drone[C]. The 29th Annual International Conference on Mobile Computing and Networking, Madrid, Spain, 2023: 91. doi: 10.1145/3570361.3613305. [13] LI Zhi, JIN Tian, HU Xikun, et al. Remote respiratory and cardiac motion patterns separation with 4D imaging radars[J]. IEEE Journal of Biomedical and Health Informatics, 2023, 27(6): 2717–2728. doi: 10.1109/JBHI.2022.3171554. [14] LI Zhi, JIN Tian, LI Lianlin, et al. Spatiotemporal processing for remote sensing of trapped victims using 4-D imaging radar[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5103412. doi: 10.1109/TGRS.2023.3266039. [15] TOSTI F, GENNARELLI G, LANTINI L, et al. The use of GPR and microwave tomography for the assessment of the internal structure of hollow trees[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 2002314. doi: 10.1109/TGRS.2021.3115408. [16] DOERRY A W, BISHOP E E, and MILLER J A. Basics of backprojection algorithm for processing synthetic aperture radar images[R]. SAND2016-1682, 2016: 19–50. [17] LI Zhi, JIN Tian, DAI Yongpeng, et al. Through-wall multi-subject localization and vital signs monitoring using UWB MIMO imaging radar[J]. Remote Sensing, 2021, 13(15): 2905. doi: 10.3390/rs13152905. [18] WANG Jingyu, WANG Xiang, CHEN Lei, et al. Noncontact distance and amplitude-independent vibration measurement based on an extended DACM algorithm[J]. IEEE Transactions on Instrumentation and Measurement, 2014, 63(1): 145–153. doi: 10.1109/TIM.2013.2277530. [19] RAMACHANDRAN G and SINGH M. Three-dimensional reconstruction of cardiac displacement patterns on the chest wall during the P, QRS and T-segments of the ECG by laser speckle inteferometry[J]. Medical and Biological Engineering and Computing, 1989, 27(5): 525–530. doi: 10.1007/BF02441473. [20] ZHANG Juyong, YAO Yuxin, and DENG Bailin. Fast and robust iterative closest point[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(7): 3450–3466. doi: 10.1109/TPAMI.2021.3054619. -