Loading [MathJax]/jax/element/mml/optable/Latin1Supplement.js

MMRGait-1.0:多视角多穿着条件下的雷达时频谱图步态识别数据集

杜兰 陈晓阳 石钰 薛世鲲 解蒙

杜兰, 陈晓阳, 石钰, 等. MMRGait-1.0:多视角多穿着条件下的雷达时频谱图步态识别数据集[J]. 雷达学报, 2023, 12(4): 892–905. doi: 10.12000/JR22227
引用本文: 杜兰, 陈晓阳, 石钰, 等. MMRGait-1.0:多视角多穿着条件下的雷达时频谱图步态识别数据集[J]. 雷达学报, 2023, 12(4): 892–905. doi: 10.12000/JR22227
DU Lan, CHEN Xiaoyang, SHI Yu, et al. MMRGait-1.0: A radar time-frequency spectrogram dataset for gait recognition under multi-view and multi-wearing conditions[J]. Journal of Radars, 2023, 12(4): 892–905. doi: 10.12000/JR22227
Citation: DU Lan, CHEN Xiaoyang, SHI Yu, et al. MMRGait-1.0: A radar time-frequency spectrogram dataset for gait recognition under multi-view and multi-wearing conditions[J]. Journal of Radars, 2023, 12(4): 892–905. doi: 10.12000/JR22227

MMRGait-1.0:多视角多穿着条件下的雷达时频谱图步态识别数据集

DOI: 10.12000/JR22227
基金项目: 国家自然科学基金(U21B2039)
详细信息
    作者简介:

    杜 兰,博士,教授,主要研究方向为雷达目标识别、雷达信号处理、机器学习等

    陈晓阳,硕士生,主要研究方向为雷达信号处理、雷达步态识别

    石 钰,博士生,主要研究方向为雷达目标检测与识别、多源信息跨域学习

    薛世鲲,硕士生,主要研究方向为雷达步态识别、动作识别等

    解 蒙,硕士生,主要研究方向为雷达信号处理、雷达目标跟踪

    通讯作者:

    杜兰 dulan@mail.xidian.edu.cn

  • 责任主编:金添 Corresponding Editor: JIN Tian
  • 中图分类号: TN957

MMRGait-1.0: A Radar Time-frequency Spectrogram Dataset for Gait Recognition under Multi-view and Multi-wearing Conditions

Funds: The National Natural Science Foundation of China (U21B2039)
More Information
  • 摘要: 步态识别作为一种生物识别技术,在实际生活中通常被认为是一项检索任务。然而,受限于现有雷达步态识别数据集的规模,目前的研究主要针对分类任务且局限于单一行走视角和相同穿着条件,这限制了基于雷达的步态识别在实际场景中的应用。该文公开了一个多视角多穿着条件下的雷达步态识别数据集,该数据集使用毫米波雷达采集了121位受试者在多种穿着条件下沿不同视角行走的时频谱图数据,每位受试者共采集8个视角,每个视角采集10组,其中6组为正常穿着,2组为穿大衣,2组为挎包。同时,该文提出一种基于检索任务的雷达步态识别方法,并在公布数据集上进行了实验,实验结果可以作为基准性能指标,方便更多学者在此数据集上开展进一步研究。

     

  • 步态识别是一种新兴的生物识别技术,旨在通过人体行走特点的不同对人体的身份进行识别[1]。相比于指纹识别、虹膜识别等传统的生物识别技术,步态识别具有非合作、远距离、不易伪装等优点,可用于智能门禁、安防监控、刑侦监测等领域,具有十分广阔的应用前景[2]

    近年来,由于深度学习的成熟发展和大量光学步态识别数据集的支撑,基于光学传感器的步态识别方法相关研究取得了有效的进展。然而,光学传感器易受天气和光线条件影响,且采集的图像或视频存在隐私泄露的风险。与光学传感器相比,雷达通过发射电磁波的方式来探测和感知目标,可以有效防止隐私泄露,同时雷达可以在不同的天气和光线条件下工作,具有较强的环境鲁棒性[3]。因此,基于雷达的步态识别方法具有非常高的实际应用价值,目前已受到广泛关注[4-8]

    人在行走时,人体各个部位的微运动会在雷达回波信号上引起频率调制产生微多普勒信号[9]。由于每个人行走的姿态、方式不同,微多普勒信号中包含的步态信息也会有所差异。对微多普勒信号进行时频分析得到的时频谱图能够反映人体丰富的步态微多普勒信息,因此利用时频谱图进行步态识别是一种十分有前景的处理方法。传统的基于雷达的步态识别方法通常使用手动提取特征的方式进行识别,识别过程一般分为两步:(1)从时频谱图中提取躯干和四肢运动周期、多普勒展宽等特征;(2)将提取到的特征输入到支持向量机、决策树等传统分类器完成识别。然而,此类方法非常依赖先验知识,计算复杂度较高且泛化性较差,通常难以获得满意的识别效果[10]

    近年来,深度学习技术在基于雷达的步态识别领域逐渐兴起,与传统的基于手动提取特征的方法相比,基于深度学习的方法可以自动地从时频谱图中提取具有鉴别力的步态特征,识别性能得到了极大的提升[11,12]。目前已有许多学者对基于时频谱图的步态识别问题展开了相关研究,南京航空航天大学的Cao等人[4]首次提出了一种基于AlexNet卷积神经网络的步态识别方法,在采集的20人数据集上达到了较好的识别效果。意大利贝内文托大学的Addabbo等人[11]利用时序卷积神经网络对步态时序信息进行建模,并在采集的5人数据集上验证了所提方法的有效性。Doherty等人[12]使用空间注意力和通道注意力机制增强特征表示以获取更具判别力的步态特征,所提方法在39人数据集上达到了较高的识别性能。天津大学的Lang等人[5]设计了一种动作分类与步态识别的多任务模型,并在采集的15人数据集上验证了模型的有效性。Yang等人[13]使用多尺度特征融合策略融合了网络不同层提取到的步态信息,在15人的数据集上达到了较高的识别准确率。复旦大学的Xia等人[14]使用Inception模块以及残差模块搭建了识别网络,并取得了较好的识别效果。上述工作证明了深度学习技术应用于雷达步态识别领域的可行性,推动了雷达在步态识别领域的发展。然而,上述研究仅局限于分类任务,即训练集和测试集中人的身份必须一致,无法对训练集中未出现的身份进行有效识别,这限制了基于雷达的步态识别在真实世界中的应用。

    在真实世界中,步态识别通常被认为是一项检索任务[15],即给定一个查询样本,步态识别模型需要从步态样本库中检索出与查询样本匹配度最高的样本并赋予身份标签。与基于分类任务的步态识别方法相比,基于检索任务的步态识别方法具有以下特点:(1)检索任务不要求训练集和测试集中人员的身份相同,因此离线训练的步态识别系统可以直接部署到新场景中;(2)当新身份的人出现时,只需要更新样本库而无需重新训练模型。

    基于检索任务的步态识别模型通过对比不同样本在特征空间中距离的远近来衡量样本之间的匹配度,距离越近则样本之间的匹配度越高。检索任务模型的训练需要足够多身份数目的样本支撑,以保证模型能够学习到将相同身份样本之间的距离拉近、不同身份样本之间的距离拉远的能力,使相同身份样本之间的匹配度最高。同时,在基于检索任务的步态识别中,训练集和测试集中人的身份通常是不相同的,这对数据集中人的身份数目提出了更高的要求。然而,现有基于雷达的步态识别研究大多使用私有时频谱图数据集进行实验,这些数据集中人员的数目通常较少,无法满足检索任务对数据量的需求。由于数据采集的时间成本和人力成本较大,目前暂时没有人员数目充足的雷达时频谱图步态识别数据集公开,因此基于检索任务的雷达步态识别仍然是一个亟待研究的领域。

    为了填补基于检索任务的雷达时频谱图步态识别数据集的空缺,并为相关研究提供数据支撑,本文公开了一个121人的大型雷达步态识别时频谱图数据集。考虑到毫米波雷达具有较高的分辨率以及较低的功耗,且容易在实际应用中部署,本文选择毫米波雷达作为传感器来获取步态数据。同时考虑到在真实世界中,不同的行走视角[16]以及不同的穿着条件[17]会导致人体微多普勒特征的变化继而影响到步态识别模型的性能,因此,我们采集的数据包含了受试者在多种穿着条件下沿雷达不同视角行走的情况。此外,本文提出一种基于检索任务的雷达步态识别方法,并在公布数据集上评估了在多视角、跨视角以及相同穿着条件、跨穿着条件下的识别性能,实验结果可以作为基准性能指标,该数据集已可通过《雷达学报》官网的相关链接(https://radars.ac.cn/web/data/getData?newsColumnId=c2cae1d9-521f-444e-ad1e-f009bf7b9acc)免费下载使用,供更多学者在此数据集上开展进一步研究。

    本文使用德州仪器(Texas Instruments, TI)开发的77 GHz调频连续波(Frequency-Modulated Continuous-Wave, FMCW)雷达AWR 1843[18]采集原始的人体雷达回波数据。该雷达采用低功耗的COMS工艺,以较小的尺寸实现了极高的集成度,同时该雷达拥有3个发射天线和4个接收天线,在方位维和俯仰维上具有一定的角度分辨率,雷达天线阵列分布如图1所示。

    图  1  毫米波雷达天线阵列分布图
    Figure  1.  Antenna array distribution of millimeter-wave radar

    毫米波雷达的天线配置为1发4收,雷达发射波形为线性调频连续波,其中单个线性调频信号又被称为Chirp信号。发射波形的具体参数配置如表1所示。在此配置下,该雷达可以达到0.097 m/s的速度分辨率,较高的速度分辨率容易获取丰富的人体步态信息。

    表  1  雷达发射波形参数配置
    Table  1.  Parameter configurations of the radar transmitting waveform
    参数数值
    起始频率(GHz)77
    Chirp重复周期(μs)78.125
    调频斜率(MHz/μs)9.753
    调频时长(μs)60
    ADC采样时间(μs)40.96
    ADC采样点数512
    帧内Chirp数255
    帧周期(ms)19.922
    连续发射帧数60
    连续发射时长(s)1.195
    空闲时长(s)0.005
    下载: 导出CSV 
    | 显示表格

    步态数据的采集平台和室内采集场景如图2所示,图2(a)所示毫米波雷达用于采集步态数据,光学相机用于记录采集场景。本数据集中共包含121位受试者的步态数据,其中,男性72人,年龄21~26岁,身高163~187 cm,体重55~100 kg;女性49人,年龄21~27岁,身高在155~176 cm,体重在40~67 kg。本文采集了受试者在3种穿着条件下沿8个不同视角行走的数据,行走视角示意图如图3所示。我们规定行走轨迹与雷达法线方向的夹角为行走视角,8个视角分别为0º, 30º, 45º, 60º, 90º, 300º, 315º, 330º。图4展示了3种穿着条件的示例,3种穿着条件分别为正常穿着、穿大衣和挎包。正常穿着行走时,人体的各个部位正常运动且没有被物体遮挡;挎包行走时,一只手需要扶包,有一条胳膊无法正常摆动;穿大衣行走时,大腿上半部分被遮挡,且大衣的下摆有无规则摆动。

    图  2  数据采集平台和室内采集场景
    Figure  2.  Data collection platform and indoor collection scene
    图  3  行走视角示意图
    Figure  3.  The view of walking
    图  4  3种穿着条件示例
    Figure  4.  Examples of three wearing conditions

    本数据集中每位受试者共采集80组数据,每组数据时长为2.4 s。具体来说,8个行走视角每个视角各采集10组,其中,6组为正常穿着,2组为穿大衣,2组为挎包。121位受试者共采集9680组数据。

    本文使用1发4收的天线配置采集数据,因此每组数据包含4个通道的原始雷达回波信号,对雷达回波信号进行信号处理可以得到时频谱图,具体的信号处理流程如图5所示。首先我们将4个通道的雷达回波信号进行非相干积累,其次对积累后的信号进行距离维快速傅里叶变换(Fast Fourier Transform, FFT)得到时间-距离图,然后使用高通滤波器滤除静止杂波,最后选取时间-距离图中人体行走时所在的距离单元(0~9.375 m),对每个距离单元的信号进行短时傅里叶变换(Short-Time Fourier Transform, STFT)并求和得到最终的时频谱图,时频谱图可以反映人体目标各个散射点能量强度和频率随时间变化的过程[19]

    图  5  信号处理流程
    Figure  5.  Signal processing flow

    短时傅里叶变换是一种常用的时频分析方法,其通过滑动窗口的方式对时间窗内的信号做FFT得到时频谱图,对信号s(t)做短时傅里叶变换的表达式如下:

    STFT(t,ω)=s(τ)h(τt)exp{jωτ}dτ (1)

    其中,h()表示信号的汉明窗(Hamming)窗函数,t表示时间维,ω表示频率维。根据经验,本文将短时傅里叶变换的采样点数设置为512,汉明窗窗长设置为0.047 s,滑窗的重叠率设置为80%。图6展示了同一人在3种穿着条件下沿8个视角行走的2.4 s时频谱图,横坐标表示时间,为直观展示人体的行走速度,将纵坐标的频率转换为速度,速度范围为–6.23~3.12 m/s。当穿着条件相同时,不同行走视角的时频谱图反映的微多普勒信息有所差异,视角从0º变换到90º的过程中,时频谱图中速度维的延展逐渐变小,微多普勒信息逐渐变少。当行走视角相同时,不相同穿着条件下的时频谱图也有所不同:挎包行走时,由于一条胳膊无法正常摆动,其时频谱图相较于正常穿着的时频谱图缺失了部分微多普勒信息。穿大衣时,由于大腿上半部分被遮挡,且大衣下摆的不规则摆动会对回波信号产生额外的频率调制,因此穿大衣行走的时频谱图相较于正常穿着行走的时频谱图也会有所差异。

    图  6  8种行走视角、3种穿着条件下的时频谱图
    Figure  6.  Time-frequency spectrograms for eight walking views and three wearing conditions

    本数据集包含时频谱图的矩阵和图片两种格式的数据,为方便数据集的使用,我们对数据进行了统一的命名,格式为AAA-BB-CC-DDD,其中,AAA表示受试者的ID,取值范围为001~121;BB表示3种穿着条件,分别为NM(正常)、BG(挎包)、CT(穿大衣);CC表示在BB穿着条件下采集的第CC组数据。在NM条件下采集6组数据,因此CC取值范围为01~06,在BG条件下采集2组数据,CC取值为01, 02,在CT条件下采集2组数据,CC取值为01, 02;DDD表示行走的视角,分别为000, 030, 045, 060, 090, 300, 315, 330。矩阵数据的后缀为“.mat”,每个矩阵的大小为192×246,总样本数为9680。图片数据的后缀为“.jpg”,每张图片的尺寸为477像素×429像素,总样本数为9680。以矩阵格式的数据为例,具体的数据集结构如图7所示。

    图  7  具体数据集结构示意图
    Figure  7.  Structure of the dataset

    现有的大多数雷达步态识别方法仅局限于分类任务,只能对训练集中出现过的身份进行识别,新身份的样本会被错误判断为训练集中的某一个身份,因此这种基于分类任务的雷达步态识别方法在实际应用场景中十分受限。相较于基于分类任务的雷达步态识别方法,基于检索任务的雷达步态识别方法更适用于实际应用场景,其流程如图8所示,检索任务遵循“受试者独立”准则,即测试集中人员身份未在训练集中出现,测试集中样本的身份均为“新身份”[2]。在特征提取模型的训练阶段,需要身份数目足够多的样本支撑,使模型能够学习到将相同身份样本之间的距离拉近、不同身份样本之间的距离推远的能力。在测试阶段,测试集被进一步分为查询样本与样本库,其中,查询样本为待识别身份的样本,样本库中的样本为身份已知的模板样本。将给定查询样本与样本库中所有样本分别输入到特征提取模型中得到各自的特征,计算该查询样本特征与样本库中所有样本特征之间的距离,将样本库中与查询样本特征距离最近的样本的身份赋予该查询样本,不同样本在特征空间中距离的远近可以衡量样本之间的匹配度,距离越近则样本之间的匹配度越高。

    图  8  基于检索任务的雷达步态识别流程图
    Figure  8.  Flow chart of radar gait recognition based on retrieval task

    基于检索任务的步态识别方法可以应用到门禁系统、犯罪追踪等领域,以公司的门禁系统为例,步态识别系统需要事先采集该公司所有员工的步态数据作为样本库,每当员工进入公司时,步态识别系统会采集员工此时的步态数据作为查询样本,只有从样本库中检索出该查询样本的身份时,门禁才会放行。本文提出一种基于检索任务的雷达步态识别网络模型。此外,为充分挖掘时频谱图中不同时间尺度的微多普勒信息,本文提出了一种长短时特征提取模块。下面将详细介绍本文提出的步态识别网络模型。

    本文提出的步态识别网络模型总体框架如图9所示,该模型以ResNet18[20]为主干特征提取网络,为获得更大尺寸的特征图,本文去掉了原始ResNet18网络中第一个残差模块之前的最大池化层。此外,使用空间注意力模块、长短时特征提取模块以及多尺度特征融合模块获取具有判别力的步态特征,最后使用度量学习中的三元损失[21]对网络进行优化。该网络以时频谱图作为输入,时频谱图表示为xRB×C×D×T,其中,B表示网络训练一次所用的时频谱图数量;C表示时频谱图的通道数,其大小取决于输入格式,当时频谱图的输入格式为RGB图片时,通道数为3,当输入格式为矩阵时,通道数为1;D表示时频谱图的频率维;T表示时频谱图的时间维。输入时频谱图首先经过一层卷积核大小为7×7的卷积层得到特征图F0RB×C0×D/2×T/2,然后再经过4个残差模块Conv Block得到4个不同尺度的特征图F1RB×C1×D/2×T/2, F2RB×C2×D/4×T/4, F3RB×C3×D/8×T/8, F4RB×C4×D/16×T/16。其中,C0, C1, C2, C3C4分别表示不同尺度的特征图的通道数,每个特征图中不同的通道代表不同的特征。接下来使用空间注意力模块对不同尺度的特征图进行空间位置加权,然后使用长短时特征提取模块提取特征图中不同时间尺度的步态特征,最后使用多尺度特征融合模块将不同尺度的特征进行融合,并使用融合后的特征计算三元损失来优化网络。下面将详细介绍各个模块。

    图  9  基于检索任务的特征提取网络模型结构框图
    Figure  9.  Framework for feature extraction network model based on retrieval task
    3.2.1   空间注意力模块

    时频谱图中除了存在人体运动产生的微多普勒信息之外,通常还存在背景噪声以及未滤除干净的静止杂波,对于步态识别任务来说,我们希望网络能够充分地提取人体的微多普勒特征,并且抑制背景噪声和静止杂波等无关特征的提取。此外,人体不同部位的微多普勒特征对最终识别的贡献程度也有所差异,因此我们也希望网络能够关注更具判别力的微多普勒特征。注意力机制的目的是按照特征的重要程度对特征进行加权,使网络重点关注重要特征而抑制无关特征。本文使用CBAM[22]中的空间注意力模块对时频谱图中不同空间位置的特征按重要程度进行加权。空间注意力图的计算流程如图10所示。

    图  10  空间注意力图计算流程
    Figure  10.  Spatial attention map calculation process

    将某个残差模块提取到的特征图FiRB×Ci×Di×Ti(i=1,2,3,4)沿通道维做全局最大池化和全局平均池化得到两个特征图Fi,maxRB×1×Di×Ti, Fi,avgRB×1×Di×Ti,然后将这两个特征图按通道维拼接,最后使用一层卷积层以及Sigmoid激活函数得到空间注意力图。空间注意力图的每个元素代表对应空间位置特征的权重,其计算过程如下所示:

    A(Fi)=σ(f7×7([GMP(Fi);GAP(Fi)]))=σ(f7×7([Fi,max;Fi,avg])) (2)

    其中,σ表示Sigmoid激活函数,GMP表示全局最大池化,GAP表示全局平均池化,f7×7表示卷积核大小为7×7的卷积层。

    最后,将空间注意力图A(Fi)与输入特征图Fi相乘即可得到空间位置加权的特征图FsaiRB×Ci×Di×Ti

    3.2.2   长短时特征提取模块

    步态时频谱图能够反映人行走时各个身体部位散射点的能量强度以及多普勒频率随时间变化的过程。从时频谱图不同长度的时间段中提取的特征反映的步态信息有所差异,对于一张具有完整步态周期的2.4 s时频谱图来说,对整个2.4 s的时频谱图进行特征提取,得到的是长时的“全局”特征;而对时频谱图某一时间段(例如0~0.3 s)进行特征提取,得到的则是短时的“局部”特征。“全局”特征能够反映整个步态周期内的信息,“局部”特征则反映了某一时间段内细粒度的步态信息,充分利用“局部”特征和“全局”特征能够提高步态特征的丰富性。

    在行人重识别领域中,常将人体图片横向分割成不同部分并分别提取各部分的局部细粒度特征,然后将局部特征与全局特征进行融合以增强特征表示[23,24]。受此启发,本文提出了针对时频谱图的长短时特征提取模块,我们将时频谱图沿时间维切分成不同的份数,以提取不同时间尺度的步态特征。长短时特征提取模块的示意图如图11所示,首先按照N种分割方式,将空间注意力模块输出的特征图FsaiRB×Ci×Di×Ti沿时间维分割成不同的份数,例如图11中使用3种时间尺度的分割方式,将特征图分割成1, 2, 7份。假设特征图被分割为M份,分割后的特征图可以表示为Fsa,MsiRB×M×Ci×Di×Ti/M,分别对Fsa,Msi中每个部分使用全局最大池化可以得到特征Fsa,MgiRB×M×Ci。不同时频谱图中人体的起始状态可能不同,图12展示了同一人在0º、正常穿着条件下行走的两组数据,图12(a)的起始时刻人体正在加速且微动明显,图12(b)的起始时刻人体两脚着地且微动较弱。同一人不同时频谱图中的起始状态不对齐可能会导致提取到的特征有所差异,为了弱化时频谱图中起始状态不对齐对特征提取的影响,我们将Fsa,MgiM个特征向量取平均得到Fsa,MaiRB×Ci,然后将Fsa,Mai经过全连接层FC得到Hid维的特征向量Fsa,MhiRB×Hid。值得注意的是,不同尺度的分割方式使用的全连接参数不同,但经过全连接得到的特征向量维度均为Hid。最后将N种分割方式得到的N个特征向量Fsa,jhiRB×Hid(其中jN种取值)按照图11中所示方式进行拼接,得到长短时步态特征Fsa,lstiRB×N×Hid

    图  11  长短时特征提取模块计算流程
    Figure  11.  Long-short time feature extraction module calculation process
    图  12  同一人不同起始状态下行走的两组时频谱图数据
    Figure  12.  Two sets of time-spectrogram data of walking in different starting states
    3.2.3   多尺度特征融合模块

    将4个残差模块提取到的特征图依次输入到空间注意力模块、长短时特征提取模块中,得到4组不同尺度的步态特征Fsa,lstiRB×N×Hid(i=1,2,3,4)。由于卷积神经网络中不同层的感受野大小不同,网络不同层提取的步态特征中包含的信息也有所差异。浅层网络的感受野较小,提取到的步态特征中蕴含更多细粒度的信息,如时频谱图的轮廓、纹理、边缘信息等。深层网络的感受野较大,提取到的步态特征中蕴含丰富的语义信息。为充分利用网络不同层提取到的有价值信息,本文使用拼接操作将4组不同尺度的步态特征进行融合,拼接过程如下所示:

    {{{F}}}^{{\rm{final}}}={{{F}}}_{1}^{\text{sa},{\rm{lst}}}©{{{F}}}_{2}^{\text{sa}, {\rm{lst}}}©{{F}}_{3}^{\text{sa},{\rm{lst}}} ©{{{F}}}_{4}^{\text{sa},{\rm{lst} }} (3)

    其中,©表示沿特征{{F}}_i^{{\text{sa}},{\rm{lst}}} \in {\mathbb{R}^{{{B}} \times {{N}} \times {\rm{Hid}}}}的第二维进行拼接。最后使用拼接后的步态特征{{{F}}^{{\rm{final}}}} \in {\mathbb{R}^{{{B}} \times 4{{N}} \times {\rm{Hid}}}}计算三元损失。

    3.3.1   训练

    本文使用度量学习中的三元损失训练网络,该损失的目的是在特征空间中将相同身份样本之间的距离拉近,不同身份样本之间的距离拉远。对每批训练样本计算三元损失,具体计算公式如下:

    \begin{split} & {\mathcal{L}_{{\rm{triplet}}}} = \overbrace {\sum\limits_{i = 1}^H {\sum\limits_{a = 1}^K {} } }^{{\text{all anchors}}}\overbrace {\sum\limits_{\begin{subarray}{l} p = 1 \\ p \ne a \end{subarray} }^K {} }^{{\rm{all}}{\text{ pos}}{\text{.}}}\overbrace {\sum\limits_{\begin{subarray}{l} j = 1 \\ j \ne i \end{subarray}} ^H {\sum\limits_{n = 1}^K {} } }^{{\rm{all}}{\text{ neg}}{\text{.}}}[\max (m + {{{D}}_p} - {{{D}}_n},0)] \\ & {{{D}}_p} = {{D}}({{F}}_a^{i,{\rm{final}}},{{F}}_p^{i,{\rm{final}}}) \\ & {{{D}}_n} = {{D}}({{F}}_a^{i,{\rm{final}}},{{F}}_n^{j,{\rm{final}}}) \\[-10pt] \end{split} (4)

    其中,H表示一批训练样本中身份的数目,K表示每个身份拥有的训练样本数目, D( \cdot ) 表示欧氏距离, {D_p} 表示第i个身份的样本a与相同身份的样本p构成的正样本对在特征空间中的欧氏距离, {D_n} 表示第i个身份的样本a与第j个身份的样本n构成的负样本对在特征空间中的欧氏距离,m为控制正样本对与负样本对之间距离的阈值参数。

    3.3.2   测试

    测试时,给定查询样本q,目的是从样本库{{G}} = \{ {g_i}|i = 1,2, \cdots ,{{N}}\}({g_i}为样本库中的样本,N为样本数)中检索出与该查询样本相同身份的样本。具体测试过程为:

    步骤1 将查询样本q输入到步态识别模型得到多尺度特征{{F}}_q^{{\rm{fianl}}} \in {\mathbb{R}^{4{{N}} \times {\rm{Hid}}}},并将多尺度特征进行首尾拼接得到特征向量{{F}}_{{q}}^{{\rm{test}}} \in {\mathbb{R}^{{d}}}({{d}} = 4 \times {{N}} \times {\rm{Hid}}),将样本库G中的每个样本{{{g}}_i}进行同样的操作得到特征向量{{F}}_{{g_i}}^{{\rm{test}}} \in {\mathbb{R}^{{d}}}

    步骤2 计算该查询样本的特征向量{{F}}_{{q}}^{{\rm{test}}}与样本库中各个样本的特征向量{{ F}}_{{{{g}}_i}}^{{\rm{test}}}之间的欧氏距离,将与{{F}}_{{q}}^{{\rm{test}}}距离最近的{{F}}_{{g_i}}^{{\rm{test}}}的身份(即Rank-1身份)赋予该查询样本。被赋予正确身份的查询样本数与总查询样本数的比值为Rank-1准确度。

    本文使用图片格式的时频谱图数据集进行实验,我们将采集的121人中前74人的数据作为训练集,其余47人的数据作为测试集。输入网络的时频谱图时长为2.4 s,尺寸大小为224像素×224像素。网络第1个卷积层以及后续4个残差模块输出特征图的通道数{{{C}}_0}, {{{C}}_1}, {{{C}}_2}, {{{C}}_3}, {{{C}}_4}分别为32, 64, 128, 256, 512。长短时特征提取模块中使用3种分割方式将特征图分成1, 2, 7份,全连接层FC输出特征向量的维度Hid为512。一批训练样本中身份的数目P为2,每个身份拥有的训练样本数目K为4,三元损失中阈值参数m设置为0.2。使用AdamW优化算法训练网络,其中初始学习率lr设置为0.0005,权重衰减项weight_decay设置为0.0001。训练迭代次数为400000次,每次迭代后使用OneCycleLR策略对学习率进行调整。我们在Pytorch框架上完成网络的搭建,并使用NVIDIA GeForce GTX 2080Ti显卡对网络进行训练。

    在测试阶段,我们将测试集划分成查询样本和样本库,以评估模型在多视角、跨视角以及多穿着条件、跨穿着条件下的识别性能。本文将多视角、跨视角、相同穿着条件、跨穿着条件下的识别准确度作为评价准则,4种准则的具体定义如下:

    (1) 多视角条件下的识别准确度

    给定某个视角的查询样本,样本库中包含查询样本视角在内的8个视角,计算给定视角的查询样本在多视角样本库中进行身份检索的Rank-1准确度。例如当查询样本的视角为0º时,样本库中样本的视角为0º, 30º, 45º, 60º, 90º, 300º, 315º, 330º,计算0º查询样本在多视角样本库中进行身份检索的Rank-1准确度,该Rank-1准确度即为0º查询样本在多视角条件下的识别准确度。

    (2) 跨视角条件下的识别准确度

    给定某个视角的查询样本,共有7个单视角样本库,每个样本库中包含除查询样本视角之外的某个单一视角,分别计算给定视角的查询样本在单视角样本库中进行身份检索的Rank-1准确度,将计算得到的7个Rank-1准确度取平均作为给定视角的查询样本在跨视角条件下的识别准确度。例如当查询样本的视角为0º时,分别计算0º查询样本在单视角样本库中进行身份检索的Rank-1准确度,并将7个单视角Rank-1准确度取平均作为0º查询样本在跨视角条件下的识别准确度。

    (3) 相同穿着条件下的识别准确度

    给定某个穿着条件的查询样本,样本库中样本的穿着条件与查询样本的相同,计算给定穿着条件的查询样本在相同穿着条件的样本库中进行身份检索的Rank-1准确度,该Rank-1准确度即为相同穿着条件下的识别准确度。

    (4) 跨穿着条件下的识别准确度

    给定某个穿着条件的查询样本,样本库中样本的穿着条件与查询样本的不同,计算给定穿着条件的查询样本在不同穿着条件的样本库中进行身份检索的Rank-1准确度,该Rank-1准确度即为跨穿着条件下的识别准确度。

    由于目前没有针对雷达时频谱图的基于检索任务的步态识别方法,我们对比了几种基于分类任务的步态识别方法,并将这些方法中的分类损失替换为三元损失以完成检索任务。也就是说可以认为这些方法都是已有的针对雷达时频谱图的基于分类任务的步态识别方法的变形,我们已经将这些方法的分类网络改成了检索网络,做的是检索任务的识别实验。其中,方法1[12]在VGG-16网络[25]中嵌入了注意力机制以获取更具判别力的步态特征,方法2[5]在自建网络中嵌入了残差模块以及密集模块,方法3[13]使用了多尺度特征融合策略以融合网络不同层提取的信息,方法4[14]使用Inception模块以及残差模块搭建了一个轻量级网络,方法5[11]使用时序卷积神经网络对时频谱图中的时序信息进行建模。

    如2.5节所述,每位受试者共采集了10组数据,其中正常穿着的6组数据表示为NM01-06,挎包的2组数据表示为BG01-02,穿大衣的2组数据表示为CT01-02。本文实验中将NM05-06、BG01-02以及CT01-02分别作为查询样本,将NM01-04作为样本库。查询样本NM05-06在样本库NM01-04中进行身份检索可以评估相同穿着条件下的识别性能,查询样本BG01-02和CT01-02在样本库NM01-04中进行身份检索可以评估跨穿着条件下的识别性能。

    表2给出了不同方法在多视角、相同穿着条件下和多视角、跨穿着条件下的识别结果,从表2可以看出,当查询样本为正常穿着NM(相同穿着条件)以及挎包BG、穿大衣CT(跨穿着条件)时,本文方法的识别性能均优于其他方法,这是因为方法1到方法4没有利用到时频谱图中的时序信息,方法5对全局时序信息进行了建模,但对局部时序特征的挖掘不足,而本文方法针对时频谱图的时序特性设计了长短时特征提取模块,该模块首先将时频谱图的特征图沿时间维分割成不同的份数,以提取不同时间尺度的步态特征,最后将从整张特征图中提取到的全局时序特征与从分割后的特征图中提取到的多粒度局部时序特征进行融合,以获得更加丰富的步态特征表示。同时,本文使用了多尺度特征融合策略,可以充分利用浅层特征图中的局部、细粒度信息以及深层特征图中的全局、粗粒度信息。虽然本文方法取得了不错的识别效果,但是在跨穿着条件下的识别准确度相较于相同穿着条件仍然有一定程度的下降,从表2可以看出,查询样本为BG时的准确度相较于NM时下降13.23%,查询样本为CT时的准确度相较于NM时下降15.27%。这是因为挎包和穿大衣行走时人体的步态微多普勒特征与正常行走时相比有所差异,因此在跨穿着条件下网络的识别性能会有所下降。

    表  2  不同步态识别方法在多视角条件下的识别准确度(%)
    Table  2.  Recognition accuracy of different gait recognition methods in multi-view conditions (%)
    查询样本方法30º45º60º90º300º315º330º平均值
    NM05-06方法140.7039.5337.2138.3737.2138.3736.0534.8837.79
    方法232.3939.5353.4946.5144.1943.0247.6755.8145.35
    方法348.8460.4760.4766.2855.8158.1463.9553.4958.43
    方法473.2676.7475.5874.4262.7975.5869.7773.2672.68
    方法561.6356.9855.8158.1446.5160.4762.7964.7158.38
    本文方法91.8694.1996.5194.1991.8698.8491.8696.5194.48
    BG01-02方法120.9329.0729.0723.2632.5638.8239.5330.2330.43
    方法236.0536.0543.0244.1939.5347.0643.0232.5640.19
    方法341.8634.8846.5137.2139.5349.3153.4944.1943.39
    方法446.5154.6563.9551.1643.0260.0060.4759.3054.88
    方法552.3341.8648.8453.4943.0250.0047.6745.3547.82
    本文方法80.2375.5877.9183.7280.2383.7284.8883.7281.25
    CT01-02方法127.9133.7236.0527.9134.8833.7227.9139.5332.70
    方法233.7232.5632.5645.3536.0536.0534.8834.8835.76
    方法337.2132.5654.6544.1934.8845.3545.3541.8642.01
    方法445.3547.6755.8161.6345.3547.6760.4751.1651.89
    方法544.1941.8656.9843.0234.8852.3350.0050.0046.66
    本文方法74.4276.7483.7284.8880.2376.7482.5674.4279.21
    下载: 导出CSV 
    | 显示表格

    表3给出了不同方法在跨视角、相同穿着条件下和跨视角、跨穿着条件下的识别结果,从表3可以看出,所有方法在跨视角条件下的识别准确度相较于多视角条件下的识别准确度均有大幅下降。这是因为雷达获取的是向视线方向投影的微多普勒信息,具有较强的方位敏感性,当一个人的行走视角发生变化时,时频谱图反映的微多普勒信息也会随之变化,因此在跨视角条件下的识别性能较差。但本文方法较这些方法在跨视角条件下还是能够在一定程度上提升识别性能的。

    表  3  不同步态识别方法在跨视角条件下的识别准确度(%)
    Table  3.  Recognition accuracy of different gait recognition methods in cross-view conditions (%)
    查询样本方法30º45º60º90º300º315º330º平均值
    NM05-06方法127.9126.4130.4028.4122.9226.9128.9032.7228.07
    方法229.5731.5640.0334.2232.3932.3936.0539.2034.43
    方法332.5635.7239.8934.5528.7440.7037.3834.3935.49
    方法432.3943.8546.3539.0427.2439.0443.8545.6839.68
    方法535.2233.7239.3741.6924.2536.7139.3739.5036.23
    本文方法50.6664.9568.1164.6250.1763.6270.1066.7862.38
    BG01-02方法124.0924.2523.7523.4221.1026.5526.7424.0924.25
    方法229.9028.5735.2131.5628.4136.4738.5431.3932.51
    方法333.2223.5931.3928.2424.0933.6139.0432.2330.68
    方法430.0735.5536.8834.5521.9336.3037.8736.7133.73
    方法541.5336.8839.0433.7228.2433.3939.3735.7135.98
    本文方法52.8454.9861.7957.6441.3660.4666.1156.4856.46
    CT01-02方法122.4226.5826.4121.9324.5923.2621.7626.0824.13
    方法226.2525.4230.7331.0625.5829.2431.0626.9128.28
    方法326.4128.0733.3929.7321.1026.9134.5531.4028.95
    方法424.9234.0537.5135.3819.7730.7336.5532.5631.44
    方法531.0636.7141.5334.2223.7532.8936.7135.3834.03
    本文方法50.5056.1561.7957.9743.8652.6657.6454.1554.34
    下载: 导出CSV 
    | 显示表格

    此外,我们计算了不同方法的模型复杂度,其中输入时频谱图的格式为224像素×224像素的3通道RGB图片。表4展示了不同方法的模型复杂度,由表4可知,本文方法的计算量大于其他方法,参数量比方法1小,比其他方法大。说明我们针对检索任务设计合适的模块来提升模型识别率的同时,也在一定程度上增加了模型的复杂度,因此后续需要进一步研究一些轻量级架构以提高模型的识别效率。

    表  4  不同步态识别方法的模型复杂度
    Table  4.  Model complexity of different gait recognition methods
    方法计算量FLOPs (G)参数量(M)
    方法113.6840.47
    方法22.989.96
    方法30.140.90
    方法42.350.72
    方法52.264.33
    本文方法14.0121.29
    下载: 导出CSV 
    | 显示表格

    我们进行了一系列消融实验以评估所提网络模型中空间注意力模块、长短时特征提取模块以及多尺度特征融合模块的有效性。表5给出了在多视角条件下进行消融实验的结果。

    表  5  消融实验识别准确度(%)
    Table  5.  Recognition accuracy of ablation studies (%)
    方法NMBGCT平均值
    Base+HPM66.2853.6455.6758.53
    Base+LST80.9665.9964.2470.40
    Base+LST+MSF90.7076.6075.4480.91
    Base+LST+MSF+SA94.4881.2579.2184.98
    下载: 导出CSV 
    | 显示表格

    表5中Base表示ResNet18主干特征提取网络,LST表示长短时特征提取模块,HPM表示文献[26]提出的水平金字塔映射模块,与本文所提的LST相比,HPM缺少向量取平均的操作,MSF表示多尺度特征融合模块,SA表示空间注意力模块。相较于Base+HPM,Base+LST的识别准确度提高了11.87%,这是因为LST中向量取平均操作聚合了分割后各个部分的特征,有效缓解了时频谱图中起始状态不对齐对识别性能的影响。与Base+LST相比,Base+LST+MSF的识别准确率提高了10.51%,证明了多尺度特征融合模块可以聚合网络不同层提取到的有价值步态信息。Base+LST+MS+SA为本文方法,其在Base+LST+MSF的基础上增加了空间注意力模块,识别准确率提高了4.07%,证明了对时频谱图中空间位置进行加权可以提高步态特征的鉴别性。上述消融实验证明了本文方法中各个模块的合理性与有效性。

    本文公开了一个大型的雷达时频谱图步态识别数据集,填补了基于检索任务的雷达步态识别数据集的空缺,同时为相关研究提供了数据支撑。本文使用毫米波雷达采集了121位受试者在3种穿着条件下沿雷达8个不同视角行走的时频谱图数据,每位受试者在每个行走视角下各采集10组,其中6组为正常穿着,2组为穿大衣,2组为挎包。同时,本文提出了一种基于检索任务的毫米波雷达步态识别网络模型,并在公布数据集上进行了相关实验,实验结果证明了所提模型的有效性。此外,跨视角和跨穿着条件下的步态识别是一项非常有挑战性的工作,本文所提模型的实验结果可以作为基准性能指标,方便后续相关工作者在此基础上开展进一步研究。

    本文公布的数据集仍然存在一些不足需要改进,由于本文使用1发4收的毫米波雷达天线配置采集数据,雷达的方位维分辨率较低并且没有俯仰维分辨能力,在步态识别时无法利用人体的空间位置信息以及形状信息。后续考虑使用具有较高方位维和俯仰维分辨率的雷达采集人体步态数据,生成时频谱图、点云等形式的数据,以充分利用人体的微多普勒信息、形状信息和空间位置信息等进行步态识别。此外,本数据集的采集场景较为单一、背景较为干净,后续我们会进一步开展复杂场景中的步态识别研究。

    附录

    MMRGait-1.0:多视角多穿着条件下的雷达时频谱图步态识别数据集(MMRGait-1.0)依托《雷达学报》官方网站发布,数据及使用说明已上传至学报网站“MMRGait-1.0:多视角多穿着条件下的雷达时频谱图步态识别数据集”页面(附图1),网址: https://radars.ac.cn/web/data/getData?newsColumnId=c2cae1d9-521f-444e-ad1e-f009bf7b9acc.

    1  MMRGait-1.0:多视角多穿着条件下的雷达时频谱图步态识别数据集发布网页
    1.  Release webpage of MMRGait-1.0: A radar time-frequency spectrogram dataset for gait recognition under multi-view and multi-wearing conditions dataset
  • 图  1  毫米波雷达天线阵列分布图

    Figure  1.  Antenna array distribution of millimeter-wave radar

    图  2  数据采集平台和室内采集场景

    Figure  2.  Data collection platform and indoor collection scene

    图  3  行走视角示意图

    Figure  3.  The view of walking

    图  4  3种穿着条件示例

    Figure  4.  Examples of three wearing conditions

    图  5  信号处理流程

    Figure  5.  Signal processing flow

    图  6  8种行走视角、3种穿着条件下的时频谱图

    Figure  6.  Time-frequency spectrograms for eight walking views and three wearing conditions

    图  7  具体数据集结构示意图

    Figure  7.  Structure of the dataset

    图  8  基于检索任务的雷达步态识别流程图

    Figure  8.  Flow chart of radar gait recognition based on retrieval task

    图  9  基于检索任务的特征提取网络模型结构框图

    Figure  9.  Framework for feature extraction network model based on retrieval task

    图  10  空间注意力图计算流程

    Figure  10.  Spatial attention map calculation process

    图  11  长短时特征提取模块计算流程

    Figure  11.  Long-short time feature extraction module calculation process

    图  12  同一人不同起始状态下行走的两组时频谱图数据

    Figure  12.  Two sets of time-spectrogram data of walking in different starting states

    1  MMRGait-1.0:多视角多穿着条件下的雷达时频谱图步态识别数据集发布网页

    1.  Release webpage of MMRGait-1.0: A radar time-frequency spectrogram dataset for gait recognition under multi-view and multi-wearing conditions dataset

    表  1  雷达发射波形参数配置

    Table  1.   Parameter configurations of the radar transmitting waveform

    参数数值
    起始频率(GHz)77
    Chirp重复周期(μs)78.125
    调频斜率(MHz/μs)9.753
    调频时长(μs)60
    ADC采样时间(μs)40.96
    ADC采样点数512
    帧内Chirp数255
    帧周期(ms)19.922
    连续发射帧数60
    连续发射时长(s)1.195
    空闲时长(s)0.005
    下载: 导出CSV

    表  2  不同步态识别方法在多视角条件下的识别准确度(%)

    Table  2.   Recognition accuracy of different gait recognition methods in multi-view conditions (%)

    查询样本方法30º45º60º90º300º315º330º平均值
    NM05-06方法140.7039.5337.2138.3737.2138.3736.0534.8837.79
    方法232.3939.5353.4946.5144.1943.0247.6755.8145.35
    方法348.8460.4760.4766.2855.8158.1463.9553.4958.43
    方法473.2676.7475.5874.4262.7975.5869.7773.2672.68
    方法561.6356.9855.8158.1446.5160.4762.7964.7158.38
    本文方法91.8694.1996.5194.1991.8698.8491.8696.5194.48
    BG01-02方法120.9329.0729.0723.2632.5638.8239.5330.2330.43
    方法236.0536.0543.0244.1939.5347.0643.0232.5640.19
    方法341.8634.8846.5137.2139.5349.3153.4944.1943.39
    方法446.5154.6563.9551.1643.0260.0060.4759.3054.88
    方法552.3341.8648.8453.4943.0250.0047.6745.3547.82
    本文方法80.2375.5877.9183.7280.2383.7284.8883.7281.25
    CT01-02方法127.9133.7236.0527.9134.8833.7227.9139.5332.70
    方法233.7232.5632.5645.3536.0536.0534.8834.8835.76
    方法337.2132.5654.6544.1934.8845.3545.3541.8642.01
    方法445.3547.6755.8161.6345.3547.6760.4751.1651.89
    方法544.1941.8656.9843.0234.8852.3350.0050.0046.66
    本文方法74.4276.7483.7284.8880.2376.7482.5674.4279.21
    下载: 导出CSV

    表  3  不同步态识别方法在跨视角条件下的识别准确度(%)

    Table  3.   Recognition accuracy of different gait recognition methods in cross-view conditions (%)

    查询样本方法30º45º60º90º300º315º330º平均值
    NM05-06方法127.9126.4130.4028.4122.9226.9128.9032.7228.07
    方法229.5731.5640.0334.2232.3932.3936.0539.2034.43
    方法332.5635.7239.8934.5528.7440.7037.3834.3935.49
    方法432.3943.8546.3539.0427.2439.0443.8545.6839.68
    方法535.2233.7239.3741.6924.2536.7139.3739.5036.23
    本文方法50.6664.9568.1164.6250.1763.6270.1066.7862.38
    BG01-02方法124.0924.2523.7523.4221.1026.5526.7424.0924.25
    方法229.9028.5735.2131.5628.4136.4738.5431.3932.51
    方法333.2223.5931.3928.2424.0933.6139.0432.2330.68
    方法430.0735.5536.8834.5521.9336.3037.8736.7133.73
    方法541.5336.8839.0433.7228.2433.3939.3735.7135.98
    本文方法52.8454.9861.7957.6441.3660.4666.1156.4856.46
    CT01-02方法122.4226.5826.4121.9324.5923.2621.7626.0824.13
    方法226.2525.4230.7331.0625.5829.2431.0626.9128.28
    方法326.4128.0733.3929.7321.1026.9134.5531.4028.95
    方法424.9234.0537.5135.3819.7730.7336.5532.5631.44
    方法531.0636.7141.5334.2223.7532.8936.7135.3834.03
    本文方法50.5056.1561.7957.9743.8652.6657.6454.1554.34
    下载: 导出CSV

    表  4  不同步态识别方法的模型复杂度

    Table  4.   Model complexity of different gait recognition methods

    方法计算量FLOPs (G)参数量(M)
    方法113.6840.47
    方法22.989.96
    方法30.140.90
    方法42.350.72
    方法52.264.33
    本文方法14.0121.29
    下载: 导出CSV

    表  5  消融实验识别准确度(%)

    Table  5.   Recognition accuracy of ablation studies (%)

    方法NMBGCT平均值
    Base+HPM66.2853.6455.6758.53
    Base+LST80.9665.9964.2470.40
    Base+LST+MSF90.7076.6075.4480.91
    Base+LST+MSF+SA94.4881.2579.2184.98
    下载: 导出CSV
  • [1] DELIGIANNI F, GUO Yao, and YANG Guangzhong. From emotions to mood disorders: A survey on gait analysis methodology[J]. IEEE Journal of Biomedical and Health Informatics, 2019, 23(6): 2302–2316. doi: 10.1109/JBHI.2019.2938111
    [2] SEPAS-MOGHADDAM A and ETEMAD A. Deep gait recognition: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(1): 264–284. doi: 10.1109/TPAMI.2022.3151865
    [3] LI Haobo, MEHUL A, LE KERNEC J, et al. Sequential human gait classification with distributed radar sensor fusion[J]. IEEE Sensors Journal, 2021, 21(6): 7590–7603. doi: 10.1109/JSEN.2020.3046991
    [4] CAO Peibei, XIA Weijie, YE Ming, et al. Radar-ID: Human identification based on radar micro-Doppler signatures using deep convolutional neural networks[J]. IET Radar, Sonar & Navigation, 2018, 12(7): 729–734. doi: 10.1049/iet-rsn.2017.0511
    [5] LANG Yue, WANG Qing, YANG Yang, et al. Joint motion classification and person identification via multitask learning for smart homes[J]. IEEE Internet of Things Journal, 2019, 6(6): 9596–9605. doi: 10.1109/JIOT.2019.2929833
    [6] PAPANASTASIOU V S, TROMMEL R P, HARMANNY R I A, et al. Deep learning-based identification of human gait by radar micro-Doppler measurements[C]. The 17th European Radar Conference (EuRAD), Utrecht, Netherlands, 2021: 49–52.
    [7] DONG Shiqi, XIA Weijie, LI Yi, et al. Radar-based human identification using deep neural network for long-term stability[J]. IET Radar, Sonar & Navigation, 2020, 14(10): 1521–1527. doi: 10.1049/iet-rsn.2019.0618
    [8] NIAZI U, HAZRA S, SANTRA A, et al. Radar-based efficient gait classification using Gaussian prototypical networks[C]. 2021 IEEE Radar Conference (RadarConf21), Atlanta, USA, 2021: 1–5.
    [9] CHEN V C, LI F, HO S S, et al. Micro-Doppler effect in radar: Phenomenon, model, and simulation study[J]. IEEE Transactions on Aerospace and Electronic Systems, 2006, 42(1): 2–21. doi: 10.1109/TAES.2006.1603402
    [10] BAI Xueru, HUI Ye, WANG Li, et al. Radar-based human gait recognition using dual-channel deep convolutional neural network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(12): 9767–9778. doi: 10.1109/TGRS.2019.2929096
    [11] ADDABBO P, BERNARDI M L, BIONDI F, et al. Gait recognition using FMCW radar and temporal convolutional deep neural networks[C]. 2020 IEEE 7th International Workshop on Metrology for AeroSpace (MetroAeroSpace), Pisa, Italy, 2020: 171–175.
    [12] DOHERTY H G, BURGUEÑO R A, TROMMEL R P, et al. Attention-based deep learning networks for identification of human gait using radar micro-Doppler spectrograms[J]. International Journal of Microwave and Wireless Technologies, 2021, 13(7): 734–739. doi: 10.1017/S1759078721000830
    [13] YANG Yang, HOU Chunping, LANG Yue, et al. Person identification using micro-Doppler signatures of human motions and UWB radar[J]. IEEE Microwave and Wireless Components Letters, 2019, 29(5): 366–368. doi: 10.1109/LMWC.2019.2907547
    [14] XIA Zhaoyang, DING Genming, WANG Hui, et al. Person identification with millimeter-wave radar in realistic smart home scenarios[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 19: 3509405. doi: 10.1109/LGRS.2021.3117001
    [15] CHENG Yuwei and LIU Yimin. Person reidentification based on automotive radar point clouds[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5101913. doi: 10.1109/TGRS.2021.3073664
    [16] TAHMOUSH D and SILVIOUS J. Angle, elevation, PRF, and illumination in radar microDoppler for security applications[C]. 2009 IEEE Antennas and Propagation Society International Symposium, North Charleston, USA, 2009: 1–4.
    [17] YANG Yang, YANG Xiaoyi, SAKAMOTO T, et al. Unsupervised domain adaptation for disguised-gait-based person identification on micro-Doppler signatures[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2022, 32(9): 6448–6460. doi: 10.1109/TCSVT.2022.3161515
    [18] AWR1843 single-chip 76-GHz to 81-GHz automotive radar sensor evaluation module[EB/OL]. https://www.ti.com/tool/AWR1843BOOST, 2022.
    [19] CHEN V C and LING Hao. Time-Frequency Transforms for Radar Imaging and Signal Analysis[M]. Boston: Artech House, 2002, 28–31.
    [20] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
    [21] HERMANS A, BEYER L, and LEIBE B. In defense of the triplet loss for person re-identification[J]. arXiv preprint arXiv: 1703.07737, 2017.
    [22] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module[C]. 15th European Conference on Computer Vision, Munich, Germany, 2018: 3–19.
    [23] WANG Guanshuo, YUAN Yufeng, CHEN Xiong, et al. Learning discriminative features with multiple granularities for person re-identification[C]. 26th ACM International Conference on Multimedia, Seoul, Korea, 2018: 274–282.
    [24] FU Yang, WEI Yunchao, ZHOU Yuqian, et al. Horizontal pyramid matching for person re-identification[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33(1): 8295–8302. doi: 10.1609/aaai.v33i01.33018295
    [25] SIMONYAN K and ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]. 3rd International Conference on Learning Representations, San Diego, USA, 2015.
    [26] CHAO Hanqing, HE Yiwei, ZHANG Junping, et al. GaitSet: Regarding gait as a set for cross-view gait recognition[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33(1): 8126–8133. doi: 10.1609/aaai.v33i01.33018126
  • 期刊类型引用(6)

    1. 屈乐乐,祝诗卉. 基于三通道CNN-GSAM-LSTFEM网络的雷达人体切向动作识别. 雷达科学与技术. 2024(02): 135-144+154 . 百度学术
    2. 陈小龙,袁旺,杜晓林,于刚,何肖阳,关键,汪兴海. 多波段FMCW雷达低慢小探测数据集(LSS-FMCWR-1.0)及高分辨微动特征提取方法. 雷达学报. 2024(03): 539-553 . 本站查看
    3. 陈福仕,沈尧,周池春,丁锰,李居昊,赵东越,雷永升,潘亦伦. 无监督学习步态识别综述. 计算机科学与探索. 2024(08): 2014-2033 . 百度学术
    4. 刘广,李海旭,侯腾,王晓成. 基于检索任务和改进ResNet的机场跑道异物目标识别方法. 计算机应用. 2024(S1): 309-313 . 百度学术
    5. 林钱强,秦正阳,蒋李兵,王旭,范红旗. 简单野外背景条件下地面雷达对“低慢小”无人机探测数据集. 信号处理. 2024(11): 2095-2104 . 百度学术
    6. 何峻,傅瑞罡,付强. 自动目标识别评价方法发展述评. 雷达学报. 2023(06): 1215-1228 . 本站查看

    其他类型引用(3)

  • 加载中
图(13) / 表(5)
计量
  • 文章访问数: 2170
  • HTML全文浏览量: 1089
  • PDF下载量: 455
  • 被引次数: 9
出版历程
  • 收稿日期:  2022-11-24
  • 修回日期:  2023-02-10
  • 网络出版日期:  2023-03-06
  • 刊出日期:  2023-08-28

目录

/

返回文章
返回