自动目标识别的工程视角述评

郁文贤

郁文贤. 自动目标识别的工程视角述评[J]. 雷达学报, 2022, 11(5): 737–752. doi: 10.12000/JR22178
引用本文: 郁文贤. 自动目标识别的工程视角述评[J]. 雷达学报, 2022, 11(5): 737–752. doi: 10.12000/JR22178
YU Wenxian. Automatic target recognition from an engineering perspective[J]. Journal of Radars, 2022, 11(5): 737–752. doi: 10.12000/JR22178
Citation: YU Wenxian. Automatic target recognition from an engineering perspective[J]. Journal of Radars, 2022, 11(5): 737–752. doi: 10.12000/JR22178

自动目标识别的工程视角述评

DOI: 10.12000/JR22178
基金项目: 国家自然科学基金重点项目(61331015)
详细信息
    作者简介:

    郁文贤,博士,讲席教授,教育部长江学者特聘教授,主要研究方向为自动目标识别、智能信息处理、融合导航定位等

    通讯作者:

    郁文贤 wxyu@sjtu.edu.cn

  • 责任主编:杜兰 Corresponding Editor: DU Lan
  • 中图分类号: TN957

Automatic Target Recognition from an Engineering Perspective(in English)

Funds: State Key Program of the National Natural Science Foundation of China (61331015)
More Information
  • 摘要:

    自动目标识别(ATR)是一个和信号与信息处理、模式识别、人工智能等学科密切相关的特殊工程技术应用领域。由于ATR系统识别对象固有的不确定性,识别环境的复杂性,以及日益加剧的识别对抗性,使得ATR的发展一直面临着从理论到技术、到应用的系统性挑战。该文从工程视角出发,阐述了ATR的定义与内涵,简要回顾与分析了该领域发展动态,梳理了ATR的核心技术体系与系统开发模式,最后对未来的发展挑战做了分析。

     

  • 自动目标识别(Automatic Target Recognition, ATR)伴随着传感器探测能力与数据处理技术的进步,得到越来越广泛的重视和发展,已成为无人系统智能化、自主化的核心。

    事实上,对于自动目标识别甚至“识别(Recognition)”本身,学术领域和工程应用领域目前都还没有一个明确一致、广泛接受的定义。Tait[1], Ratches[2], Bir Bhanu[3]以及美国林肯实验室[4]从技术维度将ATR视为是处理传感器数据并进行自动目标捕获与辨识的过程。Schachter[5]则从狭义的技术角度、广义的技术角度和工程系统的角度来解释了ATR。文献[6]从应用任务的角度将“识别(Recognition)”放置在一个包括6个层级的分类树中(即检测、分类、识别、辨识、特性和指纹),并将ATR定义为确定目标特性以及类型的过程,以便能够为半自主、自主系统提供高置信度实时决策。

    本文从工程应用的角度来理解ATR,认为ATR是一个面向应用任务的感知与决策过程,其功能贯穿于目标搜索、定位、跟踪、鉴别与决策、引导等任务链的每个环节,其系统包含了一系列自动化、智能化的目标信号和信息处理算法以及相应的软硬件,以实现目标种类和类型等属性的高置信度辨识。本文重点从ATR工程应用系统的不同视角与维度,来阐述ATR的内涵与特点,并简要回顾了该领域发展动态,重点梳理了ATR的核心技术体系与系统开发模式,最后对未来的发展做了展望。

    从识别的基本原理来看,ATR可归于模式识别范畴,关注的是目标特征问题,这是从特征识别的视角来认知ATR。ATR系统的性能与任务需求、探测器及平台特性、目标环境状态以及整个探测体系支持等都直接相关,其能力是系统各相关功能的集成,因此需要从任务驱动、系统资源优化调度以及整个探测体系支撑等视角来分析与理解。ATR系统具有固有的不确定性,需要从不确定性的视角来认知ATR。学习能力是任何识别系统的核心支撑,因此要从开放环境动态学习的视角来认知ATR系统自组织、自生长的内在需求。 图1示意了从特征识别、任务驱动、优化调度、体系支撑、不确定性和动态学习6个不同视角来认知ATR的内涵与特点。

    图  1  ATR的认知视角
    Figure  1.  Perspectives of ATR

    目标识别有赖于目标的特征信息。每类目标在特定环境中都有其固有特性,与大多数物理现象一样,目标特性是客观存在的,而不同目标在特性上具有差异性或唯一性,这从源头上为目标识别提供了基础。特征是目标特性在探测器观测域内的外在表现,可认为是目标特性在识别域的物理数学表征,也是对目标具备的空间、几何、电磁、运动等特性的感知、分析与描述。

    从信息的角度理解,各种测量仪器设备获取的目标数据可看作特定介质下目标特性的调制,这种调制是本源的目标特性与现实世界环境叠加、耦合所产生的信号响应,蕴含了丰富的目标信息。因而,ATR的核心任务正是通过揭示探测空间中复杂的耦合作用机理、挖掘获取信号的信息,以实现目标特性的反演。特征提取是从现实测量信号中寻求目标差异性和唯一性的数学表征过程,实际应用中,为了实现可靠的目标识别,关键是快速发现并获取特定场景下易于计算且稳健的目标特征。

    ATR服务于具体场景下的任务,与ATR相关的任务描述与表征是ATR系统开发的基础。与任务描述相关的要素包括目标探测范围与环境条件、目标数量与目标类型、识别距离与时间约束、目标识别精度要求、重要目标识别要求、探测平台特性、探测传感器配置与功能协同性、系统数据处理能力、数据传输与通信保障性能、人在环路特性、先验知识的支撑能力等。任务需求不是固定不变的,而是随实际过程动态调整的。

    任务过程可以利用OODA环来进行描述。OODA环包含观察(Observe)-调整(Orient)-决策(Decide)-行动(Act) 4个环节,是由约翰-博伊德于1977年提出的理论,它简明而深刻地阐释了如何高效执行任务。图2是ATR在无人机区域目标搜索识别与跟踪探测中的概念性图示,贯穿任务过程的关键是对目标的精准识别。

    图  2  ATR在OODA中的功能描述(检测、跟踪、定位、识别、预测)
    Figure  2.  Functions of ATR in OODA (detection, tracking, locating, recognition, and prediction)

    ATR系统需要针对识别任务要求,依据目标场景信息、平台和传感器特性以及其他相关要素,优化调度系统探测资源和计算资源才能实现面向识别任务的最佳匹配效能。任务规划和资源调度受相关实际变量的约束,如识别目标类型、环境与范围、传感器类型与性能等,因此在实际应用中需要结合这些约束变量进行综合分析,如图3所示,根据实际识别任务与场景,对相关资源(如传感资源、传输资源、计算资源等)进行优化调度,实现目标数据获取与处理,然后对任务结果进行评估,并结合评估结果继续对资源调度环节进行优化,以期最佳完成任务。

    图  3  ATR中任务与资源优化调度
    Figure  3.  Optimal task and resource scheduling in ATR

    通过对整个体系中目标情报信息的共享和探测能力的协同,可有效提升每个感知单元的ATR能力,但也对ATR提出了更多的需求和挑战。一是面向任务要求,如何实现相关目标探测数据与信息的智能化高效引接;二是如何实现不同探测系统目标数据的一致性处理、关联配准与融合;三是各类数据与信息处理结果的置信度可信评估、一体化更新和统一目标视图的形成;四是面向高速运转的任务进程,如何在最短时间内以最适合的方式向不同任务节点提供精准的ATR信息。

    ATR结果的不确定性源于诸多因素。预设目标场景的变化、目标对象的未知性、目标与环境先验信息与知识的有限性、新型“低、小、隐身”目标、目标实际观测数据的稀少性等,都给目标的搜索发现、定位跟踪、干扰鉴别、识别确认与决策执行等带来不确定性。需要对各类数据与信息的不确定性来源及特点进行梳理和分析,并成体系地采用针对性的方法进行抑制或消减。应将各类不确定性因素进行合理建模,并纳入到实际ATR系统的设计与开发中。一般通过多源信息融合来消减不确定性对目标识别和决策的影响,其中融合可在数据层、特征层或决策层3个层面实现,如图4所示[7]

    图  4  多源融合层次化结构
    Figure  4.  Hierarchical structure of multi-source fusion

    ATR最终是过程实践与学习积累形成的能力。无论是通过实际应用场景学习积累,还是通过基于先验模型的虚拟场景数据训练,复杂多变的目标场景决定了ATR系统必须具备高效率的增量学习、迁移学习、联想学习等动态学习能力,识别系统也应随着任务与场景数据的不断积累,动态实现系统数据、算法软件的更新与识别能力的跃升。以在线持续学习为例,图5给出了其自演进架构[8]

    图  5  ATR在线学习自演进架构[8]
    Figure  5.  ATR online learning and self-evolving architecture[8]

    ATR领域真正得到广泛关注还是从20世纪80年代开始[9]。美国国防高级研究计划局(Defense Advanced Research Projects Agency, DARPA)把ATR列为国防关键技术方向,20世纪90年代启动的移动和固定目标自动识别项目(Moving and Stationary Target Automatic Recognition, MSTAR)[10]和2015年启动的对抗环境目标识别与适应项目(Target Recognition and Adaption in Contested Environments, TRACE)[11]等,都对推进ATR技术的研究与应用起到了积极作用。图6是 MSTAR部分数据样本的示意。

    图  6  MSTAR部分数据样本
    Figure  6.  Data samples of MSTAR

    ATR领域的研究内容非常丰富,本文从整体的技术发展特点并结合ATR试验验证技术来对ATR领域的发展做一个概略性分析。

    从20世纪60年代开始直至21世纪初,该阶段研究涉及了所有的传感器以及各类ATR识别理论与方法,也普遍采用了知识库系统、人工神经网络等人工智能技术[12-16],但主要基于特征提取与模式匹配的传统模式识别基础框架[17],我们把这类方法统称为经典识别方法。

    光学、红外图像目标识别主要是基于20世纪60年代的矩不变理论[18],重点提取二维不变矩特征和建立基于Hu不变矩等矩不变量的识别系统。雷达目标识别方面,主要依赖目标电磁散射特征、极化特征与多普勒特征等,这些特征的获取与雷达的探测状态相关[19-21]。对于窄带雷达,雷达目标的自然谐振频率、目标雷达散射截面积(Radar Cross Section, RCS)等被用于目标分类识别[22-24]。对于宽带雷达,主要关注雷达高分辨距离像(High Resolution Range Profile, HRRP)特征提取。HRRP通常具有方位敏感性和平移敏感性,需采用非相干平均、平移不变性等方法得到稳定特征[25-30]。对合成孔径雷达(Synthetic Aperture Radar, SAR)与逆合成孔径雷达(Inverse Synthetic Aperture Radar, ISAR)图像的目标识别方法,一般都是融合了图像识别与雷达目标电磁特征识别的共性方法[31-35]。激光雷达的目标识别主要依赖于测距图像中的几何形状特征提取[36-38],利用目标模型特征可以实现与姿势无关的激光雷达ATR[39]

    早期的识别方法采用的目标数据样本数大多较小,算法更多依靠人工设计出的特征和分类器,且采用小规模的神经网络分类器[40-44]。在卷积神经网络出现之前,出现了一些“端到端”的神经网络雏形,他们只需要输入原始图像或信号,从原始数据中学习特征并进行目标识别[45-51],这类方法的问题在于人工选择的特征通常不完整。

    借助新一代人工智能深度学习理论与方法的不断迭代进步,ATR进入了一个新的发展阶段,其研究不再局限于“特征”模式识别框架,我们把相应方法归类为深度学习ATR方法。2012年,AlexNet网络首次将深度卷积神经网络(Convolutional Neural Networks, CNN)用于大规模图像识别大幅提高了识别精度[52]。早期的研究将CNN作为特征提取工具,发现其相比传统方法拥有更高的目标识别率,这一点在声呐图像、雷达图像的现实识别应用中得到了反复验证[53-55]。随后,越来越多的方法开始扬弃“特征”这一传统模式识别概念,利用CNN实现“端到端”目标识别,即利用CNN来完成特征提取和分类识别全过程[56]

    CNN已被应用于导引头一维距离像识别、红外图像识别与雷达图像目标识别等[57-66]。文献[67]利用完全学习机来学习CNN特征,在识别的泛化性能和训练速度方面优势明显。文献[68]将CNN与联合稀疏表示相结合,在噪声样本和小样本的条件下都取得了较好的性能。文献[69]提出的深度嵌套CNN有效提取了雷达回波信号特征,可更好地识别目标。文献[70]表明,CNN结合注意力机制可有效聚焦于重要目标区域,能为SAR识别带来显著的性能增益。近期研究也发现CNN在抗欺骗、干扰等方面具备先天缺陷,在输入中插入轻微的不可察觉扰动就能轻易实现模型欺骗[71,72]。文献[73]提出了一种新型的网络“防御层”,旨在阻止对抗性噪声的产生,并防止黑盒和灰盒环境中的对抗性攻击。此外,开展噪声、干扰及多视角情况下的高鲁棒性目标识别神经网络研究已成为当前研究热点[74-76]

    深度学习ATR方法,在识别率上取得了突破,但其“可解释性”较差,这会导致ATR系统在应用时存在决策风险。可解释对于增强ATR系统的可信任至关重要,是ATR技术更好落地应用的关键之一[77]。ATR识别的准确性取决于预测目标场景模型的精度和实际任务场景的匹配性,对ATR的可解释性需要充分结合预测模型、目标和任务场景知识,从物理、统计和知识等多方面来解释ATR的计算与决策过程。

    同时,在ATR领域,要获得合适的目标数据集是一大挑战,很多情况下甚至是不可能的。当缺乏足够数量真实标记数据时,迁移学习可将一个训练好的网络应用到另一个相似任务中进行识别[78]。文献[79]首次展示了模拟数据集和真实SAR图像集之间的迁移学习。文献[80,81]利用域自适应迁移学习,准确地检测识别出SAR图像中密集分布的舰船目标。利用生成对抗网络(Generative Adversarial Network, GAN)学习分布相近的新样本,可实现对目标数据集的增强[82,83],而通过目标物理模型和对模型目标特征的假设,来实现训练样本扩充也是常见的方法[84]

    ATR是一个系统层面的任务功能,数据与场景化试验验证是推动ATR系统发展与应用的关键。这里从系统试验验证技术的角度来介绍ATR的相关发展。

    各类场景化目标数据集的构建对推动ATR技术研发、验证ATR系统的性能等发挥着关键作用。数据集在构建时应对实际应用中的各类复杂环境和影响因素进行细分并予以考虑[85]。美国“无暇”号水声监测船等搜集全球各类水面、水下目标的特征数据,形成了目标与威胁特性数据库系统(National Target/Threat Signatures Data System, NTSDS)。MSTAR数据集被广泛应用于ATR研究领域[10],并成为目标识别的基准测试数据集。在国内,上海交通大学构建了国内首个SAR图像解译数据开放共享平台OpenSARShip,提供了4万个以上精确标注的SAR图像海上舰船目标切片[86],如图7所示。中国科学院空天信息创新研究院基于高分三号卫星数据构建了面向宽幅场景的SAR舰船目标公开样本数据集[87];海军航空大学提出了“雷达对海探测数据共享计划”,并分批次公开发布共享规范化数据集[88];国防科技大学构建了空中弱小目标检测跟踪数据库[89]

    图  7  OpenSARShip部分数据样本
    Figure  7.  Data samples of OpenSARShip

    通过实测验证和评估ATR系统的应用效能,可形成系统技术演进闭环。在2001—2006年,国防科技大学ATR实验室[90]开展了现役窄带雷达舰船目标自动识别试验验证,在试验中持续提升了算法的场景适应性,平均识别准确率可达85%以上。但依赖实测构建的数据集通常会面临场景有限与目标样本稀少的问题。20世纪80年代起,DARPA开展了一系列基于模型的ATR数据集构建,这包括前面提到的MSTAR。而1986年开展的测量与特征情报(Measurement and Signature Intelligence, MASINT)系统,采取基于目标实测数据的模型仿真和数据增强、增广来取得高置信度数据,在结合目标实测的情况下,大幅提升了数据集的规模与可用性。

    在试验验证中引入人在环路的标注、验证与判别也是辅助ATR系统演进的重要因素。文献[91]提出了利用人工判别知识的ATR技术来进行海上目标识别。文献[92]则在水下识别领域应用了相似策略,通过人类感知与ATR算法协同使用的方式完成各类水下物体的标注、筛选及识别任务。文献[93]同样针对水下物体识别,在ATR算法基础上将操作人员纳入整体识别系统以扩展及完善系统的识别能力。文献[94]则在人机结合基础上,分析比较不同人机协同方案在不同海况、尺寸目标情况下真实试验中的识别能力。

    动态多变的目标场景决定了ATR系统需要适应不同任务场景需求才能实现对目标的可靠识别。美国在20世纪90年代就开展了以任务场景为驱动的ATR系统技术研究,早期典型的案例是1996年起开展的半自动图像处理(Semi-Automated IMINT(Image Intelligence) Processing, SAIP)项目[95]。2015年起,DARPA开展了一系列以TRACE计划为代表的智能化识别技术研究,将发展重点聚焦于任务场景驱动的复杂环境、有限数据、高实时性、高动态环境下的ATR技术。包括复杂部署环境的低虚警率检测技术、有限数据集下的新目标快速学习技术以及低功耗系统下的快速目标识别技术等[95]。2020年开展的动目标识别(Moving Target Recognition, MTR)计划重点发展在没有对方先验信息或仅有少量信息的情况下,完成对对方高价值目标的自动搜索、识别及跟踪[96]

    要强调的是,当前有关ATR的试验测试评估还并不成熟。研究ATR系统的评估理论,构建有效的体系化、场景化的测试方法,对促进ATR技术进步和加快ATR工程化应用具有重要意义。

    ATR核心技术体系的描述与构建可以从ATR系统核心能力的构成来梳理,这需要首先明确ATR能力的核(Core)是什么。这里将ATR系统的核心能力归纳为任务链中与ATR密切相关且有机衔接的3个能力:数据信息能力、信息认知能力和感知通信计算支撑能力。

    数据信息能力是指ATR系统在任务时空窗口内,最佳地使用探测器以及数据链路所获得的目标数据的识别信息量。如图8,提升数据信息能力涉及的核心技术有:目标场景分析预测、任务建模与动态生成、多传感器协同探测、多源数据引接与一致性处理等。要强调的是,这些核心技术都涉及目标特性这一共性基础,只有掌握了目标特性蕴含的规律,才能有效支撑目标场景分析预测、识别任务生成与最优化的协同探测。同时可以看出,优化调度是数据信息能力形成过程中的一个共性问题。要说明的是,在实际复杂环境中,发现即识别一般是不可能的,因此ATR系统需要多次或连续的观测目标才能获得更多的识别信息,所以数据信息能力的提升也和ATR系统的目标检测与精确定位跟踪等能力密切相关。

    图  8  ATR数据信息能力的核心技术构成示意图
    Figure  8.  Illustration of the core technologies of ATR competence regarding data information

    信息认知能力是指ATR系统从数据中有效提取信息并实现目标检测、定位、跟踪、识别与态势预测的能力以及系统动态学习演进的能力。如图9,提升信息认知能力涉及的核心技术有:目标特性先验知识库、目标数据处理识别算法、人机交互与协同、系统自适应学习、数据处理体系架构与低功耗实时计算、识别能力验证与评估等。其中目标特性先验知识库是目标数据特征信息认知的基础,各类目标数据处理与检测、跟踪、识别等算法用于实现目标不同层级与维度的信息认知任务,人机交互与协同可以增强目标认知能力,自适应学习能力是ATR系统不断演进的关键,合理的处理体系架构可以确保ATR最佳的计算资源保障,而面向工程化应用的ATR测试评估可以加速形成ATR系统的任务实现能力。ATR的信息认知能力不是一蹴而就的,需要ATR系统日积月累的场景化目标数据训练与性能迭代演进。

    图  9  ATR信息认知能力的核心技术构成示意图
    Figure  9.  Illustration of the core technologies of ATR competence regarding information recognition

    感知通信计算支撑能力是指ATR所依赖并紧耦合的探测、通信与计算资源、以及运动平台载体资源等,是目标数据获取、传输与计算的基础支撑能力。运动平台与载荷决定了目标感知的时间跨度与空间范围、目标探测的时域、频域与空间域的分辨能力,通信链路提供了数据的可靠及时传输,各类数据处理基础软硬件等构成的计算系统为算法软件的运行提供了支持。

    图10是ATR核心技术能力(ATR Core)的构成示意图。从软件定义系统来看,所有软硬件都是ATR系统中获取、传输与处理数据的不同功能模块;因此,在感知通信计算支撑能力确定的情况下,ATR系统的核心关键能力主要在于数据信息能力与信息认知能力。其中,目标特性与特征、处理体系架构以及支撑ATR在开放场景现实应用的自适应学习演进是核心技术中的基础支撑技术,而图10外环中的场景分析预测、任务建模与动态生成、多传感协同探测、人机协同、处理识别、识别测试评估等技术构成了ATR应用的核心技术链。

    图  10  ATR Core的核心技术构成示意图
    Figure  10.  Illustration of the key technologies of ATR Core

    ATR系统的实现模式是指ATR工程化开发过程中具有一般性、结构性、稳定性、可操作性的特征的归纳和总结[97]。ATR的任务特点与技术框架决定了ATR系统的实现模式,技术驱动了架构和模式的不断演进[98,99]

    图11所示,ATR系统在实际工程应用中,面临着从封闭环境(即目标集是有限集、背景确定的环境)到开放环境(即目标集包含目标环境背景变化、目标种类不确定等)的挑战。

    图  11  ATR应用从封闭走向开放
    Figure  11.  ATR application: from close form to open form

    根据ATR系统的研究实践[7,100-102],ATR工程应用系统的开发重点遵循如下两种模式: 一是迭代演进模式,这类开发模式是一种迭代和增量开发过程;二是开放生态模式,这类开发模式是一种基于开放平台与环境的ATR实现模式。这两种模式实际上是需要相互关联与叠加的,这里只是从不同的维度来对ATR系统的工程实现方式进行阐述与讨论。由于任务与应用环境的特殊性,ATR系统实现的迭代方式和开放生态范围都有其自身的特点。

    4.2.1   迭代演进实现模式

    ATR系统的实现,需要经过需求捕获、系统分析、设计、实现和测试5个过程(如图12)[102]

    图  12  迭代演进开发模式演进流程
    Figure  12.  Process of iteratively-evolving development patterns

    迭代演进开发模式充分考虑到ATR任务与系统的特点,旨在解决开发过程中需求的多样性、不确定性等难点,将试验设计技术应用到目标识别系统,依托快速原型系统或者通用平台,在现场试验中逐步明确需求、突破关键技术、促进使用和发现问题,这一过程循环往复,不断完善、更新并逐步固化所开发的算法和系统功能,促使系统在每一次循环迭代中,功能和性能增量迭代上升,使之不断接近用户真正的使用要求[97]图13总结了笔者团队开发的一类雷达目标识别系统具体的工程开发流程和所使用的方法,由此可见,模式既是复杂系统本身,也是该系统的实现流程[102]

    图  13  雷达目标识别系统的迭代增长式工程开发模式
    Figure  13.  An iteratively incremental engineer development model for a radar target recognition system
    4.2.2   开放生态实现模式

    现有ATR系统高度封闭的实现模式存在以下问题:对特定任务需求高度定制化,系统缺乏泛化能力;与现有软硬件环境紧耦合,系统移植性差、升级困难;接口与边界定义无统一规范,重复开发现象普遍;算法、数据、模型较封闭,导致重复建设、资源浪费。

    构建开放生态环境是解决以上问题的重要途径。这在机器人与自动驾驶领域有成功案例值得借鉴。例如机器人领域的操作系统(Robot Operating System, ROS)[103]与自动驾驶领域的百度阿波罗(Apollo)等开放生态环境,如图14所示。ROS提供了通信框架、应用功能、开发工具、社区系统“四位一体”的生态环境,其核心是为机器人软件系统提供了统一框架,将复杂的机器人软件系统功能模块划分成独立运行的程序。百度阿波罗开放平台与ROS类似,阿波罗平台还通过云端数据服务进行仿真数据生成、测试,旨在提升研发人员快速搭建自动驾驶系统的效率。

    图  14  百度Apollo 6.0开放生态环境示意图
    Figure  14.  Illustration of Baidu Apollo 6.0 open ecological environment

    ROS与Apollo等开放生态环境的成功对ATR系统研发有极高参考价值。结合ATR应用特点,面向ATR的开放生态环境应包含以下方面:统一的接口规范与通信机制、功能模块的独立组件化、开发工具、共享仓库、数据集仓库、功能模块仓库、目标信息仓库、应用场景信息仓库等。

    ATR开放生态的核心在于向相关开发人员开放场景、开放数据、开放平台。20世纪90年代开始,国防科技大学ATR实验室[104,105]针对多个观测站舰船目标识别场景和实际使用中的窄带雷达,基于自主开发的柔性雷达ATR原型平台,建立了跨海域、20余类目标、20万批次的雷达目标信号数据仓,为ATR研究人员提供了开放的海上ATR识别场景和快速开发平台,将ATR系统的开发与部署时间从早期需要八九个月逐步降到一周,直至几个小时。

    ATR的发展永远在路上。ATR领域当前与未来面临的挑战性技术与工程应用问题主要集中在ATR技术与任务的耦合、识别系统的预测水平、与场景的适应能力3个方面。

    ATR能力服务于识别任务,不同任务阶段的需求构成了ATR工程应用任务链。ATR系统根据任务过程中的需求实时提供目标识别与决策支持。但现实情况下,ATR技术链与应用任务链的构建与耦合长期面临着众多困难。这些问题主要有:

    (1) ATR能力受限于任务需求存在的固有不确定性。目前识别任务的需求一般都是定性为主,任务想定与实际场景可能存在较大差距,同时也缺乏任务需求的规范化表征与生成。任务需求的不确定性将给ATR系统的开发,尤其是核心算法的开发带来困难。

    (2) ATR技术创新与系统集成之间存在隔阂。ATR是系统的功能集成体现,ATR指标不能简单的看成是一个数据的统计指标,它实际上都是系统性的总体指标。但实际情况是,很多研究ATR的技术人员,难以了解、参与任务总体,ATR技术的创新研究和工程应用之间存在很大的缝隙。

    (3) ATR效能受限于传感器自身能力与探测模式。大量的探测设备,尤其是雷达,都是以目标发现跟踪为目的,系统设计通常遵循的是点目标处理思想,因此传感器本身就不提供或仅提供很少的精细化描述信息。这种传统的探测模式在机理上决定了不适用于目标识别模式,即使通过各种处理方法,也难以实现信息“补齐”。这将涉及设备观测与使用方式的调整。

    (4) ATR能力的形成与拓展受多元创新协同不足制约。ATR系统能力的形成需要在使用中迭代,但研制方交付用户后,一般难以提供、也很少提供与目标识别紧密相关的数据处理、管理与更新等软件及服务。在设备用户、设备研制方和ATR技术与服务提供方之间还难以形成高效的技术创新协同链路。

    ATR之难,源于对识别对象不完备、不确定的观测。目标的非合作性与欺骗性、干扰的引入、环境的变化以及受限的观测手段、有限的观测时空窗口等,都使得通过有限训练样本与模型建立的ATR方法很难满足实际要求。需重点关注:

    (1) 要解决目标与环境的有效建模问题。建模的要求不是单纯为了精确,而是要尽可能覆盖各类可能的目标模型。这需要建立一个复杂的层次化、网络化的目标分类模型空间,在不同的识别层次上采用不同的建模方法。

    (2) 要解决特定应用场景预测目标模型的有效选择、裁剪和快速学习训练与装订问题。要针对各类应用场景,快速形成任务模型与流程,设置可能目标集合与相应的预测目标模型,快速训练形成面向特定应用任务的ATR算法软件。需要通过有效预测目标场景状态或缩小目标场景空间,来降低目标模型预测的复杂性,从而提高ATR的可靠性。

    (3) 要发展可解释性ATR技术。通过多维度构建和表达ATR领域知识,并与任务驱动、数据驱动技术相结合,将领域知识更好地嵌入到深度模型的学习和推理过程中,发展解释性强、泛化性好、鲁棒性高ATR模型和技术。

    ATR处于动态开放环境下,新需求、新任务、新数据、新目标不断出现,目标特性的变化和应用场景多样性要求ATR系统具备快速自学习、自组织、自生长的能力。

    (1) 发展软件定义的柔性ATR系统架构和以识别为核心ATR操作系统,以适应快速、灵活定制或更新不同环境条件下的ATR系统的需要。发展敏捷、轻量化的ATR系统架构和识别处理技术产品,以适应各类灵巧型智能设备的发展需求。

    (2) 加强目标场景表征与分类研究,形成规范化的分类、分级ATR目标场景视图。在此基础上,发展ATR跨场景高效迁移学习、融合学习方法,提升跨域、跨场景下的ATR系统能力。

    (3) 发展ATR领域更为有效的系统学习演进理论与方法,使得ATR系统能够在使用过程中进行持续高效的进化与扩展,保持对新出现目标类型、样本特性和场景状态稳定的识别能力;建立适应ATR任务特点的虚实混合训练模型与模式,最大程度地构建开放的ATR生态,形成场景、数据、算法的闭环,加速ATR系统的泛化应用。

    ATR是一个永恒的挑战。ATR的发展需要领域相关技术的进步与应用整合,需要更多的领域研究人员面向应用场景深耕细作,不断的把ATR技术的研究和工程应用推向极限,成就ATR之美。

  • 图  1  ATR的认知视角

    Figure  1.  Perspectives of ATR

    图  2  ATR在OODA中的功能描述(检测、跟踪、定位、识别、预测)

    Figure  2.  Functions of ATR in OODA (detection, tracking, locating, recognition, and prediction)

    图  3  ATR中任务与资源优化调度

    Figure  3.  Optimal task and resource scheduling in ATR

    图  4  多源融合层次化结构

    Figure  4.  Hierarchical structure of multi-source fusion

    图  5  ATR在线学习自演进架构[8]

    Figure  5.  ATR online learning and self-evolving architecture[8]

    图  6  MSTAR部分数据样本

    Figure  6.  Data samples of MSTAR

    图  7  OpenSARShip部分数据样本

    Figure  7.  Data samples of OpenSARShip

    图  8  ATR数据信息能力的核心技术构成示意图

    Figure  8.  Illustration of the core technologies of ATR competence regarding data information

    图  9  ATR信息认知能力的核心技术构成示意图

    Figure  9.  Illustration of the core technologies of ATR competence regarding information recognition

    图  10  ATR Core的核心技术构成示意图

    Figure  10.  Illustration of the key technologies of ATR Core

    图  11  ATR应用从封闭走向开放

    Figure  11.  ATR application: from close form to open form

    图  12  迭代演进开发模式演进流程

    Figure  12.  Process of iteratively-evolving development patterns

    图  13  雷达目标识别系统的迭代增长式工程开发模式

    Figure  13.  An iteratively incremental engineer development model for a radar target recognition system

    图  14  百度Apollo 6.0开放生态环境示意图

    Figure  14.  Illustration of Baidu Apollo 6.0 open ecological environment

    图  1  Perspectives of ATR

    图  2  Functions of ATR in OODA (detection, tracking, locating, recognition, and prediction)

    图  3  Optimal task and resource scheduling in ATR

    图  4  Hierarchical structure of multi-source fusion

    图  5  ATR online learning and self-evolving architecture

    图  6  Data samples of MSTAR

    图  7  Data samples of OpenSARShip

    图  8  Illustration of the core technologies of ATR competence regarding data information

    图  9  Illustration of the core technologies of ATR competence regarding information recognition

    图  10  Illustration of the key technologies of ATR Core

    图  11  ATR application: from close form to open form

    图  12  Process of iteratively-evolving development patterns

    图  13  An iteratively incremental engineer development model for a radar target recognition system

    图  14  Illustration of Baidu Apollo 6.0 open ecological environment

  • [1] TAIT P. Introduction to Radar Target Recognition[M]. London: IET Digital Library, 2005: 3–14.
    [2] RATCHES J A. Review of current aided/automatic target acquisition technology for military target acquisition tasks[J]. Optical Engineering, 2011, 50(7): 072001. doi: 10.1117/1.3601879
    [3] BHANU B. Automatic target recognition: State of the art survey[J]. IEEE Transactions on Aerospace and Electronic Systems, 1986, AES-22(4): 364–379. doi: 10.1109/TAES.1986.310772
    [4] VERLY J G, DELANOY R L, and DUDGEON D E. Machine intelligence technology for automatic target recognition[J]. The Lincoln Laboratory Journal, 1989, 2(2): 277–311.
    [5] SCHACHTER B J. Automatic Target Recognition[M]. 3rd ed. John Wiley & Sons, Ltd, 2018: 1–33.
    [6] BLACKNELL D and GRIFFITHS H. Radar Automatic Target Recognition (ATR) and Non-Cooperative Target Recognition (NCTR)[M]. London: IET Digital Library, 2013: 157–174.
    [7] 崔皓. 分布式架构原理与实践[M]. 北京: 人民邮电出版社, 2021: 117–169.

    CUI Hao. Principles and Practices of Distributed Architecture[M]. Beijing: Posts & Telecommunications Press, 2021: 117–169.
    [8] LIU Bing. Learning on the Job: Online lifelong and continual learning[C]. The 34th AAAI Conference on Artificial Intelligence, New York, USA, 2020: 13544–13549.
    [9] 郁文贤, 郭桂蓉. ATR的研究现状和发展趋势[J]. 系统工程与电子技术, 1994, 16(6): 25–32. doi: 10.3321/j.issn:1001-506X.1994.06.005

    YU Wenxian and GUO Guirong. The state of the arts of automatic target recognition[J]. Systems Engineering and Electronics, 1994, 16(6): 25–32. doi: 10.3321/j.issn:1001-506X.1994.06.005
    [10] AFRL and DARPA. Sensor data management system website, MSTAR database[EB/OL]. https://www.sdms.afrl.af.mil/index.php?collection=mstar, 2022.
    [11] BRYANT A. Target recognition and adaption in contested environments (TRACE)[EB/OL]. https://www.darpa.mil/program/trace, 2022.
    [12] 郭炜炜, 杜小勇, 胡卫东, 等. 基于稀疏先验的SAR图像目标方位角稳健估计方法[J]. 信号处理, 2008, 24(6): 889–893. doi: 10.3969/j.issn.1003-0530.2008.06.001

    GUO Weiwei, DU Xiaoyong, HU Weidong, et al. A robust target aspect estimation method from SAR images based on sparse prior[J]. Journal of Signal Processing, 2008, 24(6): 889–893. doi: 10.3969/j.issn.1003-0530.2008.06.001
    [13] 郁文贤, 李明国. 军事电子信息处理中的人工神经网络技术[J]. 国防科技大学学报, 1998, 20(3): 3–5.

    YU Wenxian and LI Mingguo. Applications of artificial neural networks technology to military electronic information processing[J]. Journal of National University of Defense Technology, 1998, 20(3): 3–5.
    [14] 黎湘, 郁文贤, 庄钊文, 等. 决策层信息融合的神经网络模型与算法研究[J]. 电子学报, 1997, 25(9): 117–120. doi: 10.3321/j.issn:0372-2112.1997.09.030

    LI Xiang, YU Wenxian, ZHUANG Zhaowen, et al. Decision fusion for target recognition based on neural network model[J]. Acta Electronica Sinica, 1997, 25(9): 117–120. doi: 10.3321/j.issn:0372-2112.1997.09.030
    [15] KOVAR J J, KNECHT J, and CHENOWETH D. Automatic classification of infrared ship imagery[C]. SPIE 0292, Images and Data from Optical Sensors, San Diego, USA, 1981: 234–240.
    [16] AVCI E. A new method for expert target recognition system: Genetic wavelet extreme learning machine (GAWELM)[J]. Expert Systems with Applications, 2013, 40(10): 3984–3993. doi: 10.1016/j.eswa.2013.01.011
    [17] 郭桂蓉. 模糊模式识别[M]. 长沙: 国防科技大学出版社, 1993: 134–168.

    GUO Guirong. FUZZY Pattern Recognition[M]. Changsha: National University of Defense Technology Press, 1993: 134–168.
    [18] HU M K. Visual pattern recognition by moment invariant[J]. IRE Transactions on Information Theory, 1962, 8(2): 179–187. doi: 10.1109/TIT.1962.1057692
    [19] 何友, 黄勇, 关键, 等. 海杂波中的雷达目标检测技术综述[J]. 现代雷达, 2014, 36(12): 1–9. doi: 10.16592/j.cnki.1004-7859.2014.12.004

    HE You, HUANG Yong, GUAN Jian, et al. An overview on radar target detection in sea clutter[J]. Modern Radar, 2014, 36(12): 1–9. doi: 10.16592/j.cnki.1004-7859.2014.12.004
    [20] 艾小锋, 赵锋, 刘晓斌, 等. 双/多基地雷达目标探测与识别[M]. 北京: 电子工业出版社, 2020: 54–95.

    AI Xiaofeng, ZHAO Feng, LIU Xiaobin, et al. Bi-Station/Multi-Station Radar Target Detection and Recognition[M]. Beijing: Publishing House of Electronics Industry, 2020: 54–95.
    [21] BARTON D K. Radar System Analysis and Modeling[M]. Boston: Artech House, 2005: 85–125.
    [22] CHUANG C W and MOFFATT D L. Natural resonances of radar targets via Prony’s method and target discrimination[J]. IEEE Transactions on Aerospace and Electronic Systems, 1976, AES-12(5): 583–589. doi: 10.1109/TAES.1976.308260
    [23] CHEN J S and WALTON E K. Comparison of two target classification techniques[J]. IEEE Transactions on Aerospace and Electronic Systems, 1986, AES-22(1): 15–22. doi: 10.1109/TAES.1986.310688
    [24] 郭桂蓉, 郁文贤, 胡步法. 一种有效的舰船目标识别新方法[J]. 系统工程与电子技术, 1990(6): 1–7, 15. doi: 10.3321/j.issn:1001-506X.1990.06.001

    GUO Guirong, YU Wenxian, and HU Bufa. A new effective method for ship target recognition[J]. Systems Engineering and Electronics, 1990(6): 1–7, 15. doi: 10.3321/j.issn:1001-506X.1990.06.001
    [25] 袁莉, 刘宏伟, 保铮. 基于中心矩特征的雷达HRRP自动目标识别[J]. 电子学报, 2004, 32(12): 2078–2081. doi: 10.3321/j.issn:0372-2112.2004.12.036

    YUAN Li, LIU Hongwei, and BAO Zheng. Automatic target recognition of radar HRRP based on central moments features[J]. Acta Electronica Sinica, 2004, 32(12): 2078–2081. doi: 10.3321/j.issn:0372-2112.2004.12.036
    [26] ZHANG Xuefeng, CHEN Bo, LIU Hongwei, et al. Infinite max-margin factor analysis via data augmentation[J]. Pattern Recognition, 2016, 52: 17–32. doi: 10.1016/j.patcog.2015.10.020
    [27] CHEN Jian, DU Lan, and LIAO Leiyao. Discriminative mixture variational autoencoder for semisupervised classification[J]. IEEE Transactions on Cybernetics, 2022, 52(5): 3032–3046. doi: 10.1109/TCYB.2020.3023019
    [28] DU Chuan, CHEN Bo, XU Bin, et al. Factorized discriminative conditional variational auto-encoder for radar HRRP target recognition[J]. Signal Processing, 2019, 158: 176–189. doi: 10.1016/j.sigpro.2019.01.006
    [29] COPSEY K and WEBB A. Bayesian gamma mixture model approach to radar target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2003, 39(4): 1201–1217. doi: 10.1109/TAES.2003.1261122
    [30] DU Lan, CHEN Jian, HU Jing, et al. Statistical modeling with label constraint for radar target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2020, 56(2): 1026–1044. doi: 10.1109/TAES.2019.2925472
    [31] 吴一戎, 朱敏慧. 合成孔径雷达技术的发展现状与趋势[J]. 遥感技术与应用, 2000, 15(2): 121–123. doi: 10.3969/j.issn.1004-0323.2000.02.012

    WU Yirong and ZHU Minhui. The developing status and trends of synthetic aperture radar[J]. Remote Sensing Technology and Application, 2000, 15(2): 121–123. doi: 10.3969/j.issn.1004-0323.2000.02.012
    [32] HOLMES Q A, NUESCH D R, and SHUCHMAN R A. Textural analysis and real-time classification of sea-ice types using digital SAR data[J]. IEEE Transactions on Geoscience and Remote Sensing, 1984, GE-22(2): 113–120. doi: 10.1109/TGRS.1984.350602
    [33] IKEUCHI K, WHEELER M D, YAMAZAKI T, et al. Model-based SAR ATR system[C]. SPIE 2757, Algorithms for Synthetic Aperture Radar Imagery III, Orlando, USA, 1996: 376–387.
    [34] ANAGNOSTOPOULOS G C. SVM-based target recognition from synthetic aperture radar images using target region outline descriptors[J]. Nonlinear Analysis:Theory,Methods&Applications, 2009, 71(12): e2934–e2939. doi: 10.1016/j.na.2009.07.030
    [35] SAIDI M N, DAOUDI K, KHENCHAF A, et al. Automatic target recognition of aircraft models based on ISAR images[C]. 2009 IEEE International Geoscience and Remote Sensing Symposium, Cape Town, South Africa, 2009: IV-685–IV-688.
    [36] ZHENG Qinfen, DER S Z, and MAHMOUD H I. Model-based target recognition in pulsed ladar imagery[J]. IEEE Transactions on Image Processing, 2001, 10(4): 565–572. doi: 10.1109/83.913591
    [37] RUEL S, ENGLISH C E, MELO L, et al. Field testing of a 3D automatic target recognition and pose estimation algorithm[C]. SPIE 5426, Automatic Target Recognition XIV, Orlando, USA, 2004: 102–111.
    [38] GRONWALL C, GUSTAFSSON F, and MILLNERT M. Ground target recognition using rectangle estimation[J]. IEEE Transactions on Image Processing, 2006, 15(11): 3400–3408. doi: 10.1109/TIP.2006.881965
    [39] VASILE A N. Pose independent target recognition system using pulsed ladar imagery[D]. [Master dissertation], Massachusetts Institute of Technology, 2004.
    [40] ERNISSE B E, ROGERS S K, DESIMIO M P, et al. Complete automatic target cuer/recognition system for tactical forward-looking infrared images[J]. Optical Engineering, 1997, 36(9): 2593–2603. doi: 10.1117/1.601484
    [41] INGGS M R and ROBINSON A D. Ship target recognition using low resolution radar and neural networks[J]. IEEE Transactions on Aerospace and Electronic Systems, 1999, 35(2): 386–393. doi: 10.1109/7.766923
    [42] NING Wu, CHEN Wugun, and ZHANG Xinggan. Automatic target recognition of ISAR object images based on neural network[C]. IEEE International Conference on Neural Networks and Signal Processing, Nanjing, China, 2003: 373–376.
    [43] 黄金, 梁彦, 程咏梅, 等. 基于序列图像的自动目标识别算法[J]. 航空学报, 2006, 27(1): 87–93. doi: 10.3321/j.issn:1000-6893.2006.01.017

    HUANG Jin, LIANG Yan, CHEN Yongmei, et al. Automatic target recognition method based on sequential images[J]. Acta Aeronautica et Astronautica Sinica, 2006, 27(1): 87–93. doi: 10.3321/j.issn:1000-6893.2006.01.017
    [44] 宋锐, 张静, 夏胜平, 等. 一种基于BP神经网络群的自适应分类方法及其应用[J]. 电子学报, 2001, 29(12A): 1950–1953. doi: 10.3321/j.issn:0372-2112.2001.z1.055

    SONG Rui, ZHANG Jing, XIA Shengping, et al. An adaptive classification method of BP-NN group based classification system and its application[J]. Acta Electronica Sinica, 2001, 29(12A): 1950–1953. doi: 10.3321/j.issn:0372-2112.2001.z1.055
    [45] AVCI E and COTELI R. A new automatic target recognition system based on wavelet extreme learning machine[J]. Expert Systems with Applications, 2012, 39(16): 12340–12348. doi: 10.1016/j.eswa.2012.04.012
    [46] 李明国, 郁文贤. 神经网络的函数逼近理论[J]. 国防科技大学学报, 1998, 20(4): 70–76.

    LI Mingguo and YU Wenxian. On neural networks founction approximation[J]. Journal of National University of Defense Technology, 1998, 20(4): 70–76.
    [47] 胡卫东, 郁文贤, 郭桂蓉. 一种有效的神经网络检测器[J]. 国防科技大学学报, 1997, 19(3): 18–22.

    HU Weidong, YU Wenxian, and GUO Guirong. An effective neural network detector[J]. Journal of National University of Defense Technology, 1997, 19(3): 18–22.
    [48] 路军, 郁文贤, 郭桂蓉, 等. 子波神经网络及其在自动目标识别中的应用[J]. 系统工程与电子技术, 1995, 17(11): 11–18. doi: 10.3321/j.issn:1001-506X.1995.11.003

    LU Jun, YU Wenxian, GUO Guirong, et al. Application of WNN in automatic target recognition[J]. Systems Engineering and Electronics, 1995, 17(11): 11–18. doi: 10.3321/j.issn:1001-506X.1995.11.003
    [49] 夏胜平, 张乐锋, 虞华, 等. 基于RSOM树模型的机器学习原理与算法研究[J]. 电子学报, 2005, 33(5): 939–944. doi: 10.3321/j.issn:0372-2112.2005.05.037

    XIA Shengping, ZHANG Lefeng, YU Hua, et al. Theory and algorithm of machine learning based on RSOM tree model[J]. Acta Electronica Sinica, 2005, 33(5): 939–944. doi: 10.3321/j.issn:0372-2112.2005.05.037
    [50] 李予蜀, 余农, 吴常泳, 等. 红外航空图像自动目标识别的形态滤波神经网络算法[J]. 航空学报, 2002, 23(4): 368–372. doi: 10.3321/j.issn:1000-6893.2002.04.018

    LI Yushu, YU Nong, WU Changyong, et al. Morphological neural networks with applications to automatic target recognition in aeronautics infrared image[J]. Acta Aeronautica et Astronautica Sinica, 2002, 23(4): 368–372. doi: 10.3321/j.issn:1000-6893.2002.04.018
    [51] AVCI E, TÜRKOĞLU I, and POYRAZ M. A new approach based on wavelet nero genetic network for automatic target recognition with X-band Doppler radar[J]. Istanbul University Journal of Electrical and Electronics Engineering, 2006, 6(2): 157–168.
    [52] KRIZHEVSKY A, SUTSKEVER I, and HINTON G E. ImageNet Classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84–90. doi: 10.1145/3065386
    [53] GAO Fei, HUANG Teng, SUN Jinping, et al. A new algorithm for SAR image target recognition based on an improved deep convolutional neural network[J]. Cognitive Computation, 2019, 11(6): 809–824. doi: 10.1007/s12559-018-9563-z
    [54] ZHU Pingping, ISAACS J, FU Bo, et al. Deep learning feature extraction for target recognition and classification in underwater sonar images[C]. IEEE 56th Annual Conference on Decision and Control, Melbourne, Australia, 2017: 2724–2731.
    [55] 田壮壮, 占荣辉, 胡杰民, 等. 基于卷积神经网络的SAR图像目标识别研究[J]. 雷达学报, 2016, 5(3): 320–325. doi: 10.12000/JR16037

    TIAN Zhuangzhuang, ZHAN Ronghui, HU Jiemin, et al. SAR ATR based on convolutional neural network[J]. Journal of Radars, 2016, 5(3): 320–325. doi: 10.12000/JR16037
    [56] CHEN Sizhe and WANG Haipeng. SAR target recognition based on deep learning[C]. 2014 IEEE International Conference on Data Science and Advanced Analytics, Shanghai, China, 2014: 541–547.
    [57] 贺丰收, 何友, 刘准钆, 等. 卷积神经网络在雷达自动目标识别中的研究进展[J]. 电子与信息学报, 2020, 42(1): 119–131. doi: 10.11999/JEIT180899

    HE Fengshou, HE You, LIU Zhunga, et al. Research and development on applications of convolutional neural networks of radar automatic target recognition[J]. Journal of Electronics&Information Technology, 2020, 42(1): 119–131. doi: 10.11999/JEIT180899
    [58] DING Baiyuan, WEN Gongjian, MA Conghui, et al. An efficient and robust framework for SAR target recognition by hierarchically fusing global and local features[J]. IEEE Transactions on Image Processing, 2018, 27(12): 5983–5995. doi: 10.1109/TIP.2018.2863046
    [59] ZHANG Jinsong, XING Mengdao, and XIE Yiyuan. FEC: A feature fusion framework for SAR target recognition based on electromagnetic scattering features and deep CNN features[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(3): 2174–2187. doi: 10.1109/TGRS.2020.3003264
    [60] LI Yi, DU Lan, and WEI Di. Multiscale CNN based on component analysis for SAR ATR[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5211212. doi: 10.1109/TGRS.2021.3100137
    [61] FENG Sijia, JI Kefeng, ZHANG Linbin, et al. SAR target classification based on integration of ASC parts model and deep learning algorithm[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 10213–10225. doi: 10.1109/JSTARS.2021.3116979
    [62] 王容川, 庄志洪, 王宏波, 等. 基于卷积神经网络的雷达目标HRRP分类识别方法[J]. 现代雷达, 2019, 41(5): 33–38. doi: 10.16592/j.cnki.1004-7859.2019.05.007

    WANG Rongchuan, ZHUANG Zhihong, WANG Hongbo, et al. HRRP classification and recognition method of Radar target based on convolutional neural network[J]. Modern Radar, 2019, 41(5): 33–38. doi: 10.16592/j.cnki.1004-7859.2019.05.007
    [63] CHEVALIER M, THOME N, CORD M, et al. Low resolution convolutional neural network for automatic target recognition[C]. 7th International Symposium on Optronics in Defence and Security, Paris, France, 2016: 1–9.
    [64] 喻玲娟, 王亚东, 谢晓春, 等. 基于FCNN和ICAE的SAR图像目标识别方法[J]. 雷达学报, 2018, 7(5): 622–631. doi: 10.12000/JR18066

    YU Lingjuan, WANG Yadong, XIE Xiaochun, et al. SAR ATR based on FCNN and ICAE[J]. Journal of Radars, 2018, 7(5): 622–631. doi: 10.12000/JR18066
    [65] ZHANG Zenghui, GUO Weiwei, ZHU Shengnan, et al. Toward arbitrary-oriented ship detection with rotated region proposal and discrimination networks[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(11): 1745–1749. doi: 10.1109/LGRS.2018.2856921
    [66] ZHAO Juanping, ZHANG Zenghui, YU Wenxian, et al. A cascade coupled convolutional neural network guided visual attention method for ship detection from SAR images[J]. IEEE Access, 2018, 6: 50693–50708. doi: 10.1109/ACCESS.2018.2869289
    [67] KHELLAL A, MA Hongbin, and FEI Qing. Convolutional neural network based on extreme learning machine for maritime ships recognition in infrared images[J]. Sensors, 2018, 18(5): 1490. doi: 10.3390/s18051490
    [68] 史国军. 深度特征联合表征的红外图像目标识别方法[J]. 红外与激光工程, 2021, 50(3): 20200399. doi: 10.3788/irla20200399

    SHI Guojun. Target recognition method of infrared imagery via joint representation of deep features[J]. Infrared and Laser Engineering, 2021, 50(3): 20200399. doi: 10.3788/irla20200399
    [69] PAN Mian, LIU Ailin, YU Yanzhen, et al. Radar HRRP target recognition model based on a stacked CNN–Bi-RNN with attention mechanism[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 5100814. doi: 10.1109/TGRS.2021.3055061
    [70] LI Rui, WANG Xiaodan, WANG Jian, et al. SAR target recognition based on efficient fully convolutional attention block CNN[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 19: 4005905. doi: 10.1109/LGRS.2020.3037256
    [71] OSAHOR U M and NASRABADI N M. Design of adversarial targets: Fooling deep ATR systems[C]. SPIE 10988, Automatic Target Recognition XXIX, Baltimore, USA, 2019: 82–91.
    [72] HUANG Teng, ZHANG Qixiang, LIU Jiabao, et al. Adversarial attacks on deep-learning-based SAR image target recognition[J]. Journal of Network and Computer Applications, 2020, 162: 102632. doi: 10.1016/j.jnca.2020.102632
    [73] GOEL A, AGARWAL A, VATSA M, et al. DNDNet: Reconfiguring CNN for adversarial robustness[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, Seattle, USA, 2020: 22–23.
    [74] DING Jun, CHEN Bo, LIU Hongwei, et al. Convolutional neural network with data augmentation for SAR target recognition[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(3): 364–368. doi: 10.1109/LGRS.2015.2513754
    [75] BAI Xueru, ZHOU Xuening, ZHANG Feng, et al. Robust pol-ISAR target recognition based on ST-MC-DCNN[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(12): 9912–9927. doi: 10.1109/TGRS.2019.2930112
    [76] ZHAI Yikui, DENG Wenbo, XU Ying, et al. Robust SAR automatic target recognition based on transferred MS-CNN with L2-regularization[J]. Computational Intelligence and Neuroscience, 2019, 2019: 9140167. doi: 10.1155/2019/9140167
    [77] 郭炜炜, 张增辉, 郁文贤, 等. SAR图像目标识别的可解释性问题探讨[J]. 雷达学报, 2020, 9(3): 462–476. doi: 10.12000/JR20059

    GUO Weiwei, ZHANG Zenghui, YU Wenxian, et al. Perspective on explainable SAR target recognition[J]. Journal of Radars, 2020, 9(3): 462–476. doi: 10.12000/JR20059
    [78] HUANG Zhongling, PAN Zongxu, and LEI Bin. Transfer learning with deep convolutional neural network for SAR target classification with limited labeled data[J]. Remote Sensing, 2017, 9(9): 907. doi: 10.3390/rs9090907
    [79] MALMGREN-HANSEN D, KUSK A, DALL J, et al. Improving SAR automatic target recognition models with transfer learning from simulated data[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(9): 1484–1488. doi: 10.1109/LGRS.2017.2717486
    [80] ZHAO Siyuan, ZHANG Zenghui, ZHANG Tao, et al. Transferable SAR image classification crossing different satellites under open set condition[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4506005. doi: 10.1109/LGRS.2022.3159179
    [81] ZHAO Siyuan, ZHANG Zenghui, GUO Weiwei, et al. An automatic ship detection method adapting to different satellites SAR images with feature alignment and compensation loss[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5225217. doi: 10.1109/TGRS.2022.3160727
    [82] KARJALAINEN A I, MITCHELL R, and VAZQUEZ J. Training and validation of automatic target recognition systems using generative adversarial networks[C]. 2019 IEEE Sensor Signal Processing for Defence Conference (SSPD), Brighton, UK, 2019: 1–5.
    [83] YANG Shuang, SHI Xiaoran, and ZHOU Feng. Automatic target recognition for low-resolution SAR images based on super-resolution network[C]. IEEE 6th Asia-Pacific Conference on Synthetic Aperture Radar (APSAR), Xiamen, China, 2019: 1–6.
    [84] AHMADIBENI A, JONES B, BOROOSHAK L, et al. Automatic target recognition of aerial vehicles based on synthetic SAR imagery using hybrid stacked denoising auto-encoders[C]. SPIE 11393, Algorithms for Synthetic Aperture Radar Imagery XXVII, 2020: 71–82.
    [85] ZELNIO E G. Advanced decision-making systems in future avionics: Automatic target recognition example[C]. 1998 IEEE Aerospace Conference Proceedings, Snowmass, USA, 1998: 309–313.
    [86] HUANG Lanqing, LIU Bin, LI Boying, et al. OpenSARShip: A dataset dedicated to Sentinel-1 ship interpretation[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(1): 195–208. doi: 10.1109/JSTARS.2017.2755672
    [87] 孙显, 王智睿, 孙元睿, 等. AIR-SARShip-1.0: 高分辨率SAR舰船检测数据集[J]. 雷达学报, 2019, 8(6): 852–862. doi: 10.12000/JR19097

    SUN Xian, WANG Zhirui, SUN Yuanrui, et al. AIR-SARShip-1.0: High-resolution SAR ship detection dataset[J]. Journal of Radars, 2019, 8(6): 852–862. doi: 10.12000/JR19097
    [88] 刘宁波, 董云龙, 王国庆, 等. X波段雷达对海探测试验与数据获取[J]. 雷达学报, 2019, 8(5): 656–667. doi: 10.12000/JR19089

    LIU Ningbo, DONG Yunlong, WANG Guoqing, et al. Sea-detecting X-band radar and data acquisition program[J]. Journal of Radars, 2019, 8(5): 656–667. doi: 10.12000/JR19089
    [89] 回丙伟, 宋志勇, 王琦, 等. 空中弱小目标检测跟踪测试基准[J]. 航空兵器, 2019, 26(6): 56–59. doi: 10.12132/ISSN.1673-5048.2019.0234

    HUI Bingwei, SONG Zhiyong, WANG Qi, et al. A benchmark for dim or small aircraft targets detection and tracking[J]. Aero Weaponry, 2019, 26(6): 56–59. doi: 10.12132/ISSN.1673-5048.2019.0234
    [90] 张静, 宋锐, 郁文贤. 雷达目标识别中的BP神经网络算法改进及应用[J]. 系统工程与电子技术, 2005, 27(4): 582–585. doi: 10.3321/j.issn:1001-506X.2005.04.003

    ZHANG Jing, SONG Rui, and YU Wenxian. Improvements and applications of BP neural network algorithm in radar target recognition[J]. Systems Engineering and Electronics, 2005, 27(4): 582–585. doi: 10.3321/j.issn:1001-506X.2005.04.003
    [91] BLASCH E, SEETHARAMAN G, and DAREMA F. Dynamic data driven applications systems (DDDAS) modeling for automatic target recognition[C]. SPIE 8744, Automatic Target Recognition XXIII, Baltimore, USA, 2013: 165–174.
    [92] WILLIAMS D P, COUILLARD M, and DUGELAY S. On human perception and automatic target recognition: Strategies for human-computer cooperation[C]. 22nd IEEE International Conference on Pattern Recognition, Stockholm, Sweden, USA, 2014: 4690–4695.
    [93] TELLEZ O L. Human-in-the-loop for autonomous underwater threat recognition[C]. OCEANS 2018 MTS/IEEE Charleston, Charleston, USA, 2018: 1–5.
    [94] TELLEZ O L. Underwater threat recognition: Are automatic target classification algorithms going to replace expert human operators in the near future?[C]. OCEANS 2019-Marseille, Marseille, France, 2019: 1–4.
    [95] IRVINE J M. Evaluating assisted target recognition performance: An assessment of DARPA’s SAIP system[C]. SPIE 3721, Algorithms for Synthetic Aperture Radar Imagery VI, Orlando, USA, 1999: 693–704.
    [96] EVERSDEN A. DARPA issues solicitation for moving-target recognition project[EB/OL]. https://www.c4isrnet.com/home/2020/07/21/darpa-issues-solicitation-for-moving-target-recognition-project/, 2020.
    [97] BUSCHMANN F, MEUNIER R, ROHNERT H, et al. Pattern-Oriented Software Architecture, Volume 1, A System of Patterns[M]. New York: John Wiley & Sons, 1996: 3–7.
    [98] FORD N, PARSONS R, and KUA P. Building Evolutionary Architectures: Support Constant Change[M]. Beijing: O’Reilly Media, Inc. , 2017: 95–164.
    [99] 宋锐. 雷达舰船目标识别系统实现技术研究[D]. [博士论文], 国防科技大学, 2003.

    SONG Rui. Technology research on realization of radar ship target recognition system[D]. [Ph. D. dissertation], University of Defense Science and Technology, 2003.
    [100] 郁文贤, 计科峰, 柳彬. 星载SAR与AIS综合的海洋目标信息处理技术[M]. 北京: 科学出版社, 2017: 164–200.

    YU Wenxian, JI Kefeng, and LIU Bin. Satellite Based SAR and AIS Synthetic Oceanic Target Information Processing Technology[M]. Beijing: Science Press, 2017: 164–200.
    [101] 郁文贤. 智能化识别方法及其在舰船雷达目标识别系统中的应用[D]. [博士论文], 国防科技大学, 1992.

    YU Wenxian. Intelligent recognition method and its application in ship radar target recognition system[D]. [Ph. D. dissertation], University of Defense Science and Technology, 1992.
    [102] 郁文贤, 郭桂蓉. 通用型对海监视雷达目标识别与综合显控系统[R]. 长沙: 国防科技大学, 2004.

    YU Wenxian and GUO Guirong. Universal sea-surveillance radar target recognition and comprehensive display and control system[R]. Changsha: University of Defense Science and Technology, 2004.
    [103] CALVO-FULLANA M, MOX D, PYATTAEV A, et al. ROS-NetSim: A framework for the integration of robotic and network simulators[J]. IEEE Robotics and Automation Letters, 2021, 6(2): 1120–1127. doi: 10.1109/LRA.2021.3056347
    [104] 张静. 岸对海雷达智能数据分析与目标判性系统研制报告[R]. 国防科技大学ATR重点实验室, 2003.

    ZHANG Jing. Shore-to-the-sea radar intelligent data analysis and target classification system report[R]. ATR Laboratory, University of Defense Science and Technology, 2003.
    [105] 郭桂蓉, 庄钊文. ATR柔性技术研究报告[R]. 国防科技大学, 1995.

    GUO Guirong and ZHUANG Zhaowen. ATR adaptive technology research report[R]. University of Defense Science and Technology, 1995.
  • 加载中
图(28)
计量
  • 文章访问数: 
  • HTML全文浏览量: 
  • PDF下载量: 
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-08-02
  • 修回日期:  2022-10-12
  • 网络出版日期:  2022-10-19
  • 刊出日期:  2022-10-28

目录

/

返回文章
返回