Preliminary Research on the Effectiveness of Gestalt Perceptual Principles in SAR Images
-
摘要: 合成孔径雷达(SAR)图像是当前微波视觉研究领域的重要数据源。计算机视觉以光学视觉规律为理论基础,无法有效解译SAR图像。因此,借鉴人类视觉感知规律和计算机视觉技术,并融合电磁物理规律的微波视觉成为当前微波遥感领域的一个重要研究方向。探索微波视觉的认知基础对于完善微波视觉理论体系至关重要。该文旨在探讨光学感知规律在微波视觉中的有效性,作为完善微波视觉理论的基础尝试。格式塔感知规律是一类经典的视觉理论,常用于描述人类视觉系统对外部光学世界的感知规律,是计算机视觉的认知理论基础之一。在此背景下,该文以SAR图像为研究对象,借鉴认知心理学实验的设计流程,对格式塔感知规律中的感知组合律和感知不变律在SAR图像中的有效性进行初步研究,探索微波视觉的认知基础。实验结果表明,格式塔感知规律不能够直接应用到SAR图像的算法设计中,人类视觉系统从光学世界中总结出的知识概念、视觉规律在SAR图像中表现不佳,未来需要针对SAR图像等微波图像的特点总结相应的微波视觉认知规律。
-
关键词:
- 合成孔径雷达(SAR) /
- 微波视觉 /
- 认知科学 /
- 视觉感知 /
- 格式塔感知规律
Abstract: Synthetic Aperture Radar (SAR) images are an important data source in microwave vision research; however, computer vision cannot interpret these images effectively based on optical perceptual principles. Therefore, microwave vision, which draws inspiration from human visual perception principles and combines computer vision techniques with electromagnetic physical principles, has become an important research direction in microwave remote sensing. Exploring the cognitive basis for microwave vision is crucial for improving the theoretical system of microwave vision. Therefore, as a preliminary attempt to enhance the theoretical understanding of microwave vision, this paper examines the effectiveness of optical perceptual principles for microwave vision. As a classical visual theory, Gestalt perceptual principles are commonly used for describing the perceptual principles of the human visual system for the external optical world and are a cognitive theoretical foundation of computer vision. In this context, this paper uses SAR images as the research object, focuses on the design process of cognitive psychology experiments, and preliminarily studies the effectiveness of Gestalt perceptual principles for SAR images, including the principles of perceptual grouping and perceptual invariance, exploring the cognitive basis of microwave vision. The experimental results indicate that the Gestalt perceptual principles cannot be directly applied to the algorithm design for SAR images, and the knowledge concepts and visual principles derived from the optical world using the human visual system do not perform well in SAR images. In the future, it will be necessary to summarize the corresponding visual cognitive principles based on the characteristics of microwave images, such as SAR images. -
1. 引言
合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动式微波成像传感器,具有全天时、全天候的成像观测能力。自20世纪50年代诞生以来,SAR不断发展,逐步成为对地观测不可或缺的手段,在军事和民用领域均得到了广泛应用[1−3]。
近年来随着深度学习理论和方法的不断发展与推广应用,计算机视觉在多个图像处理与分析领域取得巨大成功,但在微波遥感领域,由于微波遥感图像与光学图像在成像机理、散射特性等方面存在较大差异,以光学视觉规律为基础的计算机视觉无法有效满足微波遥感领域的需求,因此面向微波遥感数据、融合电磁散射机制的微波视觉概念被提出,成为当前微波遥感领域特别是SAR图像解译领域的研究热点与难点[4−9]。
微波视觉的认知学习基础被认为是当前发展微波视觉所需要解决的3个基础问题之一,旨在借鉴鉴人类光视觉的学习机制和运作机制,探究智能体与外部电磁世界的交互学习机理[4]。如何构建适应于微波图像的视觉认知规律是其主要研究任务。然而当前相关研究更偏向于对电磁散射机制的物理模型构建,缺乏对微波图像认知规律的探索。本研究将从认知科学的角度研究这一问题,模仿借鉴光学视觉感知规律的认知科学理论实验方法。
视觉感知是指大脑感受、解释并对视觉刺激做出反应的过程,是认知科学的一项重要研究方向[10,11]。格式塔感知规律是一类经典的视觉感知规律,强调人类视觉系统在感知外部世界、组织知觉信息时所具有的整体性特点,为计算机视觉提供了重要的认知理论基础[12−15]。其中,感知组合律和感知不变律是两种较为经典的格式塔感知规律。
感知组合律(principles of perceptual grouping)指的是人脑在感知过程中会首先对感知到的元素进行分组以整体认知,包含临近性(proximity)、相似性(similarity)、连续性(continuation)等经典感知原则[16]。这些理论大多通过实验观察人对点阵、线条等简单心理物理刺激的组织结果得到的。实验发现,人在组织简单视觉元素时通常会遵循上述规律[17−19]。这些组织原则与格式塔理论的经济性特征相契合,即视觉系统能够以较少的认知资源代价完成高效认知过程[20]。
感知不变律(principles of perceptual invariance)指的是在感知过程中一些属性的改变不会影响最终的感知结果。这些属性可以源于感知对象本身,如尺度[21]、姿态[22]等的不变性。也可以是源自外界环境的其他属性如光照。有研究认为感知过程具有不变性是因为感知结果最终会被总结成关于感知对象特定固有属性的描述,这些属性在环境变化中保持不变,因而源自场景的属性变化不会影响感知结果[23]。有研究发现不同模态之间同样存在不变性[24],但不同图像模态之间特别是SAR图像与光学图像之间是否存在不变性有待进一步的探究。
后续有研究进一步以自然光学图像为对象,验证了格式塔感知规律在自然光学图像上的有效性。如Elder等人[25]基于对被试感知自然图像轮廓过程的追踪,构建贝叶斯模型对临近性、连续性、亮度相似性等格式塔原则进行了定量统计,说明了上述格式塔感知组合律在人对自然光学图像的视觉感知过程中同样适用。在此类实验验证的基础上,计算机视觉领域广泛采纳格式塔理论,基于格式塔感知规律设计算法模型[26]。Qi等人[27]采用图分割的方法解决轮廓分组问题,将图像中的待分组轮廓视为图节点,并根据格式塔原则设计了节点之间连边的权重计算方式,通过最小化能量函数的方式最终实现了图像的轮廓分组;Yan等人[28]利用格式塔规律指导注意力机制中自下而上的环节,根据不同位置处超像素的颜色、空间对比度等图像特征计算出图像的特征对比图,最终实现对单张图片的无监督显著性检测;Fang等人[29]根据视频序列的低维特征计算空间和时间维度上的显著图,基于相似性原则和共同命运原则分别估计空间和时间维度上的不确定性,并据此对空间、时间维度上的显著图进行融合,实现了对视频的显著性检测;Zhu等人[30]基于格式塔原则总结了子场景的属性特点,并据此设计约束条件,以对子场景区域内像素点的颜色、距离等属性关系进行语义约束,最终实现了无监督的子场景分割任务。
适用于光学视觉感知的格式塔感知规律是否同样适用于微波域的SAR图像?对于微波视觉而言,验证适用于光学视觉的感知规律是否同样适用于微波图像是建设其认知理论体系的重要探索,尽管过去有研究试图直接融合格式塔理论实现SAR图像解译任务,包括图像分割[31]、对建筑物的识别[32−34]等,但这些尝试并未取得显著性能提升,也并未给出格式塔理论在SAR图像中的有效性证明。另一方面,由于SAR图像呈现出相干斑噪声严重、目标轮廓不连续由离散的散射中心亮斑组成等特点,未经过训练的人很难凭借光学世界的视觉经验理解SAR图像。因此我们推测诸如格式塔感知规律的光学视觉感知规律并不能直接适用于微波图像,微波视觉的发展并不能简单地利用光学视觉感知规律而需要构建专属的认知理论体系,这也是本研究所要验证的主要观点。
在此背景下,本研究的目的是通过探究格式塔理论中感知组合律与感知不变律在SAR图像中的有效性,探讨光学视觉感知规律与微波视觉感知规律的差异,进一步探索适用于SAR图像的认知理论体系。本研究将借鉴光学视觉格式塔感知规律实验流程,设计出适用于微波视觉的认知实验框架,对格式塔感知组合律和感知不变律在SAR图像上的有效性进行了检验,并对微波视觉认知理论体系的未来发展进行了展望。
本研究假设视力正常或矫正后正常的人普遍具有正常的光学视觉认知[25],在未接受过微波视觉训练的条件下仅能凭借光学视觉规律及先验知识去感知SAR图像,且无法准确识别SAR图像内容。主要设计思路是让被试依据光学视觉经验完成微波图像识别任务,根据其表现结果判断格式塔感知规律在微波视觉领域的有效性。本研究包括两部分:实验1对应第2节内容,主要验证格式塔感知不变律,设计了选择题与画图题两组实验,通过比较被试对于在尺度、姿态、图像模态等属性上存在差异的目标的观察结果,分析对应属性的不变性。预测对SAR图像的观察不具备姿态不变性、模态不变性但具备尺度不变性,具体表现分别为对于不同姿态的SAR图像目标观察结果不同、被试无法将SAR图像中的物体与其光学形象相对应、被试对于等比例放缩的同一张SAR图像观察结果相似。实验2对应第3节内容,主要验证感知组合律,利用实验1画图题结果,借鉴光学认知实验分析方法[25],基于贝叶斯模型分析临近性、连续性、亮度相似性等经典格式塔原则在SAR图像中的有效性。预测由于人类视觉系统遵循格式塔感知规律,被试在观察微波图像时所表现的规律总会与观察光学图像时的表现规律类似,但观察效果会明显变差,具体表现为二者统计结果会呈现出同一分布类型的曲线,但观察微波图像所对应的分布曲线区分效果差。
2. 格式塔感知不变律对SAR图像的有效性
2.1 研究方法
2.1.1 被试
实验1共包含画图题与选择题两部分,采用GPower 3.1分别针对各题型设定进行了样本量估算[35]。经分析画图题所需最小样本量为35(中等效应f=0.25,α错误概率0.05,检验效力80%,被试间单变量5水平、被试内单变量两水平、3次重复测量操作):效应量f用于描述不同组别变量之间的差异,一般认为f=0.25具备中等效应水平;α错误概率用于控制假设检验中错误拒绝原假设的风险,通常取0.05作为显著性水平;检验效力表示检测到真实效应的可能性,效力越高效应越明显;根据实验材料的差异将被试分成5个组别,因此为被试间单变量5水平;实验1中对比了被试被告知图像内容前后的结果,因此为被试内单变量两水平。具体可参考GPower软件使用说明[35]。选择题所需最小样本量为52(效应量f=0.35,α错误概率0.05,检验效力80%,被试间单变量4组别、两次重复测量操作)。实验1共募集58名志愿者,均为复旦大学在校大学生,年龄在20~27岁。所有被试身心健康,视力或矫正视力正常,在实验开始前知悉实验流程但对实验内容不知情,完成实验后会获得一定报酬。
2.1.2 仪器
实验所使用的设备是15.6寸笔记本电脑,分辨率为1920×1080像素。使用Python编写实验程序,主要基于PyQt库完成交互界面设计。
2.1.3 程序
实验过程中,被试者坐在封闭、安静、无干扰的空间中观看显示器的画面输出,根据题目要求完成轮廓勾勒的任务。
实验1包括画图题与选择题两部分,其中,画图题包括A和B两组共6道题目,选择题包括C和D两组共14道题目。每组题目类型及对应要求如表1。
表 1 实验1题目设计及要求Table 1. Question design and requirements in experiment 1题型 序号 要求 画图题 A1—A3 不告知图像内容,拖动鼠标勾勒出目标轮廓 B1—B3 告知图像内容,拖动鼠标勾勒出目标轮廓 选择题 C1—C7 判断两张飞机切片图是否为相同机型飞机 D1—D8 选择与题干图片相同机型的飞机切片图 实验1程序如下:每位被试单独进行测试作答,熟悉实验环境后坐在电脑屏幕前阅读指导语。要求被试按要求依次完成A, B, C, D共4组题目。在正式作答每一组题目前,均有一道练习题供被试练习,确保被试正式作答前明确题目要求。实验1中各类题型交互界面按实验顺序的流程示意图如图1所示。
2.1.4 材料
实验1题目数量设定参考Palmer等人[36]对边缘区域分组现象的格式塔效应研究,同时由于本实验所用材料为真实SAR飞机切片图,需要考虑机型、成像质量等实际问题,结合被试数量综合考虑选定了当前的实验材料,2.2节中对结果显著度的分析也可进一步说明题目数量设置充分。画图题材料取自齐鲁一号数据集,从B-1B, B-52, C-130这3种机型中分别选取一张飞机切片图,A和B组对应序号的题目使用相同的图片,区别仅在于是否告知被试图片内容为飞机切片图。考虑到SAR图像质量与卫星关联程度大,为了对目标主体和图像背景的亮度、连续性进行修正,以消除SAR图像质量对实验结果的影响,设置5个实验条件组,示例如图2所示。实验1的58名被试随机分到5个实验组,每组尽量保证人数相同,画图题各组具体人数见表2。
表 2 画图题被试人数Table 2. Numbers of participants in the drawing questions组别 人数 对照组 12 背景亮度增强组 12 背景连续性增强组 12 主体亮度增强组 11 主体连续性增强组 11 为保证实验的真实有效性,实验阶段未强制要求被试必须勾勒一个闭合轮廓,若实验结果中出现轮廓未闭合、不完整的样本,则视为无效样本。部分无效样本如图3所示。
经过合理筛选,最终各类机型对应实验组的具体人数如表3所示。
表 3 画图题有效样本数量Table 3. Numbers of valid samples in drawing questions组别 有效样本数 B-1B B-52 C-130 对照组 12 12 12 背景亮度增强组 11 11 11 背景连续性增强组 11 12 11 主体亮度增强组 9 11 8 主体连续性增强组 9 9 11 选择题材料取自TerraSAR和GF3等SAR图像数据集以及Arcgis光学地图。所选择的飞机切片图机型范围与画图题相同仅包含B-1B, B-52, C-130这3种机型;被试对选取范围并不知情。其中,D组选择题中,D1—D4为一组,题干均为B-1B机型;D5—D8题为一组,题干为B-52机型;被试同样对题干的具体机型不知情。
选择题的分组方法包括尺度和题干顺序两方面。首先,为探究尺度不变性是否有效,通过对原图材料的空间分辨率进行尺度缩放共设计3个实验条件组。参与实验的58名被试被随机分到3个实验组中,每组尽量保证人数相同,选择题各组人数如表4所示。
表 4 选择题被试人数Table 4. Numbers of participants in the choosing questions组别 人数 小尺度组 20 正常尺度组 19 大尺度组 19 此外,为探究姿态不变性和模态不变性,实验过程中打乱D组选择题题干条件与选项的对应关系,即题干条件与选项排列组合随机分配。具体采取策略为固定D1—D8题目选项不变,随机分配题干条件。进一步地,又将D1—D4分为B-1B组,该组共有4种不同的题干条件均为B-1B机型的图片,分别与D1—D4选项排列组合;将D5—D8分为B-52组,该组同样有4种不同的题干条件均为B-52机型的图片,分别与D5—D8选项排列组合。即D1—D4, D5—D8相当于两组独立的测量操作,每组中存在着4(选项)×4(题干条件)的不同组合情况。D1—D8每道题的3个选项均为SAR图像,但题干条件的图片数量与模态不固定,各组别中题干条件的序号与对应图片的细节如表5所示。实验1假设图片尺度、题干图片与选项图片之间的影响互相独立。
表 5 实验1中D组选择题中各组别题干条件的设定细节Table 5. Setting details of each stem condition in the choosing questions of experiment 1 group D题干序号 题干条件 B-1B B-52 1 SAR×1 SAR×1 2 光学×1 光学×1 3 光学×1+SAR×1 光学×2 4 光学×1+SAR×2 光学×2+SAR×1 2.1.5 分析方法
画图题结果以IoU作为评价指标,选择题结果以正确率作为评价指标。
IoU的具体计算步骤如下:以目标实际轮廓区域作为真值,被试勾勒轮廓区域为预测值,分别计算二者重合面积和整体所占面积,即“交集”和“并集”。用公式表示为
IoU=|A∩B||A∪B| (1) 其中,A为真值面积,B为被试预测面积。根据式(1),IoU越大说明被试的预测值与真值重合程度越高,IoU的取值范围在0到1之间,IoU最大为1即预测值与真值重合完全一致。
2.1.6 假设
假设1:尺度不变性适用于对SAR图像的观察,因此选择题中不同尺度组别之间正确率差距不明显。
假设2:模态不变性不适用于光学图像与SAR图像之间,被试无法将SAR图像与光学视觉习得的知识概念相对应,因此画图题中告知图像内容并不一定会提升画图题IoU,且D组题中不同题干条件、相同选项之间的正确率存在较大差异。
假设3:姿态不变性不适用于对SAR图像的观察,因此D组题中相同题干条件、不同选项之间的正确率存在较大差异。
2.2 实验结果
画图题被试作答结果部分示例如图4所示,具体结果如图5、图6所示。其中,图5展示了告知图片内容信息前后IoU发生变化的人数占比,“提升”所对应的是相较于未告知图像内容的情况,告知图片内容信息后被试的表现得到提升的人数占比。图6展示了告知图片内容信息前后的平均IoU对比。
选择题结果如表6—表8所示,其中依据尺度划分的C组答题情况如表6所示,依据尺度划分的D组答题情况如表7所示,依据题干条件顺序划分的D组答题情况如表8所示。
表 6 C组选择题答题结果Table 6. Results of choosing questions of group C组别 正确率 C1 C2 C3 C4 C5 C6 C7 平均 小尺度组 0.550 0.350 0.900 0.900 0.700 0.950 0.600 0.707 正常尺度组 0.578 0.317 0.744 0.894 0.728 0.944 0.739 0.706 大尺度组 0.540 0.295 0.801 0.909 0.676 1.000 0.830 0.722 平均 0.556 0.321 0.815 0.901 0.701 0.965 0.723 0.712 表 7 D组选择题答题结果Table 7. Results of choosing questions of group D组别 正确率 D1 D2 D3 D4 D5 D6 D7 D8 平均 小尺度组 0.625 0.800 0.750 0.600 0.450 0.500 0.500 0.750 0.622 正常尺度组 0.598 0.739 0.744 0.578 0.522 0.522 0.528 0.875 0.638 大尺度组 0.625 0.659 0.830 0.659 0.676 0.648 0.335 0.688 0.640 平均 0.616 0.733 0.775 0.612 0.549 0.557 0.454 0.771 0.633 表 8 不同题干条件下D组选择题答题结果Table 8. Results of choosing questions of group D under different stem conditions题干序号 正确率 D1 D2 D3 D4 D1—D4平均 D5 D6 D7 D8 D5—D8平均 1 1.000 0.250 0.633 0.733 0.654 0.306 0.292 0.367 0.917 0.471 2 0.167 0.798 1.000 0.708 0.668 0.706 0.750 0.393 0.833 0.671 3 0.817 0.875 0.487 0.741 0.730 0.792 0.357 0.521 0.417 0.522 4 0.333 0.854 1.000 0.370 0.639 0.369 0.688 0.500 0.889 0.611 平均 0.579 0.694 0.780 0.638 0.673 0.543 0.522 0.445 0.764 0.569 对比表6、表7中不同尺度实验组的选择题答题情况,C组选择题正确率0.712±0.007,D组选择题正确率0.633±0.008,不同实验组之间不存在明显差异[C组:F(2,55)=0.181, p=0.835,
η2 =0.007; D组:F(2,55)=0.105, p=0.900,η2 =0.004]:F值常用于方差分析中比较不同组别之间的方差是否具有统计显著性,F值越高表明样本间差异越显著;p值常用于对零假设的检验,p值越小(通常选取0.05作为判断标准)表明结果越显著;η2 常用于度量统计效应的大小,数值越高说明效应越强[37]。说明对同一目标的尺度缩放操作对于选择正确率没有显著影响,表明SAR图像的尺度缩放不会影响到人对确定目标的识别判断。这一结果反映了人在观察SAR图像时仍具有尺度不变性。需要注意的是,这里的不同尺度是同一目标类型由于分辨率不同造成的差异,而并非种类不同造成的。对比表8中相同题干条件下不同选项的答题情况(即题干条件相同、题目序号不同),不同选项组别存在显著差异[F(7,14)=3.505, p=0.001,
η2 =0.060]。考虑到选项组之间正确答案的差别仅在于图片中飞机目标姿态不同,说明姿态的旋转变化对于被试的选择正确率有明显影响,即SAR图像目标姿态的变化会影响到人对目标的识别判断。这一结果反映了姿态不变性在SAR图像上的表现。格式塔相关理论认为视觉感知的最终结果可以视为自下而上的数据驱动与自上而下的概念驱动的匹配结果,后者会受到知识经验等的影响[11,38]。如图5、图6所示,告知图片内容信息对于被试识别飞机目标轮廓任务的提升,在提升人数占比[(49.67±6.66)%]及平均IoU提升上[F(1,43)=0.532, p=0.470,
η2 =0.012]均不存在明显趋势,说明被试在观察SAR图像时,难以将SAR图像中飞机目标轮廓与过去通过光学图像习得的“飞机”概念匹配,即光学视觉对应的知识概念在SAR图像上不适用。结合表8中相同选项在不同题干条件下的答题情况(题目序号相同、题干条件不同),不同题干条件下的结果存在一定差异[F(7,385)=2.052, p=0.048,
η2 =0.036]。以D组B-52机型的识别结果为例,如表5所示,4种题干条件所包含的图片信息分别为“SAR×1”“光学×1”“光学×2”和“光学×2+SAR×1”,而对应的平均正确率分别为0.470, 0.671, 0.522, 0.611,并未随着题干条件的丰富而单调提升。结合上述提到的视觉感知流程,将题干条件类比成概念驱动中的“知识”,选项类比成数据驱动过程获得的“感知对象”,实验结果表明跨模态的“知识”融合并未有效提高对感知对象的识别效果。综上,结合对图5、图6以及对表8的分析结果,SAR图像、光学图像这两种不同的图像模态,其知识概念之间存在显著差异,模态不变性不适用。此外,图6结果也显示不同组之间结果存在一定差异[F(4,43)=2.523, p=0.055,
η2 =0.190],反映了环境条件即SAR图像质量会对观察结果产生影响,与预想一致。此外,对不同机型结果进行横向比对存在显著差异[F(2,86)=75.862, p<0.001,η2 =0.638],与SAR图像解译任务中不同细粒度类别识别难度存在明显差异的现象相一致。2.3 讨论
姿态不变性不适用于SAR图像,原因是SAR图像具有独特的成像机制,由于采用斜距投影的成像几何方式,会产生叠掩、透视收缩等几何畸变,导致目标特征具有姿态敏感性。
模态不变性不适用于SAR图像,原因可能是SAR图像目标以离散的散射中心形式存在,与光学图像目标以闭合连续轮廓形式存在具有较大差异,从而导致人类视觉系统无法将观察的SAR图像目标与光学世界中习得的知识概念进行匹配。这一发现对于SAR图像相关模型的预训练具有一定的指导价值。由于SAR图像与光学图像在知识概念上存在差异,因此在模型预训练时应首选SAR图像作为预训练数据集,而非光学图像数据。尽管一些情况下基于后者(如ImageNet)的预训练模型凭借更多的预训练数据和所消耗的更多计算成本也能够克服两种模态之间知识概念的差异,取得较好的性能表现。
尺度不变性较为特殊。从直接观察的角度,人对SAR图像的观察一定程度上不会受到图像缩放的影响,即对SAR图像的直接观察具有尺度不变性。然而在一些SAR图像解译任务中,如细粒度目标识别任务等,尽管同种目标在不同数据源的图像中可能表现为不同尺度,但由于遥感图像通常具有空间分辨率的概念,SAR图像作为一类典型的微波遥感数据,也能够通过空间分辨率这一确定参数直接将目标的图像尺度与其实际尺寸进行对应,具有实际物理意义。因此在空间分辨率参数确定的情况下,不需要过分考虑不同分辨率图像中存在同类别目标尺度不同的问题,尺度不变性对于SAR图像解译任务来说并不具有显著意义。
因此,基于格式塔理论对SAR图像感知不变律的分析结果表明,姿态不变性、模态不变性、尺度不变性等格式塔相关的感知不变律均不适用于SAR图像的算法设计中。
3. 格式塔感知组合律对SAR图像的有效性
3.1 研究方法
3.1.1 原理
实验2主要参考Elder等人[25]对光学自然图像中用于轮廓感知分组的格式塔原则进行定量的生态统计方法,针对SAR遥感图像、光学遥感图像、光学自然图像的不同属性,分别建立对应的贝叶斯模型,并通过比较模型之间的异同分析实验结果。
Elder等人[25]认为光学自然图像中的轮廓分组任务可以视为对局部线段的整合,因而将局部线段对的“距离”“平行关系与共圆关系”“对比度与平均亮度”等属性与“临近性”“连续性”“亮度相似性”等格式塔原则对应,具体建模流程如图7所示。首先,分别获取每种属性在“图片中所有局部线段对”中的随机轮廓先验概率分布以及在“目标轮廓线段对”中的目标轮廓先验概率分布,再根据贝叶斯公式获得“局部线段属于同一目标轮廓”的目标后验概率分布,即为对应格式塔原则的统计结果。
该任务的具体描述如下:当前已知整个图像中的所有局部线段以及线段的属性特征,包括线段的位置、亮度、斜率等,最终需要依据上述属性对局部线段进行分组(分类),每个组别(类别)对应一个目标。
具体待分析变量即局部线段对的属性特征如图8所示。其中,
ti ,tj 为待分组的两条局部线段,rij 为两条局部线段的最短距离,lj1 ,lj2 以及li1 ,li2 分别代表两条局部线段的两侧亮度,→θij ,←θji 分别为两条局部线段之间的夹角。分组的具体方式为随机选取两个待分组局部线段,并根据各自的属性特征判断二者是否属于同一类别。最终得到的是一组后验概率分布,用于评估具有不同属性特征的两条局部线段属于同一个目标轮廓的概率。在获得该后验概率分布的过程中,需要首先从样本中获得全部局部线段的随机概率分布,以及所有属于同一个目标局部线段的先验概率分布,最终根据贝叶斯公式完成计算获得后验概率分布。
建模过程中所涉及的符号及其含义如表9所示。整个建模流程具体可用式(2)—式(8)表示。
表 9 建模过程所涉及的数学符号及其含义Table 9. The mathematical symbols involved in the modeling process and their meanings符号 含义 ti 局部线段i C 目标C {ti,tj} 局部线段对{i,j} dkij 局部线段对{i,j}第k个属性上的表现 dij 局部线段对{i,j}所有属性整体表现 {ti,tj}∈C 局部线段对{i,j}属于同一个目标C {ti,tj}∉C 局部线段对{i,j}不属于同一个目标C 首先将被试勾勒的目标轮廓作为真值,计算属于同一个目标的局部线段对所具有的属性特征的先验概率分布:
p(dij|{ti,tj}∈C)=Num(dij,{ti,tj}∈C)Num({ti,tj}∈C) (2) 其中,
p(dij|{ti,tj}∈C)=∏mk=1p(dkij|{ti,tj}∈C) (3) 接着采用Canny边缘提取与Hough变换相结合的方式提取图片中的所有局部线段,并从中随机采样局部线段对。由于图片中被试勾勒的线段数量远小于所有的局部线段数量,因此采样所得的局部线段对可以近似看作不属于同一个目标的局部线条对的概率分布。计算该部分概率分布:
p(dij|{ti,tj}∉C)=Num(dij,{ti,tj}∉C)Num({ti,tj}∉C) (4) 其中,
p(dij|{ti,tj}∉C)=∏mk=1p(dkij|{ti,tj}∉C) (5) 最后根据贝叶斯公式,计算出“根据局部线条对的属性特征判断二者是否属于同一目标轮廓”的后验概率分布:
p({ti,tj}∈C|dij)=11+(L⋅P)−1 (6) 其中,
L=p(dij|{ti,tj}∈C)p(dij|{ti,tj}∉C) (7) P=p({ti,tj}∈C)p({ti,tj}∉C) (8) Elder等人[25]利用此方法讨论了光学自然图像中的“临近性”、“连续性”和“亮度相似性”等格式塔原则,并将连续性具体拆分成“平行性”与“共圆性”,将亮度相似性拆分成“平均亮度相似性”与“对比度相似性”,最终构建了轮廓感知分组任务中用于描述格式塔原则的贝叶斯模型。
3.1.2 被试
与第2节中格式塔感知不变律实验选取被试一致,详细见2.1.2节。
3.1.3 材料
直接选取2.2节中画图题B组的结果作为研究对象,同时额外增加对光学飞机遥感切片图以及一般光学图像的目标轮廓绘制结果的分析作为对照,具体情况如表10所示。
表 10 建模分析过程中各实验组基本信息Table 10. Information of different treatment groups in modeling analysis类别 图片数量 人数 SAR遥感图像(被试) 3 48 SAR遥感图像(专家) 3 1 光学遥感图像 3 3 一般光学图像 1 3 其中SAR遥感图像(被试)指实验被试在画图题中的预测,排除无效样本后共计48人;SAR遥感图像(专家)为识图专家提供的目标轮廓真值。此外,参考文献[25]的做法,假设正常人对于同一光学图像具有较统一的理解,因此对于自然光学图像的分析只对3名被试进行额外的目标轮廓绘制实验。
3.1.4 假设
假设1:被试对于各类模态图像的观察结果都会表现出同一分布类型的统计曲线。
假设2:对于自然光学图像的观察结果峰度最高、区分效果最明显,优于对光学遥感图像,更优于对SAR遥感图像。
3.1.5 数据分析
对于临近性的研究,需要分析两个局部线段之间最近距离与二者属于同一个目标轮廓的概率。参考文献[25]的做法,待分析变量为图8中的
rij ,具体的概率分布如图9所示。其中,“随机先验概率分布”代表从图片中所有局部线段随机采样获得的局部线段对所对应的先验概率分布,参考文献[25]的设定假设局部线段均匀分布在图像中,分布之间存在的差异是由于实验材料尺寸不同所引起的,不会影响到最终结论;“目标先验概率分布”代表属于被试在图片中所勾勒的同一个目标轮廓中的局部线段对所对应的先验概率分布,参考文献[25]的结论应服从幂律分布,对应公式表达如式(10)所示;“后验概率分布”代表具有对应属性的局部线段对属于一个目标轮廓的后验概率分布。图9中虚线为实测数据的统计结果,实线为对应统计数据的拟合结果。p(x)=ax−b (9) 其中,
x∈[x0,∞),a=(b−1)xb−10,x0>0,b>1 (10) 结果表明,SAR图像上的目标先验概率分布服从幂律分布,进一步说明SAR图像的尺度不变性。但与普通光学图像相比曲线转折点横坐标更大,可能是因为飞机切片图中目标在图像中的占比较大。
对于连续性的研究,具体拆分为“平行性”与“共圆性”的研究,综合分析两个局部线段之间斜率关系与二者属于同一个目标轮廓的概率。参考文献[25]的做法,结合图示变量,待分析变量分别为平行属性(Parallel),及共圆属性(Cocircular),二者具体数学表达如图10所示。根据文献[25]的结论,以上两种属性所对应的随机先验概率分布是关于x=0对称、取值范围为–360°~360°的三角分布,目标先验概率分布用广义拉普拉斯分布进行拟合:
p(x)=Ae−(c|x|/σ)γ (11) 其中,
c=√Γ(3/γ)Γ(1/γ) (12) A=cγ2σΓ(1/γ) (13) 对于亮度相似性的研究,具体拆分为对“平均亮度相似性”与“对比度相似性”的研究,综合分析两个局部线段之间的亮度差异与二者属于同一目标轮廓的概率。参考文献[25]做法,待分析变量分别定义为平均亮度属性
bij 和对比度属性cij ,具体表示如下:bij=ˉlj−ˉli=(lj1+lj2−li1−li2)2 (14) cij=Δlj−Δli=|lj1−lj2|−|li1−li2| (15) 参考相关实验,连续性、亮度相似性所对应的随机先验概率分布、目标先验概率分布均用广义拉普拉斯分布进行拟合[25]。
3.2 实验结果
利用贝叶斯模型描述以上3种格式塔原则的统计结果如图11所示。图11中虚线为实测数据的统计结果,实线为对应统计数据的拟合结果,拟合分布的具体类型参考文献[25]设定已在3.1节中进行了说明。
结果表明,基于SAR图像观察结果的统计结果与基于光学图像观察结果的统计结果具有相同类型的概率分布,说明人在观察SAR图像时会利用过往的光学视觉经验,同样会遵循格式塔感知组合律。从后验概率分布的均值和方差两方面进行分析,普通光学图像的分布曲线呈现出均值更高、方差更大的特点。均值更高反映了人视觉系统依据格式塔线索分析光学图像内容时会更多地将局部线段组织成一个整体,相反分析SAR图像时由于格式塔组织线索置信度不充分往往不会将局部线段判断为目标整体。方差更大说明人在观察光学图像时对相应的格式塔组织线索更加敏感,相关变量的波动会显著影响识别结果,因此人能够较好地区分出具有不同属性强度的局部线段,相反对于SAR图像而言即使目标对应的格式塔组织线索发生变化也不会明显影响识别结果。因此,依据上述格式塔感知组合规律设计算法更适合应用在光学图像上而不适合应用于对SAR图像的分析,进一步说明了直接利用格式塔感知组合律设计SAR图像解译算法不具备可行性。
3.3 讨论
临近性原则会影响到人对SAR图像的直接观察,但在SAR图像分析算法的设计中效果不佳。原因可能是SAR图像存在严重的相干波斑点噪声,在不进行精准去噪等额外操作的前提下,依据临近性原则无法有效区分斑点噪声与目标离散的散射中心,导致目标与背景难以依据距离关系有效区分。
连续性原则也会影响到人对SAR图像的直接观察,同样在SAR图像分析算法的设计中效果不佳。原因可能是SAR图像成像机制导致目标以离散的散射中心形式存在,而非光学图像中以连续闭合轮廓的形式存在。
亮度相似性原则也会影响到人对SAR图像的直接观察,同样在SAR图像分析算法的设计中效果不佳。原因可能是一方面SAR图像中目标散射中心离散且面积占比小,目标非散射中心部分亮度并不突出,另一方面背景中的相干斑噪声亮度同样较强与目标非散射中心区域亮度相近,加之SAR图像仅记录单一波段的回波信息,单通道灰度图的形式本身亮度区间范围就比较有限,这就导致从亮度上难以将目标元素与背景噪声进行有效区分。
因此,虽然人在观察SAR图像时遵循相应的格式塔感知组合律,但由于人类视觉系统表现出的视觉规律与光学图像特点相契合,而微波图像与光学图像模态差距大导致二者具有完全不同的视觉特点,因此人无法依据光学视觉规律有效组织并识别微波图像内容。同样地,基于格式塔感知组合律设计的图像解译算法更符合光学图像特点而不适用于SAR图像特点,因此格式塔感知组合律不适用于直接应用到SAR图像解译算法的设计中。
4. 结语
本文围绕格式塔感知规律,设计并实现了SAR图像的格式塔认知实验,综合多种策略分析实验结果,探究了格式塔感知规律中感知组合律与感知不变律在SAR图像中的有效性。
实验结果表明,格式塔感知规律不适用于SAR图像理解即微波视觉,这是因为人类视觉系统所具备格式塔感知规律来源于人类光学视觉经验,这与SAR图像特性有很大差异,这也从认知角度解释了人眼难以看懂SAR图像的原因。
格式塔感知规律其本质是自然进化的光学视觉对光学图像所呈现的特性归纳出来的先验规律。SAR图像与光学图像在成像机理和图像特性等方面有较大差异,因此需要归纳新的微波视觉先验规律或者将格式塔感知规律迁移至微波域。本文给出的实验提供了一种重新归纳微波视觉先验规律的思路,从实验结果中我们可以初步看出格式塔感知规律不适用于微波视觉的一个重要原因在于光学图像目标具有轮廓连续闭合的先验假设,与SAR图像目标由多个离散亮斑组成的存在形式不相符。将SAR图像中的散射簇作为视觉感知的基本元素可能会成为未来归纳微波视觉感知规律的重要突破点。
本文实验结果也说明了SAR图像智能解译研究不能简单套用光学视觉方法,需发展面向适用于微波成像数据、融合电磁散射机制的微波视觉认知理论。本文研究仍存在一定局限性,仅探究了部分格式塔感知规律不适用于某些目标场景SAR图像解译,而探究完整的微波视觉先验感知规律需进一步开展更多体系化的研究。
-
表 1 实验1题目设计及要求
Table 1. Question design and requirements in experiment 1
题型 序号 要求 画图题 A1—A3 不告知图像内容,拖动鼠标勾勒出目标轮廓 B1—B3 告知图像内容,拖动鼠标勾勒出目标轮廓 选择题 C1—C7 判断两张飞机切片图是否为相同机型飞机 D1—D8 选择与题干图片相同机型的飞机切片图 表 2 画图题被试人数
Table 2. Numbers of participants in the drawing questions
组别 人数 对照组 12 背景亮度增强组 12 背景连续性增强组 12 主体亮度增强组 11 主体连续性增强组 11 表 3 画图题有效样本数量
Table 3. Numbers of valid samples in drawing questions
组别 有效样本数 B-1B B-52 C-130 对照组 12 12 12 背景亮度增强组 11 11 11 背景连续性增强组 11 12 11 主体亮度增强组 9 11 8 主体连续性增强组 9 9 11 表 4 选择题被试人数
Table 4. Numbers of participants in the choosing questions
组别 人数 小尺度组 20 正常尺度组 19 大尺度组 19 表 5 实验1中D组选择题中各组别题干条件的设定细节
Table 5. Setting details of each stem condition in the choosing questions of experiment 1 group D
题干序号 题干条件 B-1B B-52 1 SAR×1 SAR×1 2 光学×1 光学×1 3 光学×1+SAR×1 光学×2 4 光学×1+SAR×2 光学×2+SAR×1 表 6 C组选择题答题结果
Table 6. Results of choosing questions of group C
组别 正确率 C1 C2 C3 C4 C5 C6 C7 平均 小尺度组 0.550 0.350 0.900 0.900 0.700 0.950 0.600 0.707 正常尺度组 0.578 0.317 0.744 0.894 0.728 0.944 0.739 0.706 大尺度组 0.540 0.295 0.801 0.909 0.676 1.000 0.830 0.722 平均 0.556 0.321 0.815 0.901 0.701 0.965 0.723 0.712 表 7 D组选择题答题结果
Table 7. Results of choosing questions of group D
组别 正确率 D1 D2 D3 D4 D5 D6 D7 D8 平均 小尺度组 0.625 0.800 0.750 0.600 0.450 0.500 0.500 0.750 0.622 正常尺度组 0.598 0.739 0.744 0.578 0.522 0.522 0.528 0.875 0.638 大尺度组 0.625 0.659 0.830 0.659 0.676 0.648 0.335 0.688 0.640 平均 0.616 0.733 0.775 0.612 0.549 0.557 0.454 0.771 0.633 表 8 不同题干条件下D组选择题答题结果
Table 8. Results of choosing questions of group D under different stem conditions
题干序号 正确率 D1 D2 D3 D4 D1—D4平均 D5 D6 D7 D8 D5—D8平均 1 1.000 0.250 0.633 0.733 0.654 0.306 0.292 0.367 0.917 0.471 2 0.167 0.798 1.000 0.708 0.668 0.706 0.750 0.393 0.833 0.671 3 0.817 0.875 0.487 0.741 0.730 0.792 0.357 0.521 0.417 0.522 4 0.333 0.854 1.000 0.370 0.639 0.369 0.688 0.500 0.889 0.611 平均 0.579 0.694 0.780 0.638 0.673 0.543 0.522 0.445 0.764 0.569 表 9 建模过程所涉及的数学符号及其含义
Table 9. The mathematical symbols involved in the modeling process and their meanings
符号 含义 ti 局部线段i C 目标C {ti,tj} 局部线段对{i,j} dkij 局部线段对{i,j}第k个属性上的表现 dij 局部线段对{i,j}所有属性整体表现 {ti,tj}∈C 局部线段对{i,j}属于同一个目标C {ti,tj}∉C 局部线段对{i,j}不属于同一个目标C 表 10 建模分析过程中各实验组基本信息
Table 10. Information of different treatment groups in modeling analysis
类别 图片数量 人数 SAR遥感图像(被试) 3 48 SAR遥感图像(专家) 3 1 光学遥感图像 3 3 一般光学图像 1 3 -
[1] 魏钟铨. 合成孔径雷达卫星[M]. 北京: 科学出版社, 2001.WEI Zhongquan. Synthetic Aperture Radar Satellite[M]. Beijing: Science Press, 2001. [2] 保铮, 邢孟道, 王彤. 雷达成像技术[M]. 北京: 电子工业出版社, 2005.BAO Zheng, XING Mengdao, and WANG Tong. Radar Imaging Technology[M]. Beijing: Publishing House of Electronics Industry, 2005. [3] 王磊. 深度学习框架下的极化SAR影像信息表达与分类研究[D]. [博士论文], 武汉大学, 2020.WANG Lei. Polarimetric SAR image information representation and classification based on deep learning[D]. [Ph.D. dissertation], Wuhan University, 2020. [4] 徐丰, 金亚秋. 从物理智能到微波视觉[J]. 科技导报, 2018, 36(10): 30–44. doi: 10.3981/j.issn.1000-7857.2018.10.004.XU Feng and JIN Yaqiu. From the emergence of intelligent science to the research of microwave vision[J]. Science & Technology Review, 2018, 36(10): 30–44. doi: 10.3981/j.issn.1000-7857.2018.10.004. [5] 金亚秋. 多模式遥感智能信息与目标识别: 微波视觉的物理智能[J]. 雷达学报, 2019, 8(6): 710–716. doi: 10.12000/JR19083.JIN Yaqiu. Multimode remote sensing intelligent information and target recognition: Physical intelligence of microwave vision[J]. Journal of Radars, 2019, 8(6): 710–716. doi: 10.12000/JR19083. [6] 丁赤飚, 仇晓兰, 徐丰等. 合成孔径雷达三维成像—从层析、阵列到微波视觉[J]. 雷达学报, 2019, 8(6): 693–709. doi: 10.12000/JR19090.DING Chibiao, QIU Xiaolan, XU Feng, et al. Synthetic aperture radar three-dimensional imaging—from TomoSAR and array InSAR to microwave vision[J]. Journal of Radars, 2019, 8(6): 693–709. doi: 10.12000/JR19090. [7] 金亚秋, 徐丰. 面向未来空间电磁信息技术的综合分析[J]. 中国科学基金, 2021, 35(5): 688–693. doi: 10.16262/j.cnki.1000-8217.2021.05.003.JIN Yaqiu and XU Feng. General analysis for future spatial electromagnetic information technologies[J]. Bulletin of National Natural Science Foundation of China, 2021, 35(5): 688–693. doi: 10.16262/j.cnki.1000-8217.2021.05.003. [8] CHEN Sizhe, WANG Haipeng, XU Feng, et al. Target classification using the deep convolutional networks for SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4806–4817. doi: 10.1109/TGRS.2016.2551720. [9] 仇晓兰, 焦泽坤, 杨振礼, 等. 微波视觉三维SAR关键技术及实验系统初步进展[J]. 雷达学报, 2022, 11(1): 1–19. doi: 10.12000/JR22027.QIU Xiaolan, JIAO Zekun, YANG Zhenli, et al. Key technology and preliminary progress of microwave vision 3D SAR experimental system[J]. Journal of Radars, 2022, 11(1): 1–19. doi: 10.12000/JR22027. [10] COLE S and BALCETIS E. Motivated perception for self-regulation: How visual experience serves and is served by goals[J]. Advances in Experimental Social Psychology, 2021, 64: 129–186. doi: 10.1016/bs.aesp.2021.04.003. [11] 乐国安, 韩振华. 认知心理学[M]. 天津: 南开大学出版社, 2011: 36–37.LE Guoan and HAN Zhenhua. Cognitive Psychology[M]. Tianjin: Nankai University Press, 2011: 36–37. [12] WAGEMANS J, ELDER J H, KUBOVY M, et al. A century of Gestalt psychology in visual perception: I. Perceptual grouping and figure–ground organization[J]. Psychological Bulletin, 2012, 138(6): 1172–1217. doi: 10.1037/a0029333. [13] WAGEMANS J, FELDMAN J, GEPSHTEIN S, et al. A century of Gestalt psychology in visual perception: II. Conceptual and theoretical foundations[J]. Psychological Bulletin, 2012, 138(6): 1218–1252. doi: 10.1037/a0029334. [14] STERNBERG R J. Cognitive Psychology[M]. Fort Worth, USA: Harcourt Brace College Publishers, 1996. [15] MARR D. Vision: A Computational Investigation into the Human Representation and Processing of Visual Information[M]. Cambridge, USA: MIT Press, 2010. [16] CHANG D, NESBITT K V, and WILKINS K. The Gestalt principles of similarity and proximity apply to both the haptic and visual grouping of elements[C]. The Eight Australasian Conference on User Interface, Ballarat, Australia, 2007: 79–86. [17] WERTHEIMER M. Untersuchungen zur Lehre von der Gestalt[J]. Gestalt Theory, 2017, 39(1): 79–89. doi: 10.1515/gth-2017-0007. [18] ELLIS W D. A Source Book of Gestalt Psychology[M]. London, UK: Kegan Paul, Trench, Trubner & Company, 1938: 71–88. [19] KOFFKA K. Principles of Gestalt Psychology[M]. New York: Harcourt, Brace, 1935. [20] ATTNEAVE F. Some informational aspects of visual perception[J]. Psychological Review, 1954, 61(3): 183–193. doi: 10.1037/H0054663. [21] SIGMAN M, CECCHI G A, GILBERT C D, et al. On a common circle: Natural scenes and Gestalt rules[J]. Proceedings of the National Academy of Sciences, 2001, 98(4): 1935–1940. doi: 10.1073/pnas.98.4.1935. [22] BLAIS C, ARGUIN M, and MARLEAU I. Orientation invariance in visual shape perception[J]. Journal of Vision, 2009, 9(2): 14. doi: 10.1167/9.2.14. [23] BUCCELLA A. The problem of perceptual invariance[J]. Synthese, 2021, 199(5/6): 13883–13905. doi: 10.1007/s11229-021-03402-2. [24] MAN K, KAPLAN J T, DAMASIO A, et al. Sight and sound converge to form modality-invariant representations in temporoparietal cortex[J]. The Journal of Neuroscience, 2012, 32(47): 16629–16636. doi: 10.1523/JNEUROSCI.2342-12.2012. [25] ELDER J H and GOLDBERG R M. Ecological statistics of Gestalt laws for the perceptual organization of contours[J]. Journal of Vision, 2002, 2(4): 5. doi: 10.1167/2.4.5. [26] DESOLNEUX A, MOISAN L, and MOREL J M. Gestalt Theory and Computer Vision[M]. CARSETTI A. Seeing, Thinking and Knowing. Dordrecht: Springer, 2004: 71–101. doi: 10.1007/1-4020-2081-3_4. [27] QI Yonggang, SONG Yizhe, XIANG Tao, et al. Making better use of edges via perceptual grouping[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1856–1865. doi: 10.1109/CVPR.2015.7298795. [28] YAN Yijun, REN Jinchang, SUN Genyun, et al. Unsupervised image saliency detection with Gestalt-laws guided optimization and visual attention based refinement[J]. Pattern Recognition, 2018, 79: 65–78. doi: 10.1016/J.PATCOG.2018.02.004. [29] FANG Yuming, ZHANG Xiaoqiang, YUAN Feiniu, et al. Video saliency detection by gestalt theory[J]. Pattern Recognition, 2019, 96: 106987. doi: 10.1016/J.PATCOG.2019.106987. [30] ZHU Shanshan and YUNG N H C. Sub-scene segmentation using constraints based on Gestalt principles[J]. Journal of Visual Communication and Image Representation, 2014, 25(5): 994–1005. doi: 10.1016/j.jvcir.2014.02.017. [31] YU Hang, ZHANG Xiangrong, WANG Shuang, et al. Context-based hierarchical unequal merging for SAR image segmentation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(2): 995–1009. doi: 10.1109/TGRS.2012.2203604. [32] SOERGEL U, MICHAELSEN E, THIELE A, et al. Stereo analysis of high-resolution SAR images for building height estimation in cases of orthogonal aspect directions[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2009, 64(5): 490–500. doi: 10.1016/J.ISPRSJPRS.2008.10.007. [33] MICHAELSEN E, SOERGEL U, and THOENNESSEN U. Perceptual grouping for automatic detection of man-made structures in high-resolution SAR data[J]. Pattern Recognition Letters, 2006, 27(4): 218–225. doi: 10.1016/j.patrec.2005.08.002. [34] MICHAELSEN E, STILLA U, SOERGEL U, et al. Extraction of building polygons from SAR images: Grouping and decision-level in the GESTALT system[J]. Pattern Recognition Letters, 2010, 31(10): 1071–1076. doi: 10.1016/j.patrec.2009.10.004. [35] FAUL F, ERDFELDER E, BUCHNER A, et al. Statistical power analyses using G*Power 3.1: Tests for correlation and regression analyses[J]. Behavior Research Methods, 2009, 41(4): 1149–1160. doi: 10.3758/BRM.41.4.1149. [36] PALMER S E and BROOKS J L. Edge-region grouping in figure-ground organization and depth perception[J]. Journal of Experimental Psychology : Human Perception and Performance , 2008, 34(6): 1353–1371. doi: 10.1037/a0012729. [37] SAWYER S F. Analysis of variance: The fundamental concepts[J]. Journal of Manual & Manipulative Therapy, 2009, 17(2): 27E–38E. doi: 10.1179/jmt.2009.17.2.27E. [38] DRIVER J and BAYLIS G C. Edge-assignment and figure-ground segmentation in short-term visual matching[J]. Cognitive Psychology, 1996, 31(3): 248–306. doi: 10.1006/cogp.1996.0018. -