(不断更新)关于显著性检测的调研-Salient Object Detection: A Survey

《Salient Object Detection: A Survey》作者:Ali Borji、Ming-Ming Cheng、Huaizu Jiang and Jia Li

基本按照文章中文献出现的顺序。

一、L. Itti, C. Koch, and E. Niebur, “A model of saliency-based visual attention for rapid scene analysis,” IEEE TPAMI, 1998.

一个用于快速场景分析的基于显著性的视觉注意模型【1】。目前(2018-07-06),这篇short paper被引量9000+,有点吓人O(∩_∩)O哈哈~

这是一个早期的显著性检测模型,它首次通过认知心理学(psychology)、神经科学、计算机视觉等多学科,掀起了第一波浪潮。这个模型是一个基于中心包围(center-surrounded)机制的自底向上的通用计算框架和心理学方法的较早期的实现。这篇文章展示了一个可以检测场景中空间不连续性的检测模型。

论文的提出主要是受到灵长类动物早期视觉系统的神经结构和行为所启发而产生了视觉注意系统。灵长类动物具有很强的实时处理复杂场景的能力,视觉信息进行深入的处理之前,对所收集到的感觉信息进行选择,这些选择可能减少场景理解的复杂性,这个选择过程在一个空间有限的视野区域即所谓的注意焦点(focus of attention, FOA)中完成,它搜索场景的方式可以是快速、自下而上(bottom-up,BU)、显著驱动和任务独立的方式,也可以是慢速、自上而下(top-down,TD)、意志控制和任务相关的方式。注意模型包括“动态路由”模型,在此模型中,通过皮层视觉继承,从一个小的视野区域中得到的信息可以不断前行。通过皮层连接的动态修正或在TD和BU的控制下对活跃区建立特定的瞬时模式,来选择注意区域。

这篇文章所使用的模型建立在由Koch和Ullman所提出的生物模型和其他几个模型。它和所谓的特征整合模型相关,解释了人类视觉搜索策略。视觉输入首先被分为一系列特征地形图。然后在每个图中,不同的空间位置通过竞争获取显著性,只有从周围脱颖而出的位置才能保留。所有的特征图以纯粹的BU方式输入到高级的显著性图,它对整个视觉场景的局部醒目度进行地形编码。在灵长类动物中,人们相信这种图存在于后顶叶皮层(posterior parietal cortex)中,同时也存在于枕核丘脑(pulvinar nuclei ofthalamus)中。模型的显著性图被认为是产生注意转移的内部动力。因此这个模型表示了BU显著性可以引导注意转移,不需要TD。这个模型可以进行并行处理,提高运算速度,而且可以根据特征的重要性,为特征加上权值,特征越重要,权值越大。

上图为整个模型的结构图,首先输入一张彩色图片,采用高斯金字塔对该图片进行下采样,生成9张尺度图,其中尺度0表示该尺度图像与原图像的像素面积比例是1:1,尺度8表示该尺度图像与源图像面积为1:256。“Center-surround” difference operations,即中央周边差操作,是根据人眼生理结构设计的。人眼感受野对于视觉信息输入中反差大的特征反应强烈,例如中央亮周边暗的情况、中央是绿色周边是红色的情况等,这都属于反差较大的视觉信息。在高斯金字塔中,尺度较大的图像细节信息较多,而尺度较小的图像由于高斯平滑和减抽样操作使得其更能反映出局部的图像背景信息,因而将尺度较大的图像和尺度较小的图像进行跨尺度减操作(across-scale),能得到局部中心和周边背景信息的反差信息。跨尺度减的具体算法如下:通过将代表周边背景信息的较小尺度的图像进行线性插值,使之与代表中心信息的较大尺度的图像具有相同大小,然后进行点对点的减操作,即中央周边差操作,这样的跨尺度减操作使用符号Θ表示。对每个特征通道的高斯金字塔进行中央周边差操作,依次检测图像中的特征不联系性,即中心和周边背景信息反差对比强烈的区域,很好地模仿了视网膜上探测突出目标的生理机制。在模型中,代表中心信息的图像尺度c取c∈{2,3,4},代表周边背景信息的图像尺度s取s=c+δ,其中δ∈{3,4},从而在每个特征通道里可以产生6个尺度对,即{2-5,2-6,3-6,3-7,4-7,4-8},在每个特征通道可以产生6张中央周边差结果图,所以7个通道共有42张中央周边差图,中央周边差结果图在该模型中被称为特征图(Feature Map)。

早期视觉特征提取

①、亮度提取,用r,g,b分别表示图像红、绿、蓝三个通道的值,因此亮度I可以表示为I=(r+g+b)/3,由于输入图片是9个尺度的高斯金字塔图片,所以I也对应于9个尺度高斯金子塔亮度图。

②、颜色提取,r,g,b通道采用I进行归一化以从亮度中解耦色调。产生了四个宽调谐(broadly-tuned)的颜色通道,从这些颜色通道中产生四个高斯金字塔R,G,B,Y。

R=r-(g+b)/2,G=g-(r+b)/2,B=b-(r+g)/2,Y=(r+g)/2-|r-g|/2-b,如果为负数则设为0。

③、方向特征,方向特征主要是使用Gabor滤波器对图像的亮度特征在0°,45°,90°,135°四个主要方向上进行滤波得到的。因此,Gabor滤波器可以很好地模拟人类视皮层简单细胞的信号处理特点,其结果直接体现了图像局部方向特征的信息。在Gabor滤波器某个方向的滤波结果中,给定区域的能量可以反映该区域灰度图在该方向的特征是否强烈,即反映了区域内的该方向的直线或者规则纹理的朝向特征是否明显。因此方向特征的提取可以直接使用几个方向的Gabor滤波器进行滤波获得。

第一组特征图集:中心细尺度c和周围粗尺度s之间的中心围绕差值产生特征图。模拟灵长类动物的中心围绕机制,所有类型的敏感性是在六个I(c,s)图(六尺度)中同时计算的:

I(c,s)=|I(c)ΘI(s)| c∈(2,3,4),s=s+δ,δ∈(3,4)

第二组特征图集:模拟皮层中的“颜色双竞争” 系统表示:在接受野中心,神经元被一种颜色激活而禁止另外一种颜色,而在周围区域则是相反的。在主视觉皮层中,红/绿,绿/红,蓝/黄,黄/蓝颜色对都存在这种空间和色彩竞争关系。因此,产生RG(c,s)和BY(c,s)特征图来反映双竞争关系。

RG(c,s)=|(R(c)-G(c))Θ(G(s)-R(s))|

BY(c,s)=|(B(c)-Y(c))Θ(Y(s)-B(s))|

第三组特征图集:采用方向Gabor金字塔得到局部方向信息,采用4角度和6尺度来表示角度和方向。最后得到方向特征图:O(c,s,θ)=|O(c,θ)ΘO(s,θ)|

总体来说,计算出来了42个特征图:6个亮度图,12个颜色图和24个方向图。

显著性图

显著性图的目的是通过显著性的空间分布来表示醒目度(conspicuity-saliency)或显著度:在视野中每个位置用一个定量向量表示,引导注意位置的选择。通过一个动态神经网络模型,特征图的组合可以向显著性图提供BU输入。对不同的的特征图表示了不可比较的模态的先验信息,有不同的动态范围和提取机制。42个特征图结合时,在一些特征图中表现非常强的显著目标可能被其它更多的特征图的噪声或不显著的目标所掩盖。在缺少TD监督的情况下,采用一个归一化操作算子N(.),整体提升那些有部分强刺激峰值(醒目位置)的特征图,而整体抑制那些包含大量可比峰值响应。

归一化计算方法:

①、将所有图的取值固定为[0,M],消除依赖于模态的幅值差异;

②、计算图中最大值M和其他所有局部极值的平均值m;

③、整幅图像乘以(M-m)* (M-m)。

归一化算子模拟了皮层旁侧禁止机制:通过特定的生理连接,邻域中相似的特征互相禁止。通过跨尺度相加,特征图被结合成3个醒目度图(conspicuity maps),I表示灰度,C表示颜色,O表示方向,三个醒目性图经过归一化后,求和,作为显著性图的最终输入S。任何时候,显著性图(SM)的最大值定义了最显著的图像位置,为注意焦点(FOA)定向。

总结

模型对噪声的鲁棒性很好,特别是如果噪声的特性(如颜色)不直接坏目标的主要特征的时候。该模型能复制人的处理大量弹出任务能力。当目标以它自己的独特方向,颜色,亮度或尺寸和大量的周围干扰物不同时,不管干扰物的数量如何,目标总是第一个被注意的。

优缺点:

①、本模型能以良好的性能处理复杂自然场景。验证了灵长类动物从早期视觉处理输入所得到的独特显著性图能引导BU的注意的观点。

②、这种方法能进行大规模并行实现,不仅是早期特征提取阶段的大量运算,而且对注意聚焦系统也可以。

③、只有物体特征在至少一个特征图中显性表示才能产生弹出效应,即快速检测独立于干扰物的数量。

④、如果不对预注意特征提取过程进行修改,此模型不能检测联合特征。尽管当目标以它自己的独特方向,颜色,亮度或尺寸和周围干扰物不同时,目标能被迅速检测到,它不能检测未实现的特征类型的目标显著性(如T型连接或线段终点,因为特定的神经元的存在还是有争议的)。

⑤、为了简单起见,也没有在特征图内实现任何循环机制,因此不能产生轮廓竞争和封闭现象,这些现象对某类人类弹出任务很重要。

⑥、模型没有包括大细胞运动通道。

⑦、归一化处理提供了在任何情况下计算显著性的通用机制。它比以前提出的迭代方法更快更简单。

总之,论文提出了一个简单的显著性驱动的视觉注意焦点计算模型。其基于生物学发现而构建的结构能复制灵长类动物视觉系统的许多特性。 该论文是图像显著性检测的基础,可以说是开山之作,对后续显著性论文的理解起到很大的作用。

感谢原文博主的解析,详见https://blog.csdn.net/chenjiazhou12/article/details/39456589

二、 接下来的计算研究开始用显著图来进行固定预测(fixation prediction)以及理解人类的视觉注意机制。

第二波浪潮来自于三篇文章【7】【8】【9】,也是《Salient Object Detection: A Survey》一文主要关注的。这三篇文章分别是:

T. Liu, J. Sun, N. Zheng, X. Tang, and H.-Y. Shum, “Learning to detect a salient object,” in CVPR, 2007, pp. 1–8.

T. Liu, Z. Yuan, J. Sun, J. Wang, N. Zheng, X. Tang, and H.-Y. Shum, “Learning to detect a salient object,” IEEE TPAMI, vol. 33, no. 2, pp. 353–367, 2011.

R. Achanta, F. Estrada, P. Wils, and S. Süsstrunk, “Salient region detection and segmentation,” in Comp. Vis. Sys., 2008.
它们将显著性检测问题定义为二进制分割问题。

原文地址:https://www.cnblogs.com/ariel-dreamland/p/9275642.html

时间: 2024-09-27 19:28:07

(不断更新)关于显著性检测的调研-Salient Object Detection: A Survey的相关文章

论文阅读:DHSNet: Deep Hierarchical Saliency Network for Salient Object Detection

因写作需要,再精读一下这篇文章,只说这篇文章提出的方法. 1.摘要部分: 本文提出了一种基于卷积神经网络的深层次显著性网络(deep hierarchical saliency network,DHSNet).该网络以下统一称作"DHSNet".工作流程大体是这样的: 1)首先,DHSNet通过自动学习各种全局结构上的显著性线索(这些线索包括全局对比度.对象性.紧凑性以及它们的优化组合),对输入的图片生成一个粗略的全局上的预测结果: 2)接着, 本文提出了一种分层递归卷积神经网络(hi

论文阅读:EGNet: Edge Guidance Network for Salient Object Detection

论文地址:http://openaccess.thecvf.com/content_ICCV_2019/papers/Zhao_EGNet_Edge_Guidance_Network_for_Salient_Object_Detection_ICCV_2019_paper.pdf 当前方法的问题 全卷积网络解决了像素标记问题,出现了几种用于显着物体检测的端到端深度架构. 输出显着性图的基本单位从图像区域开始变成每个像素. 一方面,由于每个像素都有其显着性值,结果突出显示了细节. 但是,它忽略了对

paper 27 :图像/视觉显著性检测技术发展情况梳理(Saliency Detection、Visual Attention)

1. 早期C. Koch与S. Ullman的研究工作. 他们提出了非常有影响力的生物启发模型. C. Koch and S. Ullman . Shifts in selective visual attention: Towards the underlying neural circuitry. Human Neurobiology, 4(4):219-227, 1985. C. Koch and T. Poggio. Predicting the Visual World: Silenc

Global Contrast based Salient Region Detection (Ming ming Cheng)

abstract: Automatic estimation of salient object regions across images, without any prior assumption or knowledge of the contents of the corresponding scenes, enhances many computer vision and computer graphics applications. We introduce a regional c

显著性检测:'Saliency Detection via Graph-Based Manifold Ranking'论文总结

对显著性检测的一些了解: 一般认为,良好的显著性检测模型应至少满足以下三个标准: 1)良好的检测:丢失实际显著区域的可能性以及将背景错误地标记为显著区域应该是低的: 2)高分辨率:显著图应该具有高分辨率或全分辨率以准确定位突出物体并保留原始图像信息: 3)计算效率:作为其他复杂过程的前端,这些模型应该快速检测显著区域. 最早在心里学和神经科学等多个学科上,就开始进行显著物体的检测.在计算机视觉领域,已经在人类关注机制的建模方面做出了努力,特别是自下而上的注意机制. 这种过程也称为视觉显著性检测.

显著性检测初步总结

目前相对传统的显著性检测方法主要分为两类: 一类是纯数据驱动独立于任务的自底而上的显著性检测方法(主要基于生物学原理),另一类是受意识支配依赖于任务的自顶而下的显著性检测方法(主要基于机器学习). 自顶而下的图像显著性检测方法 自顶而下的显著性模型一般包括特征学习和显著性计算两个部分. 由于人类自顶而下的选择注意由高层的脑部信息所控制,对于同一场景不同的人注意的结果不同,其动机.情感等因素比较难以控制和分析,因此构建自顶而下的显著性模型比较复杂,所以对于这类显著性模型的研究不是很多.   自底而

关于图像的显著性检测

   图像显著性检测-Saliency Detection via Graph-Based Manifold Ranking 显著性检测是很多计算机处理的预处理,有限的计算机资源来处理数以亿计的图片,不仅耗资巨大,而且往往时间复杂度高. 那么如果说将这些资源集中在图片的显著性区域,就往往可以取得更好的成果,最直接的就是可以摒弃掉一些背景信息,使得“重要部分”能够凸显出来.目前关于图像显著性检测的论文有好多种类. 其中本人正在研究的一篇是<Saliency Detection via Graph-

ACCV2004 Salient Region Detection 论文阅读

Salient Region Detection using Weighted Feature Maps based on the Human Visual Attention Model 主要是根据不同的feature maps的自身特点来计算这个map的权重. Itti等人提出了一个基于human visual attention 的模型,来检测一副图像里的显著区域,分为颜色对比.灰度.方向的特征来分别检测显著性,最后合成一幅显著性图.合成的方法有supervised learning, n

PaperNotes Instance-Level Salient Object Segmentation

title: PaperNotes Instance-Level Salient Object Segmentation comments: true date: 2017-12-20 13:53:11 description: updated: categories: tags: --- https://arxiv.org/pdf/1704.03604.pdf 摘要 现有的显著性检测算法被DL带了一波节奏,但是好像还没有说哪个方法能在显著性区域中找出object instance.本文就是做这