correlation filters in object tracking2

http://www.cnblogs.com/hanhuili/p/4281077.html

Correlation Filter in Visual Tracking系列二:Fast Visual Tracking via Dense Spatio-Temporal Context Learning 论文笔记

原文再续,书接一上回。话说上一次我们讲到了Correlation Filter类 tracker的老祖宗MOSSE,那么接下来就让我们看看如何对其进一步地优化改良。这次要谈的论文是我们国内Zhang Kaihua团队在ECCV 2014上发表的STC tracker:Fast Visual Tracking via Dense Spatio-Temporal Context Learning。相信做跟踪的人对他们团队应该是比较熟悉的了,如Compressive Tracking就是他们的杰作之一。今天要讲的这篇论文的Matlab源代码已经放出了,链接如下:

http://www4.comp.polyu.edu.hk/~cslzhang/STC/STC.htm

首先来看看他们的跟踪算法示意图:

看到更新方式,快速傅里叶变换什么的是不是很眼熟?没错,这篇论文其实与MOSSE方法基本是一致的,那么其创新点在哪了?笔者觉得,其创新点在于点,一是以密集时空环境上下文Dense Spatio-Temporal Context作为卖点;二是以概率论的方式包装了CF类方法;三是在模板更新的时候把尺度变换也考虑了进去。

那么什么是密集的时空上下文呢?其最朴素的思想可以用下面这个图来表达:在跟踪的过程中,由于目标外观变换以及遮挡等原因的影响,仅仅跟踪目标本身的话比较困难,但如果把目标周围区域也考虑进去(空间上下文),那么能够在一定程度降低跟踪失败的风险。以图中的例子来说,就是假如仅仅考虑目标本身(黄色框),那么在发生遮挡的时候,就难以实现跟踪,但是如果把周围的像素也考虑进去(红色框),那么就可以借助周围环境来确定目标所在。这是一帧的情况,假如考虑多帧情况的话,就对应产生了时空上下文。那么dense的说法从何而来?这一点我们后面再解释。

主要思想已经有了,下面我们来看如何用概率论进行理论支持。假设x∈R2x∈R2为某一位置,oo为需要跟踪的目标,首先定义如下的confident map用来衡量目标在xx出现的可能性:

然后定义Xc={c(z)=(I(z),z)|z∈Ωc(x★)}Xc={c?(z)=(I(z),z)|z∈Ωc(x★)} 为上下文特征集合,其中x★x★代表目标位置,Ωc(x★)Ωc(x★)表示在x★x★点处两倍于跟踪目标大小的邻域,I(z)I(z)为zz点的图像灰度值。这一公式的意思其实就是把x★x★作为中心点,取其周围两倍于目标框大小的图像作为特征,如上图的红色框。然后我们利用全概率公式,以上下文特征为中间量把(1)展开:

式(2)分为两项,左项P(x|c(z),o)P(x|c?(z),o)代表给定目标和其上下文特征,目标出现在xx点的概率,右项P(c(z)|o)P(c?(z)|o)则是某一上下文特征属于目标的概率,也就是目标的上下文概率先验了。右项的作用在于选择与目标外观相似的上下文,左项的作用在于在选择外观相似的同时也考虑出现在某一位置是否合理,避免跟踪过程中的漂移现象。

然后,因为在第一帧的时候,目标的位置是已知的,那么这时候就可以构造一个confident map,使其满足距离目标越近可能性越高的性质。作者定义confident map的具体值为如公式(3)所示:

其中b,α,βb,α,β都是经验常数。回想下上一篇我们讲的MOSSE方法,其实m(x)m(x)就是我们讲的响应输出,只不过MOSSE直接用一个高斯形状,而这里用的是如(3)式的定义。另外,之前谈到本篇论文标题中有一“dense”字样,体现在哪呢?就体现在这个地方,对于目标附近每一个点,都可以用(3)式对其概率值进行定义。传统的跟踪方法可能是随机采样或者隔段采样,而这里因为每一个点都进行了概率值的定义所以就是dense了。但其实目前所有的CF类方法都是dense sampling,而且这一个概念的明确提出应该是出现在后面会讲的CSK方法之中,只不过本篇作者将其改头换面成dense spatio temporal learning了。OK,闲话少说,接下来我们继续求解P(x|c(z),o)P(x|c?(z),o)和P(c(z)|o)P(c?(z)|o)。

先看P(c(z)|o)P(c?(z)|o),是目标的上下文先验,定义为如下所示:

其就是目标框附近的图像灰度值的高斯加权和(换成其它特征也可以,后面另有一篇论文会谈到)。然后P(c(z)|o)P(c?(z)|o)有了,m(x)m(x)有了,就可以带入(2)求解P(x|c(z),o)P(x|c?(z),o)了,套路还是跟MOSSE一样,首先将m(x)m(x)表示为P(x|c(z),o)P(x|c?(z),o)和P(c(z)|o)P(c?(z)|o)的卷积(互相关),通过FFT转到频率域变为点乘运算,运算完后逆变换回空间域,找响应最大值的地方作为目标位置。 具体就是,设P(x|c(z),o)=hsc(x−z)P(x|c?(z),o)=hsc(x−z),得

文中作者还强调了hsc(x−z)hsc(x−z)是目标的位置与其环境上下文之间相对距离和方向的衡量,并且不是对称函数。

另外,根据卷积f⊗gf⊗g的定义:

所以(5)式其实就是一卷积(xx就是tt或mm,zz就是ττ或nn),根据卷积定理:

与MOSSE不同的是,STC在训练模板、即计算hsc(x−z)hsc(x−z)时只需考虑第一帧。而在跟踪过程中,hsc(x−z)hsc(x−z)的更新方式如同MOSSE,这里不再叙述。另外论文中还给出了目标框大小更新的方法,其基本思路可以这样理解:看到公式(5)m(x)=∑z∈Ωc(x★)hsc(x−z)I(z)ωσ(z−x★)m(x)=∑z∈Ωc(x★)hsc(x−z)I(z)ωσ(z−x★) ,其中ωσ(z−x★)ωσ(z−x★)不就是高斯形状的权重嘛,稍微不恰当的说,就是用个圆圈把目标包住嘛,圈内的权重高,圈外的相反,那么假如目标的size变大了,我们就把这个圈的范围扩大就好了,而扩大或者缩小就靠调整σσ的值就ok了。具体推导过程如下:

假设从tt到t+1t+1帧,目标的大小乘以了一个ss倍,也即相当于坐标系的刻度乘以了ss倍,为方便起见,我们设(u,v)=(sx,sy)(u,v)=(sx,sy),然后,不失一般性的,假设目标在第tt帧的坐标为(0,0),则有

由ωσ(x,y)=αe−x2+y2σ2,ωσ(x/s,y/s)=αe−x2+y2(sσ)2ωσ(x,y)=αe−x2+y2σ2,ωσ(x/s,y/s)=αe−x2+y2(sσ)2 有ωσ(x/s,y/s)=ωsσ(x,y)ωσ(x/s,y/s)=ωsσ(x,y),所以(8)式继续推导为:

然后,从tt变到t+1t+1帧,我们把变化后的坐标对应起来,因此有hsct(u/s,v/s)≈hsct+1(u,v)htsc(u/s,v/s)≈ht+1sc(u,v)和It(u/s,v/s)≈It+1(u,v)It(u/s,v/s)≈It+1(u,v),所以式(9)继续变为

假设从tt到t+1t+1帧是缩小的,因此跟缩放示意图一样,我们将(10)的积分看成两部分组合成的:一是红框部分(t+1t+1帧的上下文框大小),二是蓝框(tt帧的上下文框大小)减去红框的部分,用公式表达就是:

又因为ωω的高斯形状的关系,上式右项那一部分的权值都很小,因此整个右项都可视为0,同时将sσtsσt视为σt+1σt+1,所以上式的左项就近似成了ct+1(0,0)ct+1(0,0):

因此就有

剩下的就是一些技巧了,比如用滑动窗口取ss的平均之类的,具体可以看作者的原文。这篇文章大概就到这里了。总结一下,其中比较吸引笔者的其中的概率论支撑和后面的窗口大小的变化部分,至于环境上下文部分的话,换用其它特征应该可以作进一步扩展以提高算法的鲁棒性。作者主页上有源代码,有兴趣的可以下载来跑跑看,运行时留意下像woman这类视频吧~

时间: 2024-08-07 08:23:18

correlation filters in object tracking2的相关文章

correlation filters in object tracking

http://www.cnblogs.com/hanhuili/p/4266990.html Correlation Filter in Visual Tracking系列一:Visual Object Tracking using Adaptive Correlation Filters 论文笔记 Visual Object Tracking using Adaptive Correlation Filters 一文发表于2010的CVPR上,是笔者所知的第一篇将correlation fil

Correlation Filter in Visual Tracking系列一:Visual Object Tracking using Adaptive Correlation Filters 论文笔记

Visual Object Tracking using Adaptive Correlation Filters 一文发表于2010的CVPR上,是笔者所知的第一篇将correlation filter引入tracking领域内的文章,文中所提的Minimum Output Sum of Squared Error(MOSSE),可以说是后来CSK.STC.Color Attributes等tracker的鼻祖.Correlation Filter(以下简称CF)源于信号处理领域,后被运用于图

Paper Reading: Beyond Correlation Filters: Learning Continuous Convolution Operators for Visual Tracking

Beyond Correlation Filters: Learning Continuous Convolution Operators for Visual TrackingECCV 2016  The key point of KCF is the ability to efficiently exploit available negative data by including all shifted versions of a training sample, in anthor w

Multi-task Correlation Particle Filter for Robust Object Tracking--论文随笔

摘要:在这篇论文中,作者提出一种鲁棒视觉跟踪的多任务相关粒子滤波琪跟踪算法(MCPF).作者首先向我们展示了多任务相关滤波器,该滤波器在训练滤波器模板的时候可以学习不同特征之间的联系.本文提出的MCPF旨在挖掘MCF和粒子滤波的性能,同时使其二者互补.与现存的相关滤波器和粒子滤波器相比,本文提出的算法有以下几大优点:1.本文提出的算法可以通过MCF使采样粒子聚焦在目标可能的位置,从而具有较强的鲁棒性:2.本算法通过粒子采样策略可以有效地解决大尺度变化问题:3.与传统的粒子滤波器相比,本文可以使用

论文笔记之:Fully-Convolutional Siamese Networks for Object Tracking

Fully-Convolutional Siamese Network for Object Tracking 摘要:任意目标的跟踪问题通常是根据一个物体的外观来构建表观模型.虽然也取得了不错的效果,但是他们这些 online-only approach 限制了模型可以学到的模型的丰富性.最近,已经有几个尝试开始探索深度卷积网络的强大的表达能力(express power).但是,当跟踪目标提前未知时,需要在线的执行 SGD 来适应网络的权重,严重的影响了系统的速度.本文中,我们提出一种基本的跟

Correlation Filter in Visual Tracking

涉及两篇论文:Visual Object Tracking using Adaptive Correlation Filters 和Fast Visual Tracking via Dense Spatio-Temporal Context Learning 可参考这位博主笔记:http://www.cnblogs.com/hanhuili/p/4266990.html 第一篇我说下自己的理解:训练时的输出都认为是高斯形状,因为这种形状符合PSR. 训练得到模板后开始跟踪,由输出继续按照新的规则

CVPR 2015 papers

CVPR2015 Papers震撼来袭! CVPR 2015的文章可以下载了,如果链接无法下载,可以在Google上通过搜索paper名字下载(友情提示:可以使用filetype:pdf命令). Going Deeper With ConvolutionsChristian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke

计算机视觉牛人博客和代码汇总

每个做过或者正在做研究工作的人都会关注一些自己认为有价值的.活跃的研究组和个人的主页,关注他们的主页有时候比盲目的去搜索一些论文有用多了,大牛的或者活跃的研究者主页往往提供了他们的最新研究线索,顺便还可八一下各位大牛的经历,对于我这样的小菜鸟来说最最实惠的是有时可以找到源码,很多时候光看论文是理不清思路的. 1 牛人Homepages(随意排序,不分先后): 1.USC Computer Vision Group:南加大,多目标跟踪/检测等: 2.ETHZ Computer Vision Lab

运动目标跟踪(十八)--阶段性总结

经过近两周的学习,对目前了解到的几个跟踪算法,做下相关总结对比. 贝叶斯框架:       STC跟踪器:是一个简单快速而且鲁棒的算法,它利用稠密的空时场景模型来进行跟踪.在贝叶斯框架下,它利用目标和目标局部的稠密信息的空时关系来建模.置信图在被计算时考虑了上一帧目标的位置的先验信息,这有效的减轻了目标位置的模糊.STC跟踪器使用了最简单的灰度特征,但是灰度并不能很好对外观进行描述.这里可以改进为其他比较好的特征(Color name或者Hog),但是就会遇到多通道特征融合的问题.一般的Trac