自适应尺寸变化的meanshift跟踪

近期在看meanshift方面的文章,看了一篇博文对这篇文章《Robust scale-adaptive meanshift for tracking》寄予非常高的评价,所以把这篇文章简要的读了一下。以下对这篇文章的核心思想和算法实现过程进行简要整理,由于这篇文章与我眼下项目的关系不是太大,所以就不正确这篇文章进行实现了。这篇文章就作为技术储备了。

文章在前面对meanshift的原理进行了整理和推倒。由于之前对meanshift已经有了初步了解。所以在这就不正确meanshift进行介绍了。主要介绍作者的算法。

meanshift尺寸预计

如果视频帧中目标尺寸是以同向的方式进行变化的,表示像素的位置,N表示图像中像素的个数,目标在图像中用椭圆区域表示为目标模型在特征概率密度表示为

当中C是归一化參数。是当前帧运动目标像素的位置。目标的中心是位置y,採用同样的核密度函数。目标状态为

h是目标当前状态的尺寸。

n1目标模板在椭圆区域内的像素个数,nh是目标当前状态在h尺寸下像素的个个数,则,则

则Bya公式能够表示为

依据meanshift原理,我们能够表示为

算法实现过程

MS(s)—Meanshift with regularize scale estimation

输入:目标模板直方图,開始位置,初始尺寸

输出:终止位置,终止时尺寸

t=1;

循环

公式(10)计算。公式(14)计算权重

依据公式(20)更新目标位置

依据公式(21)得到的结果更新

t=t+1;

除了尺寸的更新这个过程与标准meanshift过程一样。在这里应用了两个參数,第一个 我们如果目标尺寸并没有剧烈的变化,因此我们对尺寸变化的处理例如以下(22)所看到的:

当中尺寸參数h被界定在之间。

强迫搜索窗中包括一定比例的背景像素。的函数如(23)所看到的:

表示搜索窗中背景像素所占的比例。

背景像素所占的权值例如以下计算:

分子是目标模板的像素权重和。分母是全部像素的权重和。

MS(fd)—Meanshift with scale and backward consistency check

MS(s)对于视频中背景分布分散不适用,所以作者提出了返回确认尺寸的MS(fd)方法。通过t-1到t预计位置。用预计的位置进行t到t-1的位置和尺寸确认。这个确认过程保证了背景分散的尺寸预计不会崩溃,而且矫正跟踪错误。

算法过程:

输入:目标模板直方图。開始位置。初始尺寸

输出:每一帧的位置和尺寸

作者实验过程中的參数为:

时间: 2024-10-07 04:51:05

自适应尺寸变化的meanshift跟踪的相关文章

有关meanshift跟踪的理解(在opencv中实现)(转载)

meanshift算法思想其实很简单:利用概率密度的梯度爬升来寻找局部最优.它要做的就是输入一个在图像的范围,然后一直迭代(朝着重心迭代)直到满足你的要求为止.但是他是怎么用于做图像跟踪的呢?这是我自从学习meanshift以来,一直的困惑.而且网上也没有合理的解释.经过这几天的思考,和对反向投影的理解使得我对它的原理有了大致的认识. 在opencv中,进行meanshift其实很简单,输入一张图像(imgProb),再输入一个开始迭代的方框(windowIn)和一个迭代条件(criteria)

matlab工具箱之人眼检测+meanshift跟踪算法--人眼跟踪

Viola-Jones 人眼检测算法+meanshift跟踪算法 这次的代码是对视频中的人眼部分进行检测加跟踪,检测用的是matlab自带的人眼检测工具箱 下面是matlab官网介绍这个算法的一些东西: http://cn.mathworks.com/help/vision/examples/face-detection-and-tracking-using-camshift.html?searchHighlight=Viola-Jones http://cn.mathworks.com/hel

meanShift跟踪

这种跟踪和我之前想的一样,应该是首先鼠标选中要跟踪的目标,然后计算其直方图.接下来就根据这个原始直方图计算每一帧的反向投影.(反向投影:opencv docs给出的概念是"一种记录给定图像中的像素点如何适应直方图模型像素分布的方式.简单的讲, 所谓反向投影就是首先计算某一特征的直方图模型,然后使用模型去寻找图像中存在的该特征.) 然后根据反向投影用meanshift跟踪  meanShift(backproj, trackWindow,TermCriteria(CV_TERMCRIT_EPS |

基于空间直方图meanshift跟踪

近期看了一篇文章<spatiograms versus histograms for region-based tracking>,在此把这篇文章的核心思想及算法推理进行整理. 空间直方图 传统直方图可视为零阶空间直方图,二阶空间直 方图包含直方图每一个bin的空间均值和协方差.这样的空间信息能获取目标更丰富的特征描写叙述.从而提高了跟踪的鲁棒性. watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/

基于MeanShift的目标跟踪算法及实现

一.简介 首先扯扯无参密度估计理论,无参密度估计也叫做非参数估计,属于数理统计的一个分支,和参数密度估计共同构成了概率密度估计方法.参数密度估计方法要求特征空间服从一个已知的概率密度函数,在实际的应用中这个条件很难达到.而无参数密度估计方法对先验知识要求最少,完全依靠训练数据进行估计,并且可以用于任意形状的密度估计.所以依靠无参密度估计方法,即不事先规定概率密度函数的结构形式,在某一连续点处的密度函数值可由该点邻域中的若干样本点估计得出.常用的无参密度估计方法有:直方图法.最近邻域法和核密度估计

目标跟踪算法meanshift优缺点

原博主:http://blog.csdn.net/carson2005/article/details/7341051 meanShift算法用于视频目标跟踪时,采用目标的颜色直方图作为搜索特征,通过不断迭代meanShift向量使得算法收敛于目标的真实位置,从而达到跟踪的目的. 传统的meanShift算法在跟踪中有几个优势: (1)算法计算量不大,在目标区域已知的情况下完全可以做到实时跟踪: (2)采用核函数直方图模型,对边缘遮挡.目标旋转.变形和背景运动不敏感. 同时,meanShift算

深度学习与meanshift结合实现跟踪

深度学习一个重要的作用是实现目标的特征实现自动提取过程,传统的meanshift跟踪常用的有颜色直方图,HOG等边缘特征提取目标实现跟踪,则meanshift跟踪可实现的则是用深度学习自动学习的特征来完成跟踪.好处是对于复杂的情况也能很好的提取目标的特征,使得跟踪的鲁棒性和精度更高. 很多人担心的是实时性的问题,其实来说,深度学习完成的过程主要分成两部,预训练预测,预训练完全可以通过离线训练来完成,那么就可以不用考虑这部分时间.而预测部分消耗的时间相对HOG来说,稍微慢一点(实践).那么对于实际

基于meanshift的手势跟踪与电脑鼠标控制(手势交互系统)

转自网络:http://blog.csdn.net/zouxy09/article/details/17913745 基于meanshift的手势跟踪与电脑鼠标控制(手势交互系统) [email protected] http://blog.csdn.net/zouxy09 一年多前开始接触计算机视觉这个领域的时候,年幼无知,倍感吃力.当年惶恐,从而盲从.挣扎了不少时日,感觉自己好像还是处于领域的门外汉一样,在理论与实践的鸿沟中无法挣脱,心里空落落的.在这种挥之不去的烦忧中,某个时候豁然开朗,觉

目标跟踪之meanshift---meanshift2

均值漂移,可以对非刚性物理进行跟踪,是分参数估计,过程是迭代的过程,对光和形态不敏感,缺点是检测目标是固定的,特征不较少,模板背景没有实时更新,没有目标的位置精度预测只是梯度浓聚, 原理: 用文字标书就是在圆弧r范围内也就是划定的目标区域内,进行灰度像素直方图的相加取均值,这个均值就是目标中心的浓聚,借用公式如下 从每个像素开始,首先估计有相似颜色的邻近像素点的密度(局部密度)的梯度,而后利用迭代算法求出局部密度的峰值(即重心点),把能够聚类到同一个峰值点的所有像素点划分成一个区域. 以上为me