目标跟踪--CamShift

转载请注明出处!

!!

http://blog.csdn.net/zhonghuan1992

目标跟踪--CamShift

CamShift全称是ContinuouslyAdaptive Mean Shift,即连续自适应的MeanShift算法。而MeanShift算法,首先得对MeanShift算法有个初步的了解,可以參考这里。而CamShift是在MeanShift的基础上,依据上一帧的结果。来调整下一帧的中心位置和窗体大小,所以。当跟踪的目标在视频中发生变化时,可以对这个变化有一定的调整。

OpenCV自带样例中的camShift算法,能够分为三个部分:(引用自这里 http://blog.csdn.net/carson2005/article/details/7439125)

一、计算色彩投影图(反向投影):

(1)为了降低光照变化对目标跟踪的影响,首先将图像从RGB颜色空间转换到HSV颜色空间。

(2)对H分量进行直方图统计,直方图代表了不同H分量取值出现的概率。或者说能够据此查找出H分量的大小为x时的概率或像素个数。即,得到颜色概率查找表;

(3)将图像中每一个像素的值用其颜色出现的概率进行替换,由此得到颜色概率分布图;

以上三个步骤称之为反向投影,须要提醒的是。颜色概率分布图是一个灰度图像。

二、meanShift寻优

前面提到过meanShift算法(http://blog.csdn.net/carson2005/article/details/7337432)是一种非參数概率密度预计方法,它通过不断迭代计算得到最优搜索窗体的位置和大小。

三、camShift跟踪算法

前面提到,camShift事实上就是在视频序列的每一帧其中都运用meanShift,并将上一帧的meanShift结果作为下一帧的初始值,如此不断循环迭代,就能够实现目标的跟踪了。

在openCV中自带有camShift函数。老看一下实现,代码中有部分解释。(凝视功劳来自http://www.cnblogs.com/tornadomeet/archive/2012/03/15/2398769.html)

#include "opencv2/video/tracking.hpp"
#include "opencv2/imgproc/imgproc.hpp"
#include "opencv2/highgui/highgui.hpp"

#include <iostream>
#include <ctype.h>

using namespace cv;
using namespace std;

Mat image;

bool backprojMode = false; //表示是否要进入反向投影模式。ture表示准备进入反向投影模式
bool selectObject = false;//代表是否在选要跟踪的初始目标,true表示正在用鼠标选择
int trackObject = 0; //代表跟踪目标数目
bool showHist = true;//是否显示直方图
Point origin;//用于保存鼠标选择第一次单击时点的位置
Rect selection;//用于保存鼠标选择的矩形框
int vmin = 10, vmax =256, smin = 30;

void onMouse(int event, int x, int y, int, void*)
{
    if (selectObject)//仅仅有当鼠标左键按下去时才有效,然后通过if里面代码就能够确定所选择的矩形区域selection了
    {
        selection.x = MIN(x, origin.x);//矩形左上角顶点坐标
        selection.y = MIN(y, origin.y);
        selection.width = std::abs(x - origin.x);//矩形宽
        selection.height = std::abs(y - origin.y);//矩形高

        selection &= Rect(0, 0, image.cols,image.rows);//用于确保所选的矩形区域在图片范围内
    }

    switch (event)
    {
    case CV_EVENT_LBUTTONDOWN:
        origin = Point(x, y);
        selection = Rect(x, y, 0, 0);//鼠标刚按下去时初始化了一个矩形区域
        selectObject = true;
        break;
    case CV_EVENT_LBUTTONUP:
        selectObject = false;
        if (selection.width> 0 && selection.height > 0)
            trackObject = -1;
        break;
    }
}

void help()
{
    cout << "\nThis is ademo that shows mean-shift based tracking\n"
        "You select acolor objects such as your face and it tracks it.\n"
        "This readsfrom video camera (0 by default, or the camera number the user enters\n"
        "Usage:\n"
        "    ./camshiftdemo [camera number]\n";

    cout << "\n\nHot keys:\n"
        "\tESC - quitthe program\n"
        "\tc - stop thetracking\n"
        "\tb - switchto/from backprojection view\n"
        "\th -show/hide object histogram\n"
        "\tp - pausevideo\n"
        "To initializetracking, select the object with mouse\n";
}

const char* keys =
{
    "{1|  | 0 |camera number}"
};

int main(int argc, const char** argv)
{
    help();

    VideoCapture cap; //定义一个摄像头捕捉的类对象
    Rect trackWindow;
    RotatedRect trackBox;//定义一个旋转的矩阵类对象
    int hsize = 16;
    float hranges[] = { 0, 180 };//hranges在后面的计算直方图函数中要用到
    const float* phranges = hranges;
    CommandLineParser parser(argc, argv, keys);//命令解析器函数
    int camNum = parser.get<int>("0");

    cap.open(camNum);//直接调用成员函数打开摄像头

    if (!cap.isOpened())
    {
        help();
        cout << "***Could notinitialize capturing...***\n";
        cout << "Currentparameter's value: \n";
        parser.printParams();
        return -1;
    }

    namedWindow("Histogram", 0);
    namedWindow("CamShiftDemo",0);
    setMouseCallback("CamShiftDemo",onMouse, 0);//消息响应机制
    createTrackbar("Vmin", "CamShiftDemo",&vmin, 256, 0);//createTrackbar函数的功能是在相应的窗体创建滑动条,滑动条Vmin,vmin表示滑动条的值,最大为256
    createTrackbar("Vmax", "CamShiftDemo",&vmax, 256, 0);//最后一个參数为0代表没有调用滑动拖动的响应函数
    createTrackbar("Smin", "CamShift Demo", &smin, 256,0);//vmin,vmax,smin初始值分别为10,256,30

    Mat frame, hsv, hue, mask, hist, histimg = Mat::zeros(200, 320, CV_8UC3), backproj;
    bool paused = false;

    for (;;)
    {
        if (!paused)//没有暂停
        {
            cap >> frame;//从摄像头抓取一帧图像并输出到frame中
            if (frame.empty())
                break;
        }

        frame.copyTo(image);

        if (!paused)//没有按暂停键
        {
            cvtColor(image, hsv, CV_BGR2HSV);//将rgb摄像头帧转化成hsv空间的

            if (trackObject)//trackObject初始化为0,或者按完键盘的'c'键后也为0,当鼠标单击松开后为-1
            {
                int _vmin = vmin, _vmax= vmax;

                //inRange函数的功能是检查输入数组每个元素大小是否在2个给定数值之间。能够有多通道,mask保存0通道的最小值,也就是h分量
                //这里利用了hsv的3个通道,比較h,0~180,s,smin~256,v,min(vmin,vmax),max(vmin,vmax)。假设3个通道都在相应的范围内,则
                //mask相应的那个点的值全为1(0xff),否则为0(0x00).
                inRange(hsv, Scalar(0, smin, MIN(_vmin, _vmax)),
                    Scalar(180, 256, MAX(_vmin, _vmax)),mask);
                int ch[] = { 0, 0 };
                hue.create(hsv.size(),hsv.depth());//hue初始化为与hsv大小深度一样的矩阵,色调的度量是用角度表示的,红绿蓝之间相差120度,反色相差180度
                mixChannels(&hsv, 1,&hue, 1, ch, 1);//将hsv第一个通道(也就是色调)的数拷贝到hue中,0索引数组

                if (trackObject <0)//鼠标选择区域松开后,该函数内部又将其赋值1
                {
                    //此处的构造函数roi用的是Mat hue的矩阵头。且roi的数据指针指向hue,即共用同样的数据,select为其感兴趣的区域
                    Mat roi(hue,selection), maskroi(mask, selection);//mask保存的hsv的最小值

                    //calcHist()函数第一个參数为输入矩阵序列,第2个參数表示输入的矩阵数目。第3个參数表示将被计算直方图维数通道的列表,第4个參数表示可选的掩码函数
                    //第5个參数表示输出直方图,第6个參数表示直方图的维数,第7个參数为每一维直方图数组的大小。第8个參数为每一维直方图bin的边界
                    calcHist(&roi, 1, 0,maskroi, hist, 1, &hsize, &phranges);//将roi的0通道计算直方图并通过mask放入hist中。hsize为每一维直方图的大小
                    normalize(hist, hist, 0,255, CV_MINMAX);//将hist矩阵进行数组范围归一化,都归一化到0~255

                    trackWindow = selection;
                    trackObject = 1;//仅仅要鼠标选完区域松开后。且没有按键盘清0键'c',则trackObject一直保持为1。因此该if函数仅仅能运行一次,除非又一次选择跟踪区域

                    histimg = Scalar::all(0);//与按下'c'键是一样的,这里的all(0)表示的是标量所有清0
                    int binW = histimg.cols/ hsize;  //histing是一个200*300的矩阵。hsize应该是每个bin的宽度。也就是histing矩阵能分出几个bin出来
                    Mat buf(1, hsize, CV_8UC3);//定义一个缓冲单bin矩阵
                    for (int i = 0; i <hsize; i++)//saturate_case函数为从一个初始类型准确变换到还有一个初始类型
                        buf.at<Vec3b>(i) = Vec3b(saturate_cast<uchar>(i*180. /hsize), 255, 255);//Vec3b为3个char值的向量
                    cvtColor(buf, buf, CV_HSV2BGR);//将hsv又转换成bgr

                    for (int i = 0; i <hsize; i++)
                    {
                        int val =saturate_cast<int>(hist.at<float>(i)*histimg.rows/ 255);//at函数为返回一个指定数组元素的參考值
                        rectangle(histimg, Point(i*binW,histimg.rows),    //在一幅输入图像上画一个简单抽的矩形,指定左上角和右下角。并定义颜色,大小,线型等
                            Point((i + 1)*binW,histimg.rows - val),
                            Scalar(buf.at<Vec3b>(i)), -1, 8);
                    }
                }

                calcBackProject(&hue, 1, 0,hist, backproj, &phranges);//计算直方图的反向投影。计算hue图像0通道直方图hist的反向投影,并让入backproj中
                backproj &= mask;

                //opencv2.0以后的版本号函数命名前没有cv两字了,而且假设函数名是由2个意思的单词片段组成的话。且前面那个片段不够成单词,则第一个字母要
                //大写,比方Camshift。假设第一个字母是个单词,则小写。比方meanShift,可是第二个字母一定要大写
                RotatedRect trackBox =CamShift(backproj, trackWindow,              //trackWindow为鼠标选择的区域。TermCriteria为确定迭代终止的准则
                    TermCriteria(CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 10, 1));//CV_TERMCRIT_EPS是通过forest_accuracy,CV_TERMCRIT_ITER
                if (trackWindow.area()<= 1)                                                  //是通过max_num_of_trees_in_the_forest
                {
                    int cols =backproj.cols, rows = backproj.rows, r = (MIN(cols, rows) + 5) /6;
                    trackWindow = Rect(trackWindow.x - r,trackWindow.y - r,
                        trackWindow.x + r,trackWindow.y + r) &
                        Rect(0, 0, cols, rows);//Rect函数为矩阵的偏移和大小,即第一二个參数为矩阵的左上角点坐标。第三四个參数为矩阵的宽和高
                }

                if (backprojMode)
                    cvtColor(backproj, image, CV_GRAY2BGR);//因此投影模式下显示的也是rgb图?
                ellipse(image, trackBox, Scalar(0, 0, 255), 3, CV_AA);//跟踪的时候以椭圆为代表目标
            }
        }

        //后面的代码是无论pause为真还是为假都要运行的
        else if (trackObject <0)//同一时候也是在按了暂停字母以后
            paused = false;

        if (selectObject&& selection.width > 0 && selection.height > 0)
        {
            Mat roi(image,selection);
            bitwise_not(roi, roi);//bitwise_not为将每个bit位取反
        }

        imshow("CamShiftDemo",image);
        imshow("Histogram", histimg);

        char c = (char)waitKey(10);
        if (c == 27)              //退出键
            break;
        switch (c)
        {
        case 'b':             //反向投影模型交替
            backprojMode = !backprojMode;
            break;
        case 'c':            //清零跟踪目标对象
            trackObject = 0;
            histimg = Scalar::all(0);
            break;
        case 'h':          //显示直方图交替
            showHist = !showHist;
            if (!showHist)
                destroyWindow("Histogram");
            else
                namedWindow("Histogram", 1);
            break;
        case 'p':       //暂停跟踪交替
            paused = !paused;
            break;
        default:
            ;
        }
    }

    cap.release();
    return 0;
}

实验结果:

以摄像头中我的脸为目标,当他移动时,可以跟踪到他。

watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvemhvbmdodWFuMTk5Mg==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" >

watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvemhvbmdodWFuMTk5Mg==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" >

能够看到我的脸的各色调密度图。

时间: 2024-10-26 00:07:27

目标跟踪--CamShift的相关文章

目标跟踪之camshift---opencv中meanshift和camshift例子的应用

在这一节中,主要讲目标跟踪的一个重要的算法Camshift,因为它是连续自使用的meanShift,所以这2个函数opencv中都有,且都很重要.为了让大家先达到一个感性认识.这节主要是看懂和运行opencv中给的sample并稍加修改. Camshift函数的原型为:RotatedRect CamShift(InputArray probImage, Rect& window, TermCriteria criteria). 其中probImage为输入图像直方图的反向投影图,window为要

目标跟踪学习笔记_1(opencv中meanshift和camshift例子的应用)

在这一节中,主要讲目标跟踪的一个重要的算法Camshift,因为它是连续自使用的meanShift,所以这2个函数opencv中都有,且都很重要.为了让大家先达到一个感性认识.这节主要是看懂和运行opencv中给的sample并稍加修改. Camshift函数的原型为:RotatedRect CamShift(InputArray probImage, Rect& window, TermCriteria criteria). 其中probImage为输入图像直方图的反向投影图,window为要

目标跟踪

目标跟踪过程分为2部分,即目标特征提取和目标跟踪算法. 其中目标特征提取又包括以下几种: 1. 各种色彩空间直方图,利用色彩空间的直方图分布作为目标跟踪的特征,可以减少物体远近距离的影响,因为其颜色分布大致相同. 2.轮廓特征,提取目标的轮廓特征,可以加快算法的速度,且可以在目标有小部分影响的情况下同样有效果. 3. 纹理特征,如果被跟踪目标是有纹理的,则根据其纹理特征来跟踪效果会有所改善. 目标跟踪算法目前大概分为以下4种: 1. 基于meanshift算法,即利用meanshift算法可以快

【转】 目标跟踪小结

一.引言:在需要监控的环境里,如何能够判断出进入特定区域的目标,并且能够跟踪目标的轨迹.分为两种情况:一是静态背景下的目标跟踪:二是动态背景下的目标跟踪. 二.静态背景下的目标跟踪方法 1.单目标:目标跟踪还可以分为单目标的跟踪和多目标的跟踪.单目标的静态背景下的目标跟踪指的是摄像头是固定在某一方位,其所观察的视野也是静止的.通常采用背景差分法,即先对背景进行建模,然后从视频流中读取图像(我们称之为前景图像),将前景图像与背景图像做差,就可以得到进入视野的目标物体.对于目标的描述,通常用目标连通

目标跟踪之粒子滤波---Opencv实现粒子滤波算法

目标跟踪学习笔记_2(particle filter初探1) 目标跟踪学习笔记_3(particle filter初探2) 前面2篇博客已经提到当粒子数增加时会内存报错,后面又仔细查了下程序,是代码方面的问题.所以本次的代码与前几次改变比较小.当然这些code基本也是参考网上的.代码写得很不规范,时间不够,等以后有机会将其优化并整理成类的形式.)              Opencv实现粒子滤波算法            摘要 本文通过opencv实现了一种目标跟踪算法——粒子滤波算法,算法的

目标跟踪方法概述

监控视频中对象跟踪问题,不少学者投入大量精力进行研究,已经产生各种不同的跟踪方法.对于跟踪方法,我们可以根据算法提取的视觉特征.定位跟踪目标的方法.算法同时跟踪目标的数量这几个方面进行分类叙述.以下就跟踪方法中的要点逐一进行说明. 跟踪对象的视觉特征 选择合适的视觉特征对于跟踪算法而言至关重要.通常选取的视觉特征可作为目标唯一描述,使得其在特征空间中显著可分.值得注意的是,特征的选取与目标的表示方法是紧密相关的.例如基于区域的目标模型中常用颜色直方图作为特征,而基于轮廓的算法则考察物体边缘特征.

目标跟踪积累总结

在过去的一年半里尝试了一些简单的目标跟踪算法,现总结如下: 1.  采用霍夫变换提取圆轮廓,对目标进行跟踪. 2.  利用颜色直方图,选择合适的阈值,提取目标的颜色特征进行跟踪. 3.  采用Camshift算法对目标进行跟踪. 4.  采用ASMS算法对目标进行跟踪. 5.  将目标跟踪与控制系统结合,采用Camshift算法对高速运动目标进行跟踪. 视频显示:http://v.youku.com/v_show/id_XMzQ0MTcyODYwNA==.html?spm=a2hzp.82447

目标跟踪算法----KCF进阶(基于KCF改进的算法总结)

一.前情提要 如果你对目标跟踪和KCF是什么东西还不了解的话欢迎你看前一篇博文KCF入门详解:http://blog.csdn.net/crazyice521/article/details/53525366.如果你已经对基于KCF的目标跟踪有了一定的了解,并想知道这个算法有怎么样的后续的发展的话,就请听我慢慢介绍以下的东西. 二.KCF的弊端 说道KCF的缺点的话作者在文章中也已经算是说明了,第一点,KCF因为在跟踪过程当中目标框是已经设定好的,从始至终大小为发生变化,但是我们的跟踪序列当中目

KCF目标跟踪方法分析与总结

KCF目标跟踪方法分析与总结 correlation filter Kernelized correlation filter tracking 读"J. F. Henriques, R. Caseiro, P. Martins, J. Batista, 'High-speed tracking with kernelized correlation filters'" 笔记 KCF是一种鉴别式追踪方法,这类方法一般都是在追踪过程中训练一个目标检测器,使用目标检测器去检测下一帧预测位置