Haar特征

特征提取之Haar特征
一、前言(废话)
很久没有写博客了,一晃几年就过去了,为了总结一下自己看的一些论文,以后打算写一些自己读完论文的总结。那么,今天就谈一谈人脸检测最为经典的算法Haar-like特征+Adaboost。这是最为常用的物体检测的方法(最初用于人脸检测),也是用的最多的方法,而且OpenCV也实现了这一算法,可谓路人皆知。另外网上写这个算法的人也不在少数。

二、概述
首先说明,我主要看了《Rapid Object Detection using a Boosted Cascade of Simple Features》和《Empirical Analysis of Detection Cascades of Boosted Classifiers for Rapid Object Detection》这两篇论文。

2.1为什么需要Haar特征,为什么要结合Adaboost算法
我们知道人脸检测是很不容易的,我们在实际进行人脸检测的时候,需要考虑算法的运行速度,以及算法的准确度,单单实现这两个指标就已经很不容易了。传统的人脸检测方法(指的是在Haar-like特征出来之前的方法,也就是2001年之前了)一般都是基于像素级别进行的,常见的方法有基于皮肤颜色的方法,这些方法的缺点就是速度慢,几乎不能实现实时性。

2.2算法的大体流程
首先给出训练过程
输入图像->图像预处理->提取特征->训练分类器(二分类)->得到训练好的模型
接着给出测试过程
输入图像->图像预处理->提取特征->导入模型->二分类(是不是所要检测的物体)。

接下来就对算法的关键的步骤进行介绍。

3具体介绍
3.1图像预处理(归一化或者称为光照修正)
我们知道不同的光照对于所处理的图像有影响,为了减低这种影响我们需要首先对图像进行归一化(在《Rapid Object Detection using a Boosted Cascade of Simple Features》中称之为归一化,而在《Empirical Analysis of Detection Cascades of Boosted Classifiers for Rapid Object Detection》中称之为Lighting Correction,即光照修正)。

那么如何进行光照修正:
i¯(x,y)=i(x,y)−μcσ
i¯(x,y)=i(x,y)−μcσ

上述公式中i¯(x,y)i¯(x,y)表示归一化之后的图像,而i(x,y)i(x,y)表示原始的图像,其中μμ表示图像的均值,而σσ表示图像的标准差。计算方法很简单,均值就是图像中的所有像素值相加,然后除以像素的个数,而方差假定每个像素的概率相等如果一幅图像中有N个像素,那么每个像素的概率为1N1N,σ2=1N∑xx2−μ2σ2=1N∑xx2−μ2,注意这里的x是指的每个像素值,∑x∑x表示对所有的像素值求和。
其实这里我看到《Rapid Object Detection using a Boosted Cascade of Simple Features》中第六页它写成了σ2=μ2−1N∑xx2σ2=μ2−1N∑xx2。

3.2提取特征
首先介绍一下Haar-like特征。如下图所示,Haar-like特征是很简单的,无非就是那么几种,首先介绍论文《Rapid Object Detection using a Boosted Cascade of Simple Features》中提到的三种特征,分为两矩形特征、三矩形特征、对角特征。当然还有很多分类方法,这里先不介绍,下面在继续讲。先介绍如何计算特征。

图1 三种类型的Haar-like特征

计算特征很简单,就是拿黑色部分的所有的像素值的和减去白色部分所有像素值的和。得到的就是一个特征值。

说的很简单,但是在工程中需要进行快速计算某个矩形内的像素值的和,这就需要引入积分图的概念。

(1)使用积分图加速计算特征
需要注意的是这里的积分图输入的图像是经过归一化的图像哈。与上面用到的符号不一样了。

首先给出积分图的定义:
ii(x,y)=∑x′≤x,y′≤yi(x′,y′)
ii(x,y)=∑x′≤x,y′≤yi(x′,y′)

上述含义是指在位置(x,y)(x,y)上,对应的积分图中的像素为该位置的左上角所有的像素的之和。
那么我们实现的时候是如何进行计算积分图的呢?
s(x,y)=s(x,y−1)+i(x,y)ii(x,y)=ii(x−1,y)+s(x,y)
s(x,y)=s(x,y−1)+i(x,y)ii(x,y)=ii(x−1,y)+s(x,y)

初始值s(x,−1)=0,ii(−1,y)=0s(x,−1)=0,ii(−1,y)=0.
上面这两个递归公式是什么意思呢?就是首先每一行都递归计算s(x,y)(公式中也可以看出是按行计算的),每一行首先都是计算s,计算完毕之后在每一列都计算ii(x,y)。这样扫描下去就可以计算好了积分图了。这种方法跟动态规划的思想有点类似。

好了计算好了积分图,我们接下来就可以利用积分图来加速计算某个方块内部的像素的和了。

(2)计算方块内的像素和

图2 计算某个方块内的像素和

图中的大框是积分图,为了讲解如何计算任意矩形内的像素值,我们画出四个区域A、B、C、D,并且图中有四个位置分别为1、2、3、4。我们要计算D区域内部的像素和该怎么计算?

我们记位置4的左上的所有像素为rectsum(4)rectsum(4),那么
D位置的像素之和就是rectsum(1)+rectsum(4)−rectsum(2)−rectsum(3)rectsum(1)+rectsum(4)−rectsum(2)−rectsum(3)。
是不是有了积分图,就可以很快地计算出了任意矩形内的像素之和了?

我们前面提到有三种类型的Haar-like特征。
其中二矩形特征需要6次查找积分图中的值,而三矩形特征需要8次查找积分图中的值,而对角的特征需要9次。

(3)提取的特征的个数有多少?
那么,如果给定一个窗口,窗口的大小为24*24像素,那么我们得到的特征有多少个呢?
计算公式如下:
可以参考本文的第一幅图中的ABCD个特征那幅图。
A和B特征:2∑w=112∑h=124(24−2w+1)(24−h+1)+C特征:2∑w=18∑h=124(24−3w+1)(24−h+1)D特征:∑w=112∑h=112(24−2w+1)(24−2h+1)
A和B特征:2∑w=112∑h=124(24−2w+1)(24−h+1)+C特征:2∑w=18∑h=124(24−3w+1)(24−h+1)D特征:∑w=112∑h=112(24−2w+1)(24−2h+1)

加起来一共有大约16000多个(不止16000哈)。可以自己算一下。
3.3使用Adaboost进行训练
在输入图像之后首先计算积分图,然后通过积分图在计算上述三种特征,如果窗口的大小为24*24像素,那么生成的特征数目有16000之多。

(1)弱分类器的定义
Adaboost算法中需要定义弱分类器,该弱分类器的定义如下:

hj(x)={10ifpjfj(x)<pjθjotherwise
hj(x)={1ifpjfj(x)<pjθj0otherwise

上述公式中的pjpj是为了控制不等式的方向而设置的参数。
fj(x)fj(x)表示输入一个窗口xx,比如24*24像素的窗口,通过fjfj提取特征,得到若干特征。通过一个阈值θθ判定该窗口是不是所要检测的物体。
(2)adaboost算法
假设训练样本图像为(x1,y1),…,(xn,yn)(x1,y1),…,(xn,yn),其中yi=0,1yi=0,1,0表示负样本,1表示正样本。

首先初始化权重w1,i=12mw1,i=12m,初始化yi为22lyi为22l,其中m表示负样本的个数,l表示正样本的个数。

For t=1,…,Tt=1,…,T:
(1).首先归一化权重: wt,i=wt,i∑nj=1wt,jwt,i=wt,i∑j=1nwt,j 。
(2)对于每一个特征,我们都训练一个分类器(记为hjhj),每个分类器都只使用一种特征进行训练。
那么对于该特征的误差?j?j可以这么衡量:?j=∑iwi|hj(xi)−yi|?j=∑iwi|hj(xi)−yi| (jj表示的是某个特征的索引,而ii表示的是所有的所有的窗口。)
(3)选择拥有最低误差的那个分类器记为htht 。
(4)更新权重wt+1,i=wt,iβ1−eitwt+1,i=wt,iβt1−ei (如果分类正确则ei=1ei=1,错误ei=0ei=0)。
End For

那么最终的强分类器为
h(x)=???????10∑t=1Tαtht≥12∑t=1Tαtotherwise
h(x)={1∑t=1Tαtht≥12∑t=1Tαt0otherwise

其中αt=log1βtαt=log1βt
上述的训练过程是远远不够的,还需要对若干个分类器进行级联,这样才能够取得更高的检出率,并且取得较高的false positive rates。

图3 多个分类器的级联

如图3所示,首先第一个分类器的输入是所有的子窗口,然后通过级联的分类器去除掉一些子窗口,这样能够有效地降低窗口的数目,具体的去除方法就是如果任何一个级联分类器提出拒绝,那么后续的分类器就不需要处理之前分类器的子窗口。
通过这样的一种机制能够有效地去掉较多的子窗口,因为较大部分的子窗口中都没有所要检测的物体。

4其他一些参数的确定
4.1如何确定有多少个级联的分类器,有多少个特征,阈值如何确定的。
如图3可以看出在训练过程当中需要确定究竟有多少个分离器级联才是最佳的,以及使用多少个特征,每个弱分类器的阈值如何确定,这些参数的确定基本不可能实现。

这里介绍一种比较简单粗暴的方法:
我们首先指定一个检出率和false positive rates。
每一个级联的分类器都是通过加入不同的特征,直到达到指定的检出率和false positive rates才停止加入,并且有多少阶段才结束是根据是否能够达到特定的检出率和false postive rate 来决定的。同样,阈值也是这么确定的。

4.2 扫描窗口的时候的缩放如何确定
假设扫描的时候的步长为ΔΔ,尺度为ss
那么当前的步长= [ssΔΔ]。一般Δ=1.5Δ=1.5,尺度需要根据图像大小以及窗口大小来确定。

4.3 合并检测出的多个窗口
检测到的子窗口的集合分成若干不相交的子集(每个子集中的子窗口都是相互重叠的),这些子集中的子窗口进行合并,集合中所有子窗口的左上角的坐标的平均即为该集合所确定的窗口的左上角的坐标。

5 补充说明
5.1 Haar-like特征的分类(Haar-like特征的变种)
如图4所示为改进的特征。

图4 haar-like特征

图4中给出了四种分类分为将边缘特征、线特征、中心环绕特征以及对角线特征。

这些特征中的旋转的特征主要在《Empirical Analysis of Detection Cascades of Boosted Classifiers for Rapid Object Detection》中得到了介绍。
特征个数的确定通过如下公式确定
X=⌊W/w⌋Y=⌊H/h⌋
X=⌊W/w⌋Y=⌊H/h⌋

XX和YY称之为最大缩放因子。
计算公式如下
XY(W+1−wX+12)(H+1−hY+12)
XY(W+1−wX+12)(H+1−hY+12)

对于旋转45 °的特征其计算公式如下:
XY(W+1−zX+12)(H+1−zY+12)
XY(W+1−zX+12)(H+1−zY+12)

其中z=w+hz=w+h
至于怎么计算旋转45°的特征值,这里先挖个坑。过一段时间在补充上来。

5.2 Adaboost的变种
《Empirical Analysis of Detection Cascades of Boosted Classifiers for Rapid Object Detection》中介绍了三种变种分为Real Adaboost ,Discrete Adaboost以及Gentle Adaboost。差别不是很大。具体参考该论文。

6 参考文献
[1] Viola P, Jones M J. Robust real-time face detection[J]. International journal of computer vision, 2004, 57(2): 137-154.
[2] Jones M. Rapid Object Detection using a Boosted Cascade of Simple[J].
[3] Lienhart R, Kuranov A, Pisarevsky V. Empirical analysis of detection cascades of boosted classifiers for rapid object detection[M]//Pattern Recognition. Springer Berlin Heidelberg, 2003: 297-304.

7 想要说的话
后期会分析一下Haar进行人脸检测的代码(matlab和OpenCV的实现),看时间允许不允许了。

http://www.mathworks.com/matlabcentral/fileexchange/29437-viola-jones-object-detection

其实想详细介绍Adaboost的证明的,考虑到是Haar是主角,这里没有详细介绍Adaboost。此外Haar 特征的变种也是个坑,还需要详细介绍。
基本就这么多,有讲的不明白的地方欢迎留言反馈。

一.Haar特征

特征是计算机视觉领域一种常用的特征描述算子,特征,描述图像的特征,多用于人脸检测、行人检测,等目标检测,Haar-like特征模板内只有白色和黑色两种矩形,并定义该模板的特征值为白色矩形像素和减去黑色矩形像素和。Haar特征值反映了图像的灰度变化情况。例如:脸部的一些特征能由矩形特征简单的描述,如:眼睛要比脸颊颜色要深,鼻梁两侧比鼻梁颜色要深,嘴巴比周围颜色要深等。

二.特征计算

计算特征很简单,就是拿黑色部分的所有的像素值的和减去白色部分所有像素值的和。得到的就是一个特征值。说的很简单,但是在工程中需要进行快速计算某个矩形内的像素值的和,这就需要引入积分图的概念。对于一个灰度图像I而言,其积分图也是一张与I尺寸相同的图,只不过该图上任意一点(x,y)的值是指从灰度图像I的左上角与当前点所围成的矩形区域内所有像素点灰度值之和如下图所示:

当把扫描图像一遍,到达图像右下角像素时,积分图像就构造好了。积分图构造好之后,图像中任何矩阵区域的像素累加和都可以通过简单运算得到

原文地址:https://www.cnblogs.com/klausage/p/11723356.html

时间: 2024-10-10 02:33:17

Haar特征的相关文章

图像特征提取三大法宝:HOG特征,LBP特征,Haar特征

(一)HOG特征 1.HOG特征: 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子.它通过计算和统计图像局部区域的梯度方向直方图来构成特征.Hog特征结合 SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了极大的成功.需要提醒的是,HOG+SVM进行行人检测的方法是法国研究人员Dalal 在2005的CVPR上提出的,而如今虽然有很多行人检测算法不断提出,但基本都是以HOG+SVM

基于Haar特征的Adaboost级联人脸检测分类器

基于Haar特征的Adaboost级联人脸检测分类器,简称haar分类器.通过这个算法的名字,我们可以看到这个算法其实包含了几个关键点:Haar特征.Adaboost.级联.理解了这三个词对该算法基本就掌握了. 1        算法要点 Haar分类器 = Haar-like特征 + 积分图方法 + AdaBoost +级联: Haar分类器算法的要点如下: a)        使用Haar-like特征做检测. b)       使用积分图(IntegralImage)对Haar-like特

Haar特征、积分图、Adaboost算法、分类器训练

一.Haar-like特征 Haar特征值反映了图像分度变化的情况. Haar-like特征最早是由Papageorgiou等应用于人脸表示,Viola和Jones在此基础上,使用3种类型4种形式的特征. Haar特征分为三类:边缘特征.线性特征.中心特征和对角线特征,组合成特征模板.特征模板内有白色和黑色两种矩形,并定义该模板的特征值为白色矩形像素和减去黑色矩形像素和.Haar特征值反映了图像的灰度变化情况.例如:脸部的一些特征能由矩形特征简单的描述,如:眼睛要比脸颊颜色要深,鼻梁两侧比鼻梁颜

目标检测的图像特征提取之(三)Haar特征

声明:本文转载自  Liulina603 1.Haar-like特征 Haar-like特征最早是由Papageorgiou等应用于人脸表示,Viola和Jones在此基础上,使用3种类型4种形式的特征. Haar特征分为三类:边缘特征.线性特征.中心特征和对角线特征,组合成特征模板.特征模板内有白色和黑色两种矩形,并定义该模板的特征值为白色矩形像素和减去黑色矩形像素和.Haar特征值反映了图像的灰度变化情况.例如:脸部的一些特征能由矩形特征简单的描述,如:眼睛要比脸颊颜色要深,鼻梁两侧比鼻梁颜

Haar特征与积分图

转自:http://blog.csdn.net/weixingstudio/article/details/7631241 Haar特征与积分图 1. Adaboost方法的引入 1.1 Boosting方法的提出和发展 在了解Adaboost方法之前,先了解一下Boosting方法. 回答一个是与否的问题,随机猜测可以获得50%的正确率.如果一种方法能获得比随机猜测稍微高一点的正确率,则就可以称该得到这个方法的过程为弱学习:如果一个方法可以显著提高猜测的正确率,则称获取该方法的过程为强学习.1

基于Haar特征Adaboost人脸检测级联分类

基于Haar特征Adaboost人脸检测级联分类,称haar分类器. 通过这个算法的名字,我们能够看到这个算法事实上包括了几个关键点:Haar特征.Adaboost.级联.理解了这三个词对该算法基本就掌握了. 1        算法要点 Haar分类器 = Haar-like特征 + 积分图方法 + AdaBoost +级联: Haar分类器算法的要点例如以下: a)        使用Haar-like特征做检測. b)       使用积分图(IntegralImage)对Haar-like

模式匹配之常见匹配算法---SIFT/SURF、haar特征、广义hough变换的特性对比分析

识别算法概述: SIFT/SURF基于灰度图, 一.首先建立图像金字塔,形成三维的图像空间,通过Hessian矩阵获取每一层的局部极大值,然后进行在极值点周围26个点进行NMS,从而得到粗略的特征点,再使用二次插值法得到精确特征点所在的层(尺度),即完成了尺度不变. 二.在特征点选取一个与尺度相应的邻域,求出主方向,其中SIFT采用在一个正方形邻域内统计所有点的梯度方向,找到占80%以上的方向作为主方向:而SURF则选择圆形邻域,并且使用活动扇形的方法求出特征点主方向,以主方向对齐即完成旋转不变

SIFT/SURF、haar特征、广义hough变换的特性对比分析[z]

 SIFT/SURF基于灰度图, 一.首先建立图像金字塔,形成三维的图像空间,通过Hessian矩阵获取每一层的局部极大值,然后进行在极值点周围26个点进行NMS,从而得到粗略的特征点,再使用二次插值法得到精确特征点所在的层(尺度),即完成了尺度不变. 二.在特征点选取一个与尺度相应的邻域,求出主方向,其中SIFT采用在一个正方形邻域内统计所有点的梯度方向,找到占80%以上的方向作为主方向:而SURF则选择圆形邻域,并且使用活动扇形的方法求出特征点主方向,以主方向对齐即完成旋转不变. 三.以主方

(5)图像特征提取算法:haar特征

该特征常和AdaBoost结合用于识别人脸.Haar特征很简单,分为三类:边缘特征.线性特征.中心特征和对角线特征,组合成特征模板.特征模板内有白色和黑色两种矩形,并定义该模板的特征值为白色矩形像素和减去黑色矩形像素和.Haar特征值反映了图像的灰度变化情况.例如:脸部的一些特征能由矩形特征简单的描述,如:眼睛要比脸颊颜色要深,鼻梁两侧比鼻梁颜色要深,嘴巴比周围颜色要深等.但矩形特征只对一些简单的图形结构,如边缘.线段较敏感,所以只能描述特定走向(水平.垂直.对角)的结构. Haar的4种特征提

6-4 Haar特征1

实际上特征就是图像中某个区域的像素点,经过某种四则运算之后得到的结果.所以说图像的特征它是像素经过运算之后得到的某一个结果.这个结果可以是一个具体的值,也可以是一个向量,又或是一个多维的元素.所以说特征它的本质实际上是像素的运算结果. 之前章节给大家讲解的矩阵运算.如何利用特征来区分目标呢?阈值判决.如果这个特征大于某一个阈值,那么我们就可以把它认为是目标.如果小于某一个阈值,那么就认为是分目标.所以这是一个最简单的判决情况. 我们通过机器学习得到这个判决明显.判决明显得到之后我们再根据计算的特