转载注明来自cnblog:sciencefans
由于一些原因,这两天要复习20篇paper。做好计划就趁热打铁,先复习一下去年刚接触到PR读的第一篇《Blessing of Dimensionality: High-dimensional Feature and Its Efficient Compression for Face Verification 》
这篇文是MSRA的sunjian组发在CVPR13上的。下面直接跳过intro和related work。
首先介绍了high-dimensional是怎么构建的:
1.Dense landmarks=27(这一数字可以变成68,更快的算法参考CVPR2014中3000FPS那篇文的算法);
2.Multiple scales.在图像金字塔中选取了数个不同尺度的图像。
基于以上两点,作者以一张图的27个特征点为中心,建立了27个矩阵,每个矩阵划分成4*4的子矩阵,然后统计标准化的LBP直方图特征,构成high-dimensional特征。
紧接着,作者又说这么长的特征肯定是sparse的,于是要好好降一发维。怎么降呢?此时算法兵分两路:
1.先PCA一发压缩特征矩阵(维数*样本数),然后LDA一发或者joint bayesian一发来找出类间信息以及进一步降维。
这样做可以给训练数据降维,但是测试数据咋办呢?没有label没法做LDA啊~于是作者想到了一个ingenious的方法:
2.学习一个叫做sparse linear projection的东东,说白了就是降维矩阵。这是重头戏。下面介绍如何学习该矩阵:
要求降维矩阵,实际上就是要使得如下目标函数的最小值时B的解:
其中Y是经过pca那些东西压缩后的训练数据的矩阵,X是原始高维训练矩阵。
后面那个东东叫做lasso回归惩罚因子,好吧本身这个目标函数就是lasso回归,也叫l1回归,因为后边的项是一个一阶范数。这样做可以让B更加稀疏。获取X中更有效的成分。
但是考虑到通常计算距离的尺度(欧几里得距离或者cos距离)是具有旋转不变性的,所以Y也需要承上一个旋转变换矩阵来维持这种不变形。于是这个目标函数就变成了:
之后就是求B和R了,已知B求R和已知R求B是比较简单的问题,通过迭代优化这俩子问题就可以得到B和R。
好了,总结一下,首先通过PCALDA一类的东西把高位训练特征转化到低维空间,然后通过原训练矩阵X和压缩后的训练矩阵Y搞出来B和R,这样再来一发测试矩阵Z的时候,直接B‘Z就可以得到压缩后的测试矩阵了。简直神了~
流程图如下:
好了,说了这么多,结果咋样呢?当年的state-of-the-art。提高了3个百分点左右。
先写这么多啦~