Convolutional Neural Networks for Visual Recognition 2

Linear Classification

在上一讲里,我们介绍了图像分类问题以及一个简单的分类模型K-NN模型,我们已经知道K-NN的模型有几个严重的缺陷,第一就是要保存训练集里的所有样本,这个比较消耗存储空间;第二就是要遍历所有的训练样本,这种逐一比较的方式比较耗时而低效。

现在,我们要介绍一种更加强大的图像分类模型,这个模型会很自然地引申出神经网络和Convolutional Neural Networks(CNN),这个模型有两个重要的组成部分,一个是score function,将原始数据映射到输出变量;另外一个就是loss function,衡量预测值与真实值之间的误差。

我们先看模型的第一部分,定义一个score function,将图像的像素值,映射到一个输出变量,这个输出变量表示图像属于每一类的置信度或者说概率,我们假设有一批训练图像,xi∈RD,每一个训练样本都有一个类标签yi,其中,i=1,2,...N,yi∈{1,2,...K},就是说,我们有

N个训练样本,这N个训练样本属于K个类别,我们要定义的score function就是满足如下映射:f:RD→RK,这里我们先介绍一种最简单常用的线性映射,如下所示:

f(xi,W,b)=Wxi+b

在上面的表达式中,xi是一个高维向量,包含一幅图像的所有像素,将图像从m×n×3变成D×1,矩阵W(K×D )和向量b(K×1)称为模型的参数,其中W叫做权值,而b称为偏移向量,我们用下面的图来表示这个映射过程:

为了能够视觉化这个过程,我们假设图像是只有四个像素(实际情况一般至少是几千个像素),将图像变成一个列向量然后与权值W相乘,在加上偏移向量b,最后得到score,从结果来看,这个分类模型将这幅图像判定为是一条狗。

下图展示了线性分类模型对图像分类的过程,因为我们不能将高维向量可视化,所以我们假设在二维平面观看这些图像,那么线性分类模型在各个类别之间的边界就有可能如下图所示:

从上面可以看出,W的每一行都相当于某一类的分类器,从几何意义上看,如果我们改变W中某一行的值,那么该行所对应的分类器将会发生旋转。对应权值W的另外一种解释就是每一行可以看成一种模板:template,一幅图像在每一类上的score可以通过template与该图像做内积获得,这种情况下,线性分类有点像是在做模板匹配,下图给出了在CIFAR-10数据库上利用线性分类模型学习得到的template,W的每一行都相当于一个template。实际运算的时候,我们也会把偏移向量b看成是W的某一列,这样原有的权值W和b组成新的权值W′=[W;b],那么score function也可以由f(xi,W,b)变成f(xi,W)。

之前我们做运算和训练的时候,都是利用图像的原始数据,一般来说,我们需要做一些预处理,我们会将一个训练集里的所有样本做归一化。比如图像,将图像从[0,255]映射到

[-1,1]的范围,而且减去均值向量,保证训练集的均值为0。

我们已经介绍了score function,现在我们要介绍线性分类模型的另外一个重要组成部分:loss function,或者成为cost function,这个用来衡量预测值与目标值之间的误差。定义loss function的方式有很多,这里我们先介绍一种经常使用的loss function,叫做Multiclass Support Vector Machine (SVM) loss。简称 SVM loss,下面给出该函数的定义,假设训练集第i个样本的输入为xi,yi表示该样本属于第几类,利用score function f(xi,W)我们可以计算该样本xi属于每一类的score,比如f(xi,W)j表示样本xi属于第j类的score,那么该loss function定义为:

Li=∑j≠yimax(0,f(xi,W)j?f(xi,W)yi+Δ)

请注意,由于我们这里介绍的是线性模型f(xi,W)=Wxi,所以我们也可以将上式重新写成:

Li=∑j≠yimax(0,wTjxi?wTyixi+Δ)

其中,wTj表示W的第j行,如果是今后介绍的更加复杂的模型,上面这个表达式就不一定成立。上面的max(0,?)函数称为hinge loss,这是线性的hinge loss,有的时候也会用二次的hinge loss:max(0,?)2,下图解释了loss function的作用。Δ给出了其他类与某一类相差的界限,如果其他类与某一类相差的在这个界限之外,那么这些误差不会累计到loss function,反之,如果相差在界限范围内,这些误差就会累计到loss function,所以我们的目标就是寻找满足条件的参数W,使得训练样本都能被正确分类,并且让loss function尽可能地低。

为了进一步提升模型的稳健性,我们会引入regularization penalty,R(W),最常见的形式是二次式:R(W)=∑i∑jW2ij,所以引入R(W)之后,loss

function就包含数据误差和regularization penalty两部分,如下式所示:

L=1N∑iLi+λR(W)

展开之后得到:

L=1N∑i∑j≠yi[max(0,f(xi,W)j?f(xi,W)yi+Δ)]+λ∑i∑jW2ij

通过引入regularization penalty,可以使得权值的分布更加平衡,不会单独侧重于某些局部变量。

前面我们忽略了Δ值的探讨,Δ应该选择多少比较合适?在实际应用中,我们发现把Δ设为1.0是非常安全的,事实上,参数Δ,λ都是控制loss function中数据偏差与regularization penalty之间的平衡的,因为W的幅值对score有直接的影响,如果我们把幅值增大,那么预测的score也会变大,反之同样成立,所以Δ设为1.0还是100.0对最终的数据偏差不会有太多影响,因为可以通过调整W的幅值来消除Δ大小带来的影响,因此,起关键作用的是λ,控制着W以多大的步幅变化。

Softmax classifier

前面介绍的SVM是线性分类器,现在我们介绍另外一种常用的非线性分类器,Softmax classifier。SVM将预测值看做是一种score,而Softmax classifier将预测值看成是一种概率,Softmax classifier的映射函数没有变化,还是f(xi;W)=Wxi,但是它的loss function采取了另外一种形式,称为cross-entropy loss,其定义如下:

Li=?log??efyi∑jefj??=?fyi+log∑jefj

这里,我们用fj表示对第j类的预测值,与SVM一样,整个训练集的loss function将是所有样本的平均loss加上regularization误差R(W),函数fj(z)=ezj∑kezk称为softmax函数,它可以将一组实数映射到[0,1]之间,并且其和为1,从信息论的角度看,cross entropy衡量地是一个实际分布p和一个估计的分布q之间的相关性:

H(p,q)=?∑xp(x)log(q(x))

因此,Softmax分类器是缩小预测的每一类的概率与实际概率的cross entropy。

从概率的角度来看,我们可以看到表达式:

P(yi|xi;W)=efyi∑jefj

可以看做是给定一张图像,其属于某一类的概率,指数项给出了概率值,而分母的归一化保证概率在[0,1]之间,而且其和为1,这样我们可以引入最大似然估计去解释这个

模型,如果进一步的,我们假设W是属于某一特定分布,比如高斯分布,那么我们可以用最大后验概率估计去解释这个模型,这里提到这些,只是为了让大家对此有一个

直观的了解。实际编写程序的时候,由于指数运算可能会涉及到很大的值,可能会使得模型在数值上不够稳定,所以一般会引入一个常数项C,如下所示:

efyi∑jefj=CefyiC∑jefj=efyi+logC∑jefj+logC

C的选择没有特别地规定,可以自由选择,通常我们定义logC=?maxjfj。下图显示了SVM与Softmax分类器做图像分类的区别:

声明:lecture notes里的图片都来源于该课程的网站,只能用于学习,

请勿作其它用途,如需转载,请说明该课程(http://cs231n.stanford.edu/)为引用来源。

时间: 2024-10-12 15:06:43

Convolutional Neural Networks for Visual Recognition 2的相关文章

卷积神经网络用于视觉识别Convolutional Neural Networks for Visual Recognition

Table of Contents: Architecture Overview ConvNet Layers Convolutional Layer Pooling Layer Normalization Layer Fully-Connected Layer Converting Fully-Connected Layers to Convolutional Layers ConvNet Architectures Layer Patterns Layer Sizing Patterns C

Convolutional Neural Networks for Visual Recognition 8

Convolutional Neural Networks (CNNs / ConvNets) 前面做了如此漫长的铺垫,如今终于来到了课程的重点. Convolutional Neural Networks. 简称CNN,与之前介绍的一般的神经网络相似,CNN相同是由能够学习的权值与偏移量构成.每个神经元接收一些输入.做点积运算加上偏移量,然后选择性的通过一些非线性函数.整个网络终于还是表示成一个可导的loss function,网络的起始端是输入图像.网络的终端是每一类的预測值,通过一个ful

Convolutional Neural Networks for Visual Recognition 5

Setting up the data and the model 前面我们介绍了一个神经元的模型,通过一个激励函数将高维的输入域权值的点积转化为一个单一的输出,而神经网络就是将神经元排列到每一层,形成一个网络结构,这种结构与我们之前介绍的线性模型不太一样,因此score function也需要重新定义,神经网络实现了一系列的线性映射与非线性映射,这一讲,我们主要介绍神经网络的数据预处理以及score function的定义. data processing 给定一个训练集,S={xi∈RD|i

Convolutional Neural Networks for Visual Recognition 7

Two Simple Examples softmax classifier 后,我们介绍两个简单的例子,一个是线性分类器,一个是神经网络.由于网上的讲义给出的都是代码,我们这里用公式来进行推导.首先看softmax classifier 的例子.给定输入X∈RN×D,权值W∈RD×K,偏移量b∈R1×K,我们可以得到分类器对每个样本的预测分数:f=XW+b,我们可以用softmax 函数将预测分数转为概率:pi=efi∑jefj,pi 表示样本属于第i类的概率,fi,fj表示线性函数对样本属于

cs231n Convolutional Neural Networks for Visual Recognition 2 SVM softmax

linear classification 上节中简单介绍了图像分类的概念,并且学习了费时费内存但是精度不高的knn法,本节我们将会进一步学习一种更好的方法,以后的章节中会慢慢引入神经网络和convolutional neural network.这种新的算法有两部分组成: 1. 评价函数score function,用于将原始数据映射到分类结果(预测值): 2. 损失函数loss function, 用于定量分析预测值与真实值的相似程度,损失函数越小,预测值越接近真实值. 我们将两者结合,损失

Convolutional Neural Networks for Visual Recognition 4

Modeling one neuron 下面我们开始介绍神经网络,我们先从最简单的一个神经元的情况开始,一个简单的神经元包括输入,激励函数以及输出.如下图所示: 一个神经元类似一个线性分类器,如果激励函数是sigmoid 函数(σ(x)=1/(1+e?x)),那么σ(∑iwixi+b)相当于是求该输入所对应的输出为1的概率,P(y=1|xi;w),那么该输入所对应的输出为0的概率为 P(y=0|xi;w)=1?P(y=1|xi;w).在神经网络中,常用的激励函数一个是sigmoid函数,另一个是

CS231n: Convolutional Neural Networks for Visual Recognition - Spring 2017

喜大普奔!!!!! CS231n 2017新鲜出炉啦!!!!! 课程主页:http://cs231n.stanford.edu/ 有讲义,有教案,有讲座,更重要的是--还有官方授课视频!!!!!意不意外?惊不惊喜?开不开心???!!!

Convolutional Neural Networks for Visual Recognition 6

-###Learning 前面,我们介绍了神经网络的构成,数据的预处理,权值的初始化等等.这一讲,我们将要介绍神经网络参数学习的过程. Gradient Checks 梯度的运算,在理论上是简单的,但是在实际的应用中,却非常容易出错,梯度的运算常见的有如下两种形式: 形式一: df(x)dx=f(x+h)?f(x)h h是一个很小的常数,实际运算的时候,h大概等于1e?5,但我们通常会用下面这种形式计算梯度: 形式二: df(x)dx=f(x+h)?f(x?h)2h 利用这个表达式,需要我们对l

Convolutional Neural Networks for Visual Recognition 3

Gradient Computing 前面我们介绍过分类器模型一般包含两大部分,一部分是score function,将输入的原始数据映射到每一类的score,另外一个重要组成部分是loss function,计算预测值 与实际值之间的误差,具体地,给定一个线性分类函数:f(xi;W)=Wxi,我们定义如下的loss function: L=1N∑i∑j≠yi[max(0,f(xi,W)j?f(xi,W)yi+1)]+αR(W) 我们看到L与参数W有关,所以我们需要找到一个合适的W使得L尽可能小