机器学习(一)——线性回归、分类与逻辑回归

http://antkillerfarm.github.io/

这是根据Andrew Ng的《机器学习讲义》,编写的系列blog。

http://www.cnblogs.com/jerrylead/archive/2012/05/08/2489725.html

这是网友jerrylead翻译整理的版本,也是本文的一个重要的参考。

http://www.tcse.cn/~xulijie/

这是jerrylead的个人主页。

我写的版本在jerrylead版本的基础上,略有增删,添加了一下其他资料里的内容。

还有就是使用Mathjax书写公式,便于其他人的修改与传播。

线性回归

线性回归属于有监督学习(supervised learning)的其中一种方法。

对于一个给定的训练集(training set)(x,y),其中y=h(x)=h(x1,x2,…,xn),在h未知的情况下,求得h或者h的近似解的过程,被称为猜测(hypothesis)。hypothesis的目的是,能在给定x的情况下,预测y。

如果y是连续函数,那么这个过程叫做回归(regression)问题。如果y是离散函数,那么这个过程叫做分类(classification)问题。

hθ(x)=θ0+θ1x1+?+θnxn=∑i=0nθixi=θTx(1)

满足公式1条件的回归问题,被称作线性回归(Linear Regression)。

为了评估公式1中待定系数θ的预测准确度,我们定义如下代价函数(cost function):

J(θ)=12∑i=0m(hθ(x(i))?y(i))2(2)

其中,m表示训练集的个数(从0算起),x(i)表示第i个训练样本。

代价函数的表达式,实际上就是正态分布的方差计算公式,它体现了拟合后的函数曲线与样本集之间的偏差程度。显然,代价函数的值越小,预测准确度越高。

Jacobian矩阵

Jacobian矩阵是矩阵A的一阶导数矩阵,定义如下:

J(A)=dfdx=??????????f1?x1??fm?x1????f1?xn??fm?xn?????????

注:Carl Gustav Jacob Jacobi,1804~1851,德国数学家,柏林大学博士。

当m=1时,该矩阵又被称为梯度向量:

?(A)=[?f?x1??f?xn]

Hessian矩阵

Hessian矩阵是矩阵A的二阶导数矩阵,定义如下:

H(A)=?????????????????2f?x21?2f?x2?x1??2f?xn?x1?2f?x1?x2?2f?x22??2f?xn?x2?????2f?x1?xn?2f?x2?xn??2f?x2n????????????????

注:Ludwig Otto Hesse,1811~1874,德国数学家,毕业于柯尼斯堡大学,Jacobi的学生。

因为?2f?xi?xj=?2f?xj?xi(克莱罗定理,Clairaut’s theorem),所以Hessian矩阵通常是一个对称矩阵。

参考:

http://blog.csdn.net/dsbatigol/article/details/12558891

梯度下降算法

公式2的求极值问题,实际上就是求驻点(stationary point)的问题,即求?(f)=0的点的问题。

梯度下降(gradient descent)算法的原理,从直观来说,就是沿着梯度向量的反方向,向坡底前进。该算法是一个递归算法,其迭代公式为:

xk+1=xk?tkAk?f(xk)

其中,tk表示迭代的步长,?f(xk)为梯度向量,Ak为系数矩阵。根据tk和Ak的取法不同会产生出各种各样的变种算法。

例如,当Ak=H(xk)?1时,就是著名的牛顿迭代法(Newton Method)。可以证明,牛顿迭代法具有二阶收敛性(在二阶以内的所有系数矩阵中,收敛最快)。

名称 梯度下降算法 牛顿迭代法
迭代次数 收敛慢,迭代次数多。 收敛快,迭代次数少。
迭代计算复杂度 O(n) O(n3)
实现难点 步长需要一定的方法来确定。 H(xk)需要满秩,且H(xk)?1的计算比较复杂,尤其是维数很高的时候。

梯度下降算法只有当函数为凸函数时,才会严格收敛到最小值。否则的话,可能只是极小值,而非最小值。如下图所示:

凸集(Convex set)的图例如下所示:

Convex set non-Convex set convex function

参考:

http://freemind.pluskid.org/machine-learning/gradient-descent-wolfe-s-condition-and-logistic-regression/

http://freemind.pluskid.org/machine-learning/newton-method/

LMS算法

LMS(least mean squares,最小均方)算法,也是一种迭代算法。其迭代公式为:

θj:=θj?α?J(θ)?θj(3)

其中,:=表示赋值操作,J(θ)是公式2所示的代价函数,α被称作学习率(learning rate)。

可以看出,LMS的迭代公式是梯度下降算法的一个特例,其中,α相当于步长,系数矩阵A=E,这里的E表示单位矩阵。

将公式2代入公式3,可得:

θj:=θj+α(y(i)?hθ(x(i)))x(i)j(4)

迭代方式分为两种:

1.批量梯度下降(batch gradient descent)算法。方法如下:

Repeat until convergence {

θj:=θj+α∑mi=1(y(i)?hθ(x(i)))x(i)j(for every j)

}

2.随机梯度下降(stochastic gradient descent)算法。方法如下:

Loop {

for i=1 to m, {

θj:=θj+α(y(i)?hθ(x(i)))x(i)j(for every j)

}

}

名称 | 批量梯度下降 | 随机梯度下降

|:–:|:–:|:–:|

特点 | 每向前走一步,都需要遍历整个训练样本集。 | 一个样本接着一个样本的处理数据。

计算复杂度 | 大 | 小

收敛程度 | 收敛 | 由于新样本引入新的误差,该算法只能收敛到一定程度,而不能无限逼近最小值。

正规方程组算法

正规方程组(Normal Equations)算法,是传统的以解方程的方式求最小值的方法。

如果,令

X=???????(x(1))T(x(2))T?(x(m))T???????,y? =???????(y(1))(y(2))?(y(m))???????

则:

θ=(XTX)?1XTy?

这种解方程的算法,实际上就是通常所说的最小二乘法(Least squares)。

优点:解是精确解,而不是近似解。不是迭代算法,程序实现简单。不在意X特征的scale。比如,特征向量X={x1,x2}, 其中x1的range为1~2000,而x2的range为1~4,可以看到它们的范围相差了500倍。如果使用梯度下降方法的话,会导致椭圆变得很窄很长,而出现梯度下降困难,甚至无法下降梯度(因为导数乘上步长后可能会冲到椭圆的外面)的问题。

缺点:维数高的时候,矩阵求逆运算的计算量很大。

插值问题

回归问题在数学上和插值问题是同一类问题。除了线性插值(回归)之外,还有多项式插值(回归)问题。

这里以一元函数为例,描述一下多项式插值问题。

对于给定的k+1个点(x0,y0),…,(xk,yk),求f(x)=∑ki=0aixi经过给定的k+1个点。显然k=1的时候,是线性插值。

多项式插值算法有很多种,最经典是以下两种:

1.拉格朗日插值算法(the interpolation polynomial in the Lagrange form)

L(x)=∑j=0kyjlj(x),lj(x)=∏0≤m≤km≠jx?xmxj?xm

2.牛顿插值算法(the interpolation polynomial in the Newton form)

N(x)=∑j=0kajnj(x),nj(x)=∏i=0j?1(x?xi),aj=[y0,…,yj]

此外还有分段插值法,即将整个定义域分为若干区间,在区间内部进行线性插值或多项式插值。

欠拟合与过拟合

对于上图所示的6个采样点,采用线性回归时(左图),拟合程度不佳。如果采用二次曲线(中图)的话,效果就要好得多了。但也不是越多越好,比如五次曲线(右图)的情况下,虽然曲线完美的经过了6个采样点,但却偏离了实际情况——假设横轴表示房屋面积,纵轴表示房屋售价。

我们把左图的情况叫做欠拟合(Underfitting),右图的情况叫做过拟合(Overfitting)。

这里换个角度看:如果我们把上述多项式回归中的x,x2,…,xn看作是线性回归时的特征集的话,那么多项式回归就可以转化成为线性回归。

从中可以看出,欠拟合或过拟合实际上就是线性回归中的特征集选取问题。特征集选取不当,就会导致预测不准。

局部加权线性回归

局部加权线性回归(LWR,locally weighted linear regression)算法是一种对特征集选取不敏感的算法。它将公式2中的代价函数修改为:

J(θ)=12∑i=0mω(i)(hθ(x(i))?y(i))2(5)

其中,ω(i)被称为权重,它有多种选取方法,最常用的是:

ω(i)=exp(?(x(i)?x)22τ2)

其中,τ被称为带宽(bandwidth)。实际上,这就是一个高斯滤波器。离采样点x越近,其权重越接近1。

分类与逻辑回归

二分类

结果集y的取值只有0和1的分类问题被称为二分类,其中0被称为negative class,1被称为positive class,也可用“-”和“+”来表示。

逻辑回归

为了将线性回归的结果约束到[0,1]区间,我们将公式1修改为:

hθ(x)=g(θTx)=11+e?θTx(6)

公式6又被称为logistic function或sigmoid function。函数g(z)的图像如下所示:

事实上,任何[0,1]区间的平滑增函数,都可以作为g(z),但公式6的好处在于

g′(z)=g(z)(1?g(z))

评估逻辑回归(Logistic regression)的质量,需要用到最大似然估计(maximum likelihood estimator)方法(由Ronald Aylmer Fisher提出)。最大似然估计是在“模型已定,参数未知”的情况下,寻找使模型出现的概率最大的参数集θ的方法。显然,参数集θ所确定的模型,其出现概率越大,模型的准确度越高。

最大似然估计中采样需满足一个很重要的假设,就是所有的采样都是独立同分布的(independent and identically distributed,IID),即:

f(x1,…,xn;θ)=f(x1;θ)×?×f(xn;θ)

似然估计函数如下所示:

L(θ)=∏i=1mp(y(i)|x(i);θ)

时间: 2024-10-11 07:42:12

机器学习(一)——线性回归、分类与逻辑回归的相关文章

【机器学习算法应用和学习_2_理论篇】2.2 M_分类_逻辑回归

一.原理阐述 算法类型:监督学习_分类算法 输入:数值型或标称型(标称型需要独热编码) V1.0 用回归方式解决二分类问题,通过引入一个Sigmoid函数将中间y值映射到实际二分类的y值上. 二.算法选择 三.算法过程 1.Sigmoid函数是一个x值域是(-∞,+∞),y值域是(0,1)的单调递增函数: 2.预测y值>0.5为1类,<0.5为0类,y值也可以解释为为1和0类的概率: 3.同样使用“最小二乘”概念,求得最佳方程,得到目标函数: 4.要使得目标函数达到最小,需要采用一种称为“梯度

第二章 分类和逻辑回归

分类和逻辑回归 接下来讨论分类问题,类似于回归问题,只不过y的值只有少数离散的值.现在我们考虑二分类问题,此时y只有0和1两个值. 逻辑回归 构造假设函数$h_{\theta}(x)$: $h_{\theta}(x)=g(\theta^{(x)})=\frac{1}{1+e^{-\theta^{T}x}}$ 其中 $g(z)=\frac{1}{1+e^{-z}}$ $g^{'}(z)=g(z)(1-g(z))$ $g(z)$函数图像如下: $g^{'}(z)$函数图像如下: 假设: $P(y=1

分类和逻辑回归(Classification and logistic regression),广义线性模型(Generalized Linear Models) ,生成学习算法(Generative Learning algorithms)

分类和逻辑回归(Classification and logistic regression) http://www.cnblogs.com/czdbest/p/5768467.html 广义线性模型(Generalized Linear Models) http://www.cnblogs.com/czdbest/p/5769326.html 生成学习算法(Generative Learning algorithms) http://www.cnblogs.com/czdbest/p/5771

【机器学习笔记四】分类算法 - 逻辑回归

参考资料 [1]    Spark MLlib 机器学习实践 [2]    统计学习方法 1.Logistic分布 设X是连续随机变量,X服从Logistic分布是指X具有下列分布函数和密度函数 ,.其中u为位置参数,γ为形状参数.如下图: 分布函数以(u,1/2)为中心对称,满足:,其中形状参数γ越小,中心部分增加越快. 2.Logistic回归模型 二项logistic回归模型是一种分类模型,由条件概率P(Y|X)表示,这里随机变量X取实数,而Y取0或者1.定义: 和 Logistic回归比

机器学习的分类方法——逻辑回归

这个算法看得一知半解的,无论如何,先把理解的写下来,往后再迭代.还是以问题为导向: 这个分类模型如何构建? 这个模型的分类原理? 如何求解模型的参数? 逻辑回归模型有什么优点? 第一个问题,对于简单的线性模型,z=w·x+b,可以用它回归,然后利用最小二乘法求解参数w和b.当这个线性模型和sigmoid函数复合时,就构成了逻辑回归模型.对于sigmoid函数,如下图:其将z(图中的x替换为z) 第二个问题,根据对"事件几率"的定义:给事件发生与不发生的概率比,

机器学习算法笔记1_2:分类和逻辑回归(Classification and Logistic regression)

形式: 采用sigmoid函数: g(z)=11+e?z 其导数为g′(z)=(1?g(z))g(z) 假设: 即: 若有m个样本,则似然函数形式是: 对数形式: 采用梯度上升法求其最大值 求导: 更新规则为: 可以发现,则个规则形式上和LMS更新规则是一样的,然而,他们的分界函数hθ(x)却完全不相同了(逻辑回归中h(x)是非线性函数).关于这部分内容在GLM部分解释. 注意:若h(x)不是sigmoid函数而是阈值函数: 这个算法称为感知学习算法.虽然得到更新准则虽然相似,但与逻辑回归完全不

机器学习之——判定边界和逻辑回归模型的代价函数

判定边界(Decision Boundary) 上一次我们讨论了一个新的模型--逻辑回归模型(Logistic Regression),在逻辑回归中,我们预测: 当h?大于等于0.5时,预测y=1 当h?小于0.5时,预测y=0 根据上面的预测,我们绘制出一条S形函数,如下: 根据函数图像,我们知道,当 z=0时,g(z)=0.5 z>0时,g(z)>0.5 z<0时,g(z)<0.5 又有: 所以 以上,为我们预知的逻辑回归的部分内容.好,现在假设我们有一个模型: 并且参数?是向

机器学习笔记(六)逻辑回归

一.逻辑回归问题 二分类的问题为是否的问题,由算出的分数值,经过sign函数输出的是(+1,-1),想要输出的结果为一个几率值,则需要改变函数模型 ,其中,, 则逻辑回归的函数为 二.逻辑回归错误评价 线性分类和线性回归的模型为: 其中的线性分数函数均为,逻辑回归有同样的分数函数,模型为 逻辑回归的理想函数为 对于函数f(x),在数据情况下,D的所有数据在函数下的联合概率为 ,我们想要的模型h要使,则对于h来说,在数据D中也符合, 要使需要找到一个g使它发生的可能性最大,即 由 p(x1),p(

分类和逻辑回归(Classification and logistic regression)

分类问题和线性回归问题问题很像,只是在分类问题中,我们预测的y值包含在一个小的离散数据集里.首先,认识一下二元分类(binary classification),在二元分类中,y的取值只能是0和1.例如,我们要做一个垃圾邮件分类器,则为邮件的特征,而对于y,当它1则为垃圾邮件,取0表示邮件为正常邮件.所以0称之为负类(negative class),1为正类(positive class) 逻辑回归 首先看一个肿瘤是否为恶性肿瘤的分类问题,可能我们一开始想到的是用线性回归的方法来求解,如下图: