logistic回归和用最大似然估计选取CostFunction

逻辑回归的想法是用回归的方法来解决分类问题,然而直接用线性回归达不到我们想要的效果如下图(原因不再赘述),所以我们选取了sigmoid函数来进行拟合,原因以后阐述。

所以我们选择了如下的函数来拟合:

然而,应该怎样定义它的CostFunction呢?同样,线性回归为何选用最小二乘法的CostFunction?

先给出不准确的定义:这个Cost函数就只有一个极值点,且为极小值(如何判断?导数为0点只有一个,且当x大于极值点时,导数恒大于0,所有的能用梯度下降来拟合的函数必须满足这一关系)

其实,CostFunction的选取来源于极大似然估计:

以线性回归为例:

我们可以把y表示成以下形式:

其中最后的误差项代表我们未考虑的因素带来的误差(比如预测房价是我们没有考虑采光这一特征),且假设这个误差项服从均值为0的高斯分布,那么误差项的概率密度为:

那么,预测出来的y的概率密度为:

以下,我们要用最大似然估计来确定theta的值,是我们预测的结果概率最大(具体参见概率密度定义):

用对应公式求得:

取对数得到costFunction:

可知,要使上式最大就是是减号后面的部分最小,即得到了我们需要的CostFunction!

逻辑回归也是一样,,只是不是梯度下降,是梯度上升,如下:

最大似然估计为:

取对数得到CostFuction:

这回,theta需要使上式最大!很明显,上式只有一个极大值,应该是梯度上升!所以得到:

得到theta的更新式为:

综上:logistic回归与线性回归还是有很大的区别的,不仅在于拟合曲线不一样,CostFunction也不同,只是最后换算后theta的更新表达式相同罢了,具体是巧合还是必然,待研究以后来此说明。

具体的代码参见下一篇博文,思路参见点击打开链接

补充:其实关于上述论述还有其他的解释和说明,但实质并不冲突。

时间: 2024-10-09 22:48:34

logistic回归和用最大似然估计选取CostFunction的相关文章

对线性回归,logistic回归和一般回归的认识

假设有一个房屋销售的数据如下:这个表类似于北京5环左右的房屋价钱,我们可以做出一个图,x轴是房屋的面积.y轴是房屋的售价,如下: 如果来了一个新的面积,假设在销售价钱的记录中没有的,我们怎么办呢? 我们可以用一条曲线去尽量准的拟合这些数据,然后如果有新的输入过来,我们可以在将曲线上这个点对应的值返回.如果用一条直线去拟合,可能是下面 的样子:绿色的点就是我们想要预测的点. 首先给出一些概念和常用的符号. 房屋销售记录表:训练集(training set)或者训练数据(training data)

机器学习之线性回归---logistic回归---softmax回归

1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识.前四节主要讲述了回归问题,回归属于有监督学习中的一种方法.该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于预测或者分类.该方法处理的数据可以是多维的. 讲义最初介绍了一个基本问题,然后引出了线性回归的解决方法,然后针对误差问题做了概率解释.之后介绍了logistic回归.最后上升到理论层次,提出了一般回归. 2 问题引入 这个例子来自http://www.cnblogs.com/LeftNot

【转载】对线性回归,logistic回归和一般回归的认识

对线性回归,logistic回归和一般回归的认识 [转载时请注明来源]:http://www.cnblogs.com/jerrylead JerryLead 2011年2月27日 作为一个机器学习初学者,认识有限,表述也多有错误,望大家多多批评指正. 1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识.前四节主要讲述了回归问题,回归属于有监督学习中的一种方法.该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于预测或者分类.该方法处理的数据可以是多

Logistic回归总结

转自:http://blog.csdn.net/dongtingzhizi/article/details/15962797 Logistic回归总结 作者:洞庭之子 微博:洞庭之子-Bing (2013年11月) PDF下载地址:http://download.csdn.net/detail/lewsn2008/6547463 1.引言 看了Stanford的Andrew Ng老师的机器学习公开课中关于Logistic Regression的讲解,然后又看了<机器学习实战>中的Logisti

对线性回归,logistic回归和一般回归

对线性回归,logistic回归和一般回归 [转自]:http://www.cnblogs.com/jerrylead JerryLead 2011年2月27日 作为一个机器学习初学者,认识有限,表述也多有错误,望大家多多批评指正. 1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识.前四节主要讲述了回归问题,回归属于有监督学习中的一种方法.该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于预测或者分类.该方法处理的数据可以是多维的. 讲义最初介

机器学习之线性回归以及Logistic回归

1.线性回归 回归的目的是预测数值型数据的目标值.目标值的计算是通过一个线性方程得到的,这个方程称为回归方程,各未知量(特征)前的系数为回归系数,求这些系数的过程就是回归. 对于普通线性回归使用的损失函数一般为平方误差.把其用最小二乘法进行优化得到的关于系数w求导所得到的矩阵形式的表达式求得的w便为最优解了. 线性回归可以参考:https://www.cnblogs.com/pinard/p/6004041.html 2.Logistic回归 逻辑回归假设数据服从伯努利分布,以最大化条件概率为学

Logistic回归

Logistic回归 主要思想: 根据训练集找到一个适合的预测函数(线性函数),一般用h表示,该函数就是我们需要找的分类函数,用它来预测输入数据的分类. 构造一个Cost(损失函数),该函数为每个输入数据的预测类别(h)与真实数据的类别(y)之间的偏差,可以以二者间的差值,即(h-y)或其他形式来计算偏差.由于需要综合考虑所有训练数据的损失,需要将数据的损失求和或求平均,表示所有训练数据预测出的类别与实际类别的偏差,将Cost求和或者求平均,记为J(θ),表示所有训练数据预测值与实际值得偏差.

logistic回归与手写识别例子的实现

本文主要介绍logistic回归相关知识点和一个手写识别的例子实现 一.logistic回归介绍: logistic回归算法很简单,这里简单介绍一下: 1.和线性回归做一个简单的对比 下图就是一个简单的线性回归实例,简单一点就是一个线性方程表示 (就是用来描述自变量和因变量已经偏差的方程) 2.logistic回归 可以看到下图,很难找到一条线性方程能将他们很好的分开.这里也需要用到logistic回归来处理了. logistic回归本质上是线性回归,只是在特征到结果的映射中加入了一层函数映射,

Logistic回归原理及公式推导[转]

原文见 http://blog.csdn.net/acdreamers/article/details/27365941 Logistic回归为概率型非线性回归模型,是研究二分类观察结果与一些影响因素之间关系的一种多 变量分析方法.通常的问题是,研究某些因素条件下某个结果是否发生,比如医学中根据病人的一些症状来判断它是 否患有某种病. 在讲解Logistic回归理论之前,我们先从LR分类器说起.LR分类器,即Logistic Regression Classifier. 在分类情形下,经过学习后