1.线性回归、Logistic回归、Softmax回归

本次回归章节的思维导图版总结已经总结完毕,但自我感觉不甚理想。不知道是模型太简单还是由于自己本身的原因,总结出来的东西感觉很少,好像知识点都覆盖上了,但乍一看,好像又什么都没有。不管怎样,算是一次尝试吧,慢慢地再来改进。在这里再梳理一下吧!


线性回归(Linear Regression

  1. 什么是回归?

给定一些数据,{(x1,y1),(x2,y2)…(xn,yn) },x的值来预测y的值,通常地,y的值是连续的就是回归问题,y的值是离散的就叫分类问题。

高尔顿的发现,身高的例子就是回归的典型模型。

  1. 回归分为线性回归(Linear Regression)和Logistic 回归。

线性回归可以对样本是线性的,也可以对样本是非线性的,只要对参数是线性的就可以,所以线性回归能得到曲线。

  1. 线性回归的目标函数?

(1)

为了防止过拟合,将目标函数增加平方和损失:

(2)

增加了平方和损失,是2次的正则,叫L2-norm,有个专有名字:Ridge。【岭回归】

也可以增加绝对值损失,叫L1-norm,也有个专有名字:Lasso。

都假定参数θ服从高斯分布。

  1. 目标函数的推导?

以极大似然估计解释最小二乘。过程如下:

(3)

  1. θ的解析式?

一句话:目标函数对θ求偏导,再求驻点。

防止过拟合,加入λ扰动:本质是L2-norm

  1. 梯度下降算法?

梯度下降得到得是局部最小值,而不是全局最小值。

SGD随机梯度下降的优点?

  1. 速度快
  2. 往往能跳出局部最小值
  3. 适合于在线学习

由于线性回归的目标函数是凸函数,所以在这个地方用梯度下降得到的就是全局最小值。

沿着负梯度方向迭代,更新后的θ会使得J(θ)更小。

注意:这里是对某一个样本,对θj求偏导。

每一个样本都对此时的θj求偏导。

注意:梯度是矢量,既有方向,又有值。例如,在二维空间中的表现为斜率,当斜率为1时,能想象方向,1不就是它的值吗?厉害了,竟然现在才明白过来。

梯度下降:(又称批量梯度下降batch gradient descent

得到所有样本后,再做梯度下降。

随机梯度下降:(stochastic gradient descent

来一个样本就进行梯度下降,来一个样本就进行梯度下降,适合于在线学习。

还有一个二者的折衷:

mini-batch:

攒够若干个做一次批梯度下降,若干个样本的平均梯度作为下降方向。

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

---------------------------------------------------------------------------------------------------------------------------

---------------------------------------------------------------------------------------------------------------------------

---------------------------------------------------------------------------------------------------------------------------

---------------------------------------------------------------------------------------------------------------------------

LR(Logistic Regression)Logistic回归

广义线性模型(General Linear Regression  GLR)

1.Logistic回归的损失函数?

负对数似然NLL。

Softmax回归是Logistic回归的多分类情况。

沿着似然函数正梯度上升

这个图很能理解线性回归和LR回归之间的关系。

LogisticRegression 就是一个被logistic方程归一化后的线性回归,仅此而已。

  1. 提到Logistic回归,首先要说他跟线性回归的联系:其实就是被Logistic方程归一化的线性回归。将预测的输出映射到0,1之间。以概率判断类别,大于0.5,判为一类,小于0.5判为一类。
  2. Logistic 方程/Sigmoid 函数,大概长这样。

概率分布函数:

似然函数:

对数似然:

对θj求偏导:

沿着梯度上升。梯度上升也行,梯度下降也对。

注意:线性回归里面求损失函数的最小值得时候用到了梯度下降算法。

一定注意,那个是求损失函数的最小值,越小越好,当然用下降;而在这里,要求对数似然函数的最大值,则需要沿着梯度上升,越大越好。到最后得到极大似然估计值θ,那么学到的Logistic回归模型就是:

一定注意,这两次用梯度的目的不同,一次是为了损失值最小,一次是为了似然值最大,一个下降,一个上升!

Logistic的损失函数:

负对数似然损失函数NLL。

可以很好的解释。

常见的损失函数

机器学习或者统计机器学习常见的损失函数如下:

1.0-1损失函数 (0-1 loss function)

2.平方损失函数(quadratic loss function)

3.绝对值损失函数(absolute loss function)

L(Y,f(x))=|Y?f(X)|

4.对数损失函数(logarithmic loss function) 或对数似然损失函数(log-likehood loss function)

逻辑回归中,采用的则是对数损失函数。如果损失函数越小,表示模型越好。

说说对数损失函数与平方损失函数

在逻辑回归的推导中国,我们假设样本是服从伯努利分布(0-1分布)的,然后求得满足该分布的似然函数,最终求该似然函数的极大值。整体的思想就是求极大似然函数的思想。而取对数,只是为了方便我们的在求MLE(Maximum Likelihood Estimation)过程中采取的一种数学手段而已。

全体样本的损失函数可以表示为:

这就是逻辑回归最终的损失函数表达式。

Logistic 回归的总结:

优点:方法简单、容易实现、效果良好、易于解释

特征选择很重要:人工选择,随机森林、PCA、LDA

梯度下降算法是参数优化的重要手段,尤其是SGD。(适用于在线学习,能挑出局部极小值。)

Softmax回归

Logistic回归的推广,概率计算公式:

本章总结:

对于线性回归,求解参数θ即可,可以用解析解的方法求解,也可以用梯度下降的方式求解。

对于Logistic回归和Softmax回归,推导及求解方式相同。基本遵循以下步骤:

  1. 给出分类概率函数
  2. 求累加的似然函数
  3. 转换为对数似然函数求驻点
  4. 利用梯度下降法求解。
时间: 2024-09-29 09:27:54

1.线性回归、Logistic回归、Softmax回归的相关文章

机器学习之线性回归---logistic回归---softmax回归

1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识.前四节主要讲述了回归问题,回归属于有监督学习中的一种方法.该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于预测或者分类.该方法处理的数据可以是多维的. 讲义最初介绍了一个基本问题,然后引出了线性回归的解决方法,然后针对误差问题做了概率解释.之后介绍了logistic回归.最后上升到理论层次,提出了一般回归. 2 问题引入 这个例子来自http://www.cnblogs.com/LeftNot

机器学习 —— 基础整理(五):线性回归;二项Logistic回归;Softmax回归;广义线性模型

本文简单整理了以下内容: (一)线性回归 (二)二分类:二项Logistic回归 (三)多分类:Softmax回归 (四)广义线性模型 二项Logistic回归是我去年入门机器学习时学的第一个模型,我觉得这个模型很适合用来入门(但是必须注意这个模型有很多很多很多很多可以展开的地方).比较有意思的是那时候还不会矩阵微积分,推导梯度时还是把矩阵全都展开求的(牛顿法要用的二阶梯度也是)... 下面的文字中,"Logistic回归"都表示用于二分类的二项Logistic回归. 首先约定一下记号

02-13 Softmax回归

目录 Softmax回归 一.Softmax回归详解 1.1 让步比 1.2 不同类之间的概率分布 1.3 目标函数 1.4 目标函数最大化 二.Softmax回归优缺点 2.1 优点 2.2 缺点 更新.更全的<机器学习>的更新网站,更有python.go.数据结构与算法.爬虫.人工智能教学等着你:https://www.cnblogs.com/nickchen121/ Softmax回归 Softmax回归属于多分类\(c_1,c_2,\ldots,c_k\)模型,它通过估计某个样本属于\

从Softmax回归到Logistic回归

Softmax回归是Logistic回归在多分类问题上的推广,是有监督的. 回归的假设函数(hypothesis function)为,我们将训练模型参数,使其能够最小化代价函数: 在Softmax回归中,我们解决的是多分类问题,类标y可以取k个不同的值.对于给定的测试输入x,我们想用假设函数针对每一个类别j估算出概率值.也就是说,我们想估计x的每一种分类结果的概率.因此,我们的假设函数将要输出一个k维的向量(向量元素的和为1)来表示这k个估计的概率值.具体地说,我们的假设函数形式如下: 其中,

Softmax回归(Softmax Regression, K分类问题)

Softmax回归:K分类问题, 2分类的logistic回归的推广.其概率表示为: 对于一般训练集: 系统参数为: Softmax回归与Logistic回归的关系 当Softmax回归用于2分类问题,那么可以得到: 令θ=θ0-θ1,就得到了logistic回归.所以实际上logistic回归虽然有2个参数向量,但这2个参数向量可以退化到1个参数向量.推广到K个类别,那么就需要K-1个参数向量 参数求解 类似于logistic regression,求最大似然概率,有: 其中1{k=y}为真值

softmax回归(理论部分解释)

前面我们已经说了logistic回归,训练样本是,(且这里的是d维,下面模型公式的x是d+1维,其中多出来的一维是截距横为1,这里的y=±1也可以写成其他的值,这个无所谓不影响模型,只要是两类问题就可以),训练好这个模型中参数θ以后(或者是这个模型,这俩是一个模型),然后给入一个新的,我们就可以根据模型来预测对应label=1或0的概率了. 前面处理的是两类问题,我们想把这个两类问题扩展,即根据训练好的模型,给入一个新的,我们就可以根据模型来预测对应label=1,2,…k等多个值的概率.我们首

Softmax回归

Reference:http://ufldl.stanford.edu/wiki/index.php/Softmax_regression 起源:Logistic的二类分类    Softmax回归是Logistic回归的泛化版本,用于解决线性多类(K类)的分类问题.Logistic回归可以看作是Softmax回归在K=2时的特例. ①如何从2类转化为K类? 解决方案是引入K组(W.b)参数,选择$max P(Y=j|x^{i},\theta,b)$作为最终分类即可. 由于存在K组参数,原来的$

DeepLearning tutorial(1)Softmax回归原理简介+代码详解

DeepLearning tutorial(1)Softmax回归原理简介+代码详解 @author:wepon @blog:http://blog.csdn.net/u012162613/article/details/43157801 本文介绍Softmax回归算法,特别是详细解读其代码实现,基于python theano,代码来自:Classifying MNIST digits using Logistic Regression,参考UFLDL. 一.Softmax回归简介 关于算法的详

DeepLearning之路(二)SoftMax回归

Softmax回归 1. softmax回归模型 softmax回归模型是logistic回归模型在多分类问题上的扩展(logistic回归解决的是二分类问题). 对于训练集,有. 对于给定的测试输入,我们相拥假设函数针对每一个类别j估算出概率值.也就是说,我们估计得每一种分类结果出现的概率.因此我们的假设函数将要输入一个维的向量来表示这个估计得概率值.假设函数形式如下: 其中是模型的参数.这一项对概率分布进行归一化,舍得所有概率之和为1. softmax回归的代价函数: 上述公式是logist