第二章 分类和逻辑回归

分类和逻辑回归

接下来讨论分类问题,类似于回归问题,只不过y的值只有少数离散的值。现在我们考虑二分类问题,此时y只有0和1两个值。

逻辑回归

构造假设函数$h_{\theta}(x)$:

$h_{\theta}(x)=g(\theta^{(x)})=\frac{1}{1+e^{-\theta^{T}x}}$

其中

$g(z)=\frac{1}{1+e^{-z}}$

$g^{‘}(z)=g(z)(1-g(z))$

$g(z)$函数图像如下:

$g^{‘}(z)$函数图像如下:

假设:

$P(y=1\mid x;\theta) = h_{\theta}(x)$

$P(y=0\mid x;\theta) = 1- h_{\theta}(x)$

等价于:

$P(y \mid x;\theta) = (h_{\theta}(x))^{y}(1- h_{\theta}(x))^{1-y}$

y取0或1

假设有m个训练样本,可以写出参数的概率公式:

$L(\theta) = p(\vec{y} \mid X; \theta)$

$L(\theta) =  \prod_{i=1}^{m}p(y^{(i)}\mid x^{(i)};\theta)$

$L(\theta) =  \prod_{i=1}^{m}  (h_{\theta}(x^{(i)}))^{y^{(i)}}(1- h_{\theta}(x^{(i)}))^{1-y^{(i)}} $

为了便于求解,先取对数:

$\iota(\theta) = logL(\theta)$

$\iota(\theta) = \sum_{i=1}^{m}y^{(i)}logh(x^{(i)}) + (1-y^{i()})log(1-h(x^{(i)}))$

单一训练样本下,求解梯度:

$\frac{\partial }{\partial  \theta_{j}}\iota(\theta) = (-h_{\theta}^{x})x_{j}$

因此,随机梯度下降法有:

$\theta_{j} := \theta_{j} + \alpha (y^{(i)} - h_{\theta}(x^{(i)}))x_{j}^{(i)}$

上式跟LMS更新规则很像,当学了GLM模型后便知原因。

时间: 2024-10-12 09:26:13

第二章 分类和逻辑回归的相关文章

机器学习(一)——线性回归、分类与逻辑回归

http://antkillerfarm.github.io/ 序 这是根据Andrew Ng的<机器学习讲义>,编写的系列blog. http://www.cnblogs.com/jerrylead/archive/2012/05/08/2489725.html 这是网友jerrylead翻译整理的版本,也是本文的一个重要的参考. http://www.tcse.cn/~xulijie/ 这是jerrylead的个人主页. 我写的版本在jerrylead版本的基础上,略有增删,添加了一下其他

分类和逻辑回归(Classification and logistic regression),广义线性模型(Generalized Linear Models) ,生成学习算法(Generative Learning algorithms)

分类和逻辑回归(Classification and logistic regression) http://www.cnblogs.com/czdbest/p/5768467.html 广义线性模型(Generalized Linear Models) http://www.cnblogs.com/czdbest/p/5769326.html 生成学习算法(Generative Learning algorithms) http://www.cnblogs.com/czdbest/p/5771

【机器学习算法应用和学习_2_理论篇】2.2 M_分类_逻辑回归

一.原理阐述 算法类型:监督学习_分类算法 输入:数值型或标称型(标称型需要独热编码) V1.0 用回归方式解决二分类问题,通过引入一个Sigmoid函数将中间y值映射到实际二分类的y值上. 二.算法选择 三.算法过程 1.Sigmoid函数是一个x值域是(-∞,+∞),y值域是(0,1)的单调递增函数: 2.预测y值>0.5为1类,<0.5为0类,y值也可以解释为为1和0类的概率: 3.同样使用“最小二乘”概念,求得最佳方程,得到目标函数: 4.要使得目标函数达到最小,需要采用一种称为“梯度

机器学习的分类方法——逻辑回归

这个算法看得一知半解的,无论如何,先把理解的写下来,往后再迭代.还是以问题为导向: 这个分类模型如何构建? 这个模型的分类原理? 如何求解模型的参数? 逻辑回归模型有什么优点? 第一个问题,对于简单的线性模型,z=w·x+b,可以用它回归,然后利用最小二乘法求解参数w和b.当这个线性模型和sigmoid函数复合时,就构成了逻辑回归模型.对于sigmoid函数,如下图:其将z(图中的x替换为z) 第二个问题,根据对"事件几率"的定义:给事件发生与不发生的概率比,

分类和逻辑回归(Classification and logistic regression)

分类问题和线性回归问题问题很像,只是在分类问题中,我们预测的y值包含在一个小的离散数据集里.首先,认识一下二元分类(binary classification),在二元分类中,y的取值只能是0和1.例如,我们要做一个垃圾邮件分类器,则为邮件的特征,而对于y,当它1则为垃圾邮件,取0表示邮件为正常邮件.所以0称之为负类(negative class),1为正类(positive class) 逻辑回归 首先看一个肿瘤是否为恶性肿瘤的分类问题,可能我们一开始想到的是用线性回归的方法来求解,如下图:

【机器学习笔记四】分类算法 - 逻辑回归

参考资料 [1]    Spark MLlib 机器学习实践 [2]    统计学习方法 1.Logistic分布 设X是连续随机变量,X服从Logistic分布是指X具有下列分布函数和密度函数 ,.其中u为位置参数,γ为形状参数.如下图: 分布函数以(u,1/2)为中心对称,满足:,其中形状参数γ越小,中心部分增加越快. 2.Logistic回归模型 二项logistic回归模型是一种分类模型,由条件概率P(Y|X)表示,这里随机变量X取实数,而Y取0或者1.定义: 和 Logistic回归比

机器学习算法笔记1_2:分类和逻辑回归(Classification and Logistic regression)

形式: 采用sigmoid函数: g(z)=11+e?z 其导数为g′(z)=(1?g(z))g(z) 假设: 即: 若有m个样本,则似然函数形式是: 对数形式: 采用梯度上升法求其最大值 求导: 更新规则为: 可以发现,则个规则形式上和LMS更新规则是一样的,然而,他们的分界函数hθ(x)却完全不相同了(逻辑回归中h(x)是非线性函数).关于这部分内容在GLM部分解释. 注意:若h(x)不是sigmoid函数而是阈值函数: 这个算法称为感知学习算法.虽然得到更新准则虽然相似,但与逻辑回归完全不

斯坦福吴恩达教授机器学习公开课第三讲笔记——局部加权回归/线性回归的概率解释/分类和逻辑回归

【机器学习算法应用和学习_3_代码API篇】3.2 M_分类_逻辑回归

一.V1.0(sklearn版) 1.1简易API 1.2复杂API 目的是尽量全. 1.3API资料 目的是前面不满足使用或不太理解可以从这里获得灵感. 原文地址:https://www.cnblogs.com/everda/p/11347992.html