一般线性模型

指数分布族

形式:

应用:

1. logistic 回归:

  • logistics 回归其实是伯努利分布。p(y;θ)=θy?(1?θ)1?y . 其中θ可以看做hθ(x)
  • 伯努利分布是指数分布的一个特列:

    其中:

    η=log(θ1?θ) 因此:θ=11+e?η

2.梯度下降:

  • 最小二乘法其实是高斯分布。

  • 高斯分布是指数分布的一个特列:

    y|x;θ ~ N(μ,σ2) , 其中σ2是无关项,不妨另σ2=1

    其中:

GLM模型建立

步骤:

1. 先建立指数分布模型,想用哪种分布去模拟

2.

  • 写出T(y) 与 y的关系式
  • 预测函数hθ(x)=E{T(y)|x;θ}
  • η=θTx

logistic 回归:

  • 准备用伯努利分布模拟,所以p(y;θ)=θy?(1?θ)1?y,整理后:

    所以我们有:

    • η=log(θ1?θ) 因此:θ=11+e?η , T(y)=y
    • 根据上述步骤:预测函数hθ(x)=E{T(y)|x;θ} = θ = 11+e?η
    • 由第三步知道:η=θTx
    • 因此:预测函数hθ(x)=E{T(y)|x;θ} = θ = 11+e?η = 11+e?θTx
  • 由此我们得到了我们需要的预测函数:hθ(x)=11+e?θTx,然后由最大似然法确定迭代式。

梯度下降(Linear Regression)

  • 准备用高斯分布模拟,所以:

  • 整理后我们有:
    • T(y)=y , η=μ
    • 所以预测函数:hθ(x)=E{T(y)|x;μ} = μ = η
    • 因为:η=θTx,所以:hθ(x)=θTx
  • 由此我们得到了我们需要的预测函数:hθ(x)=θTx,然后由最大似然法确定迭代式。

线性分类(Softmax Regression)

问题:

线性分类问题是logistic 回归的一个扩展,都是针对离散型结果,即分类问题。Softmax分类的Y值可以取{1, 2, 3, …… ,k} ,即有k中分类方式

模型建立:

  • p(y=i;θ)=θi
  • 上式整合:

  • 因此:

    求解该式子:

    因此:

  • 因为:η=θTx , 因此: ηi=θix, 其中我们可以知道θ是一个K*N维矩阵。

    所以:

  • 预测函数hθ(x):

迭代式子:

  • 利用最大似然法:

  • 然后利用梯度下降或Newton迭代法
时间: 2024-09-29 02:12:56

一般线性模型的相关文章

西瓜书第三章 线性模型

读书笔记 周志华老师的<机器学习> 因为边看边记,所以写在随笔里,如果涉及版权问题,请您联系我立马删除,[email protected] 3.1 基本形式 给定d个属性描述的示例 x = (x_1;x_2;...;x_3), 其中x_i是X在第i个属性上的取值,线性模型视图学得一个通过属性的线性组合来进行预测的函数,即 f(x) = w_1*x_1 + w_2*x_2 + ... + w_d*x_d + b, 向量形式 其中 w = (w_1;w_2;...;w_d). w直观表达了各属性在

从指数分布族去推导出广义线性模型

指数分布族的定义: 若一类概率分布可以写成如下形式,那么它就属于指数分布族: η - 自然参数,通常是一个实数 T(y) – 充分统计量,通常,T(y)=y,实际上是一个概率分布的充分统计量(统计学知识) 对于给定的a,b,T三个函数,上式定义了一个以η为参数的概率分布集合,即改变η可以得到不同的概率分布.极限定理得) 记录一下几个指数分布族以及它们的特征: 正态分布(高斯分布)--总体噪音(由中心极限定理得) 伯努利分布--逻辑回归(对01问题建模) 多项式分布--K种结果的事情进行建模 泊松

1.1.广义线性模型

下面介绍的是一组用于回归的方法,这些方法的目标值是输入变量的线性组合.用作为预测值. 贯穿模块,我们指定向量为coef_(系数),为intercept_(截距). 要使用广义线性模型实现分类,详见Logistic回归. 1.1.1.常规最小二乘法 线性回归拟合以系数最小化可观测到的数据的响应与线性模型预测的响应的残差和的平方,用数学公式表示即: LinearRegression 对数组X,y使用fit方法,并将结果的系数存放在coef_中: >>> from sklearn import

线性模型(3)——多重线性回归模型

前面介绍了简单线性回归模型,接下来讲多重线性回归模型. 简单线性回归是针对一个因变量和一个自变量之间的线性回归关系,而多重线性回归是指一个因变量和多个自变量之间的线性回归关系.相对于简单线性回归,多重线性回归更具有实际意义,因为在实际生活中,多因素相互作用非常普遍,同时对因变量造成影响的往往不止一个自变量. 多重线性回归主要解决的问题是1.估计自变量与因变量之间的线性关系(估计回归方程)2.确定哪些自变量对因变量有影响(影响因素分析)3.确定哪个自变量对因变量最影响最大,哪个最小(自变量重要性分

斯坦福《机器学习》Lesson4感想-------2、广义线性模型

在前面几篇中分类问题和回归问题里涉及到的伯努利分布和高斯分布都是广义线性模型(Generative Linear Models.GLMs)的特例.下面将详细介绍广义线性模型. 1.指数族 我们可以将一些分布总结到一个指数族中.指数族可表示为: η是指naturalparameter/canonical parameter,T (y)是指sufficientstatistic, a(η)是指logpartition function.T.a和b的选择决定了分布族,η的改变会得到这个分布族里的不同分

加州理工学院公开课:机器学习与数据挖掘_线性模型

这一课时主要是讲述了线性模型的一些处理. 包括: 1.输入数据的表示(Input Representation) 2.线性分类(Linear Classification) 3.线性回归(Linear Regression) 4.非线性模型转换(Nonlinear Transformation) 作者认为,如果要测试某个模型的可用性,做好就是用真实数据. 为了讲解线性模型如何应用,作者利用线性模型来解决邮局数据辨别问题: 由于不同的人有不同的书写习惯,对于同一个数字其书写形式可能各异,但是其基本

R语言实战(八)广义线性模型

本文对应<R语言实战>第13章:广义线性模型 广义线性模型扩展了线性模型的框架,包含了非正态因变量的分析. 两种流行模型:Logistic回归(因变量为类别型)和泊松回归(因变量为计数型) glm()函数的参数 分布族 默认的连接函数 binomial (link = "logit") gaussian (link = "identity") gamma (link = "inverse") inverse.gaussian (lin

指数分布族与广义线性模型

整理一下之前所学过的关于回归问题的思路: 问题引入:房屋估价,给定新的房屋信息,预测出相应的房屋价格: 学习过程:构建模型h(θ): 线性回归:最小二乘法.梯度下降法.线性模型的概率解释: 局部加权回归:带权重的线性回归.权值的钟形函数: 逻辑回归:分类方法.梯度上升法.牛顿法.引出感知机学习算法: 广义线性模型:指数分布族.给定概率分布推导出线性模型. 这一节所讨论的重点就是最后的这一条内容,回顾讨论过的线性回归与逻辑回归的假设可知: 在线性回归模型的概率解释中假设: 在逻辑回归模型的推导中假

Stanford大学机器学习公开课(四):牛顿法、指数分布族、广义线性模型

(一)牛顿法解最大似然估计 牛顿方法(Newton's Method)与梯度下降(Gradient Descent)方法的功能一样,都是对解空间进行搜索的方法.其基本思想如下: 对于一个函数f(x),如果我们要求函数值为0时的x,如图所示: 我们先随机选一个点,然后求出该点的切线,即导数,延长它使之与x轴相交,以相交时的x的值作为下一次迭代的值. 更新规则为: 那么如何将牛顿方法应用到机器学习问题求解中呢? 对于机器学习问题,我们优化的目标函数为极大似然估计L,当极大似然估计函数取得最大时,其导

线性模型

线性回归.线性分类.逻辑回归——线性模型线性回归和逻辑回归:https://www.evernote.com/shard/s146/sh/bf0d0a08-d5c5-4dc9-b70f-fa6374b9ceae/14e34bc9e8e518b1a5cc17fc585d75fc线性分类模型:http://www.douban.com/note/325298034/线性回归-理论篇:http://blog.csdn.net/pakko/article/details/36641561机器学习 ---