贝叶斯线性回归(Bayesian Linear Regression)

贝叶斯线性回归(Bayesian Linear Regression)

标签(空格分隔): 监督学习



@ author : [email protected]

@ time : 2015-06-19

原文地址

  • 贝叶斯线性回归Bayesian Linear Regression

    • 原文地址
    • 关于参数估计
    • 极大似然估计
      • 渐进无偏
      • 渐进一致
    • 最大后验估计
    • 贝叶斯估计
      • 贝叶斯估计核心问题
      • 贝叶斯估计第一个重要元素
      • 贝叶斯估计第二个重要元素
      • 贝叶斯估计的增量学习
    • 贝叶斯线性回归
      • 贝叶斯线性回归的学习过程
      • 贝叶斯回归的优缺点
      • 贝叶斯脊回归Bayesian Ridge Regression

本文的研究顺序是:

Created with Rapha?l 2.1.0极大似然估计最大后验估计贝叶斯估计贝叶斯线性回归

关于参数估计

在很多的机器学习或数据挖掘的问题中,我们所面对的只有数据,但数据中潜在的概率密度函数是不知道的,其概率密度分布需要我们从数据中估计出来。想要确定数据对应的概率密度分布,就需要确定两个东西:概率密度函数的形式概率密度函数的参数

有时可能知道的是概率密度函数的形式(高斯、瑞利等等),但是不知道具体的参数,例如均值或者方差;还有的时候可能不知道概率密度的类型,但是知道一些估计的参数,比如均值和方差。

关于上面提到的需要确定的两个东西:概率密度函数的形式参数,至少在机器学习的教课书上,我所看到的情况都是:给了一堆数据,然后假设其概率密度函数的形式为 高斯分布 ,或者是混合高斯分布,那么,剩下的事情就是对高斯分布的参数,μ 和 σ2 进行估计。所以,参数估计,便成了极其最重要的问题。

其实,常用的参数估计方法有:极大似然估计、最大后验估计、贝叶斯估计、最大熵估计、混合模型估计。他们之间是有递进关系的,想要理解后一个参数估计方法,最好对前一个参数估计有足够的理解。

要想清晰的说明贝叶斯线性回归,或者叫做贝叶斯参数估计,就必须对极大似然估计、最大后验估计做详细的说明,他们之间是有递进的关系的。

极大似然估计

在之前《多项式回归》的文章中,用最后一小节是线性回归的概率解释,其中就说明了以平方误差维损失函数的最小二乘法和极大似然估计的等价性,在这个基础上,本文更为详细的讨论极大似然估计。

这里先以一个分类问题来说明一般参数估计面对的数据形式。考虑一个M类的问题,特征向量服从p(x|ωi),i=1,2...,M 分布。这是现实情况中最常见的一种数据存在形式,数据集合X是由M个类别的数据子集Xm,m=1,2...,M 组成的,第m类别的数据子集Xm 对应的概率密度函数是p(x|ωm)。

前面已经介绍过了,想要确定数据的概率分布,需要知道概率密度函数的 形式参数,这里首先做一个基本假设:概率分布的形式已知,比如假设每个类别的数据都满足高斯分布,那么,似然函数就可以以参数  θi 的形式表示,如果是高斯分布,则参数为μi和σ2i,即θi=(μi,σ2i)。

为了强调概率分布p(x|ωi)和 θi 有关,将对应的概率密度函数记为p(x|ωi;θi),这种记法属于频率概率学派的记法。这里的极大似然估计对应于一个类条件概率密度函数

在概率论中一直有两大学派,分别是频率学派和贝叶斯学派。简单点说,频率学派认为,概率是频率的极限,比如投硬币,当实验次数足够大时,正面朝上的频率可以认为是这枚硬币正面朝上的概率,这个是频率学派。但是,如果要预测一些未发生过的事情,比如,北极的冰山在2050年完全融化的概率,由于这个事情完全没有发生过,所以无法用频率来代替概率表示,只能研究过去几十年,北极冰山融化的速率,并将其作为先验条件,来预测北极的冰山在2050年完全融化的概率,这就是概率的贝叶斯学派。上面的问题,如果用贝叶斯学派的记法的话,是:p(x|ωi,θi)。这两个学派适用的情况不太一样,但是,在我目前所用到的概率论的知识中,貌似这两个学派并没有什么太大的区别,只是记法略有不同,稍微注意下即可。

从上面的描述中可以知道,利用每一个类Xi中已知的特征向量集合,可以估计出其对应的参数θi。进一步假设每一类中的数据不影响其他类别数据的参数估计,那么上面的M个类别的参数估计就可以用下面这个统一的模型,独立的解决:

设x1,x2,...,xN 是从概率密度函数p(x;θ)中随机抽取的样本,那么就可以得到联合概率密度函数 p(X;θ), 其中X={x1,x2,...,xN} 是样本集合。假设不同的样本之间具有统计独立性,那么:

p(X;θ)≡p(x1,x2,...,xN;θ)=∏k=1Np(xk;θ)

注意:这里的p(xk;θ) 本来的写法是 p(x|ωi;θi) , 是一个类条件概率密度函数,只是因为这里是一个统一的模型,所以可以将wi 省略。

需要重申一下,想要得到上面这个公式,是做了几个基本的假设的,第一:假设M个类别的数据子集的概率密度函数形式一样,只是参数的取值不同;第二:假设类别i中的数据和类别j中的数据是相互独立抽样的,即类别j的参数仅仅根据类别j的数据就可以估计出来,类别i的数据并不能影响类别j的参数估计,反之亦然;第三:每个类别内的样本之间具有统计独立性,即每个类别内的样本之间是独立同分布 (iid) 的。

此时,就可以使用最大似然估计(Maximum Likelihood,ML)来估计参数θ了:

θ^ML=argmaxθ∏k=1Np(xk;θ)

为了得到最大值,θ^ML必须满足的必要条件是,似然函数对θ的梯度必须为0,即:

?∏Nk=1p(xk;θ)?θ=0

一般我们取其对数形式:

L(θ)≡ln∏k=1Np(xk;θ)

?L(θ)?θ=∑k=1N?lnp(xk;θ)?θ=∑k=1N1p(xk;θ)?p(xk;θ)?θ=0

需要注意:极大似然估计对应于似然函数的峰值

极大似然估计有两个非常重要的性质:渐进无偏渐进一致性,有了这两个性质,使得极大似然估计的成为了非常简单而且实用的参数估计方法。这里假设θ0是密度函数p(x;θ)中未知参数的准确值。

渐进无偏

极大似然估计是渐进无偏的,即:

limN→∞E[θ^ML]=θ0

也就是说,这里认为估计值 θ^ML 本身是一个随机变量(因为不同的样本集合X会得到不同的 θ^ML),那么其均值就是未知参数的真实值,这就是渐进无偏。

渐进一致

极大似然估计是渐进一致的,即:

limN→∞prob{∥θ^ML?θ0∥??}=1

这个公式还可以表示为:

limN→∞E∥θ^ML?θ0∥2=0

对于一个估计器而言,一致性是非常重要的,因为存在满足无偏性,但是不满足一致性的情况,比如,θ^ML在 θ0周围震荡。如果不满足一致性,那么就会出现很大的方差。

注意:以上两个性质,都是在渐进的前提下(N→∞)才能讨论的,即只有N足够大时,上面两个性质才能成立

最大后验估计

在最大似然估计(MAP)中,将θ看做是未知的参数,说的通俗一点,最大似然估计是θ的函数,其求解过程就是找到使得最大似然函数最大的那个参数θ。

从最大后验估计开始,将参数θ 看成一个随机变量,并在已知样本集{x1,x2,...,xN} 的条件下,估计参数θ。

这里一定要注意,在最大似然估计中,参数θ是一个定值,只是这个值未知,最大似然函数是θ的函数,这里θ是没有概率意义的。但是,在最大后验估计中,θ是有概率意义的,θ有自己的分布,而这个分布函数,需要通过已有的样本集合X得到,即最大后验估计需要计算的是 p(θ|X)

根据贝叶斯理论:

p(θ|X)=p(θ)p(X|θ)p(X)

这就是参数θ关于已有数据集合X的后验概率,要使得这个后验概率最大,和极大似然估计一样,这里需要对后验概率函数求导。由于分子中的p(X)相对于θ是独立的,随意可以直接忽略掉p(X)。

θ^MAP=argmaxθp(θ|X)=argmaxθp(θ)p(X|θ)

为了得到参数θ,和ML一样,需要对p(θ|X)求梯度,并使其等于0:

p(θ|X)?θ=p(θ)p(X|θ)?θ=0

注意:这里p(X|θ)和极大似然估计中的似然函数p(X;θ)是一样的,只是记法不一样。MAP和ML的区别是:MAP是在ML的基础上加上了p(θ)

这里需要说明,虽然从公式上来看 MAP=ML?p(θ),但是这两种算法有本质的区别,ML将θ视为一个确定未知的值,而MAP则将θ视为一个随机变量。

在MAP中,p(θ)称为θ的先验,假设其服从均匀分布,即对于所有θ取值,p(θ)都是同一个常量,则MAP和ML会得到相同的结果。当然了,如果p(θ)的方差非常的小,也就是说,p(θ)是近似均匀分布的话,MAP和ML的结果自然也会非常的相似。

贝叶斯估计

注意:以下所有的概率分布表述方式均为贝叶斯学派的表述方式。

贝叶斯估计核心问题

为了防止标号混淆,这里定义已有的样本集合为D,而不是之前的X。样本集合D中的样本都是从一个 固定但是未知 的概率密度函数p(x)中独立抽取出来的,要求根据这些样本估计x的概率分布,记为p(x|D),并且使得p(x|D)尽量的接近p(x),这就是贝叶斯估计的核心问题。

贝叶斯估计第一个重要元素

虽然p(x)是未知的,但是前面提到过,一个密度分布的两个要素为:形式和参数,我们可以假设p(x)的形式已知,但是参数θ的取值未知。这里就有了贝叶斯估计的第一个重要元素 p(x|θ),这是一个条件概率密度函数,准确的说,是一个类条件概率密度函数(具体原因参见本文前面关于极大似然估计的说明)。强调一下:p(x|θ)的形式是已知的,只是参数θ的取值未知。由于这里的x可以看成一个测试样本,所以这个条件密度函数,从本质上讲,是θ 在点 x 处的似然估计

贝叶斯估计第二个重要元素

由于参数θ的取值未知,且,我们将θ看成一个随机变量,那么,在观察到具体的训练样本之前,关于θ的全部知识,可以用一个先验概率密度函数p(θ)来表示,对于训练样本的观察,使得我们能够把这个先验概率密度转化成为后验概率密度函数p(θ|D),根据后验概率密度相关的论述知道,我们希望p(θ|D)在θ的真实值附近有非常显著的尖峰。这里的这个后验概率密度,就是贝叶斯估计的第二个主要元素。

现在,将贝叶斯估计核心问题p(x|D),和贝叶斯估计的两个重要元素:p(x|θ)、p(θ|D)联系起来:

p(x|D)=∫p(x,θ|D)dθ=∫p(x|θ,D)p(θ|D)dθ

上面式子中,x是测试样本,D是训练集,x和D的选取是独立进行的,因此,p(x|θ,D)可以写成p(x|θ)。所以,贝叶斯估计的核心问题就是下面这个公式:

p(x|D)=∫p(x|θ)p(θ|D)dθ

下面这句话一定要理解:这里p(x|θ)是θ关于测试样本x这一个点的似然估计,而p(θ|D)则是θ在已有样本集合上的后验概率。这就是为什么本文一开始并没有直接讲贝叶斯估计,而是先说明极大似然估计和最大后验估计的原因。其中,后验概率p(θ|D)为:

p(θ|D)=p(D|θ)p(θ)p(D)=p(D|θ)p(θ)∫p(D|θ)p(θ)dθ

p(D|θ)=∏k=1Np(xk|θ)

上面这个式子就是贝叶斯估计最核心的公式,它把类条件概率密度p(x|D) (这里一定要理解为什么是类条件概率密度,其实这个的准确写法可以是p(x|Dm),或者 p(x|wm,Dm),具体原因参见本文前面关于极大似然估计的部分) 和未知参数向量θ的后验概率密度p(θ|D)联系在了一起。如果后延概率密度p(θ|D)在某一个值θ^附近形成显著的尖峰,那么就有p(x|D)≈p(x|θ^),就是说,可以用估计值 θ^近似代替真实值所得的结果。

贝叶斯估计的增量学习

为了明确的表示样本集合D中有n个样本,这里采用记号:Dn={x1,x2,...,xn}。根据前一个公式,在n>1的情况下有:

p(Dn|θ)=p(xn|θ)p(Dn?1|θ)

可以很容易得到:

p(θ|Dn)=p(xn|θ)p(Dn?1|θ)p(θ)∫p(xn|θ)p(Dn?1|θ)p(θ)dθ=p(xn|θ)p(θ|Dn?1)∫p(xn|θ)p(θ|Dn?1)dθ

当没有观测样本时,定义p(θ|D0)=p(θ),为参数θ的初始估计。然后让样本集合依次进入上述公式,就可以得到一系列的概率密度函数:p(θ|D0)、p(θ|D1)、p(θ|D2)、…、p(θ|Dn),这一过程称为参数估计贝叶斯递归法,也叫贝叶斯估计的增量学习。这是一个在线学习算法,它和随机梯度下降法有很多相似之处。

贝叶斯线性回归

根据之前的文章《线性回归》、《多项式回归》中关于极大似然估计的说明,以及本文前面关于极大似然估计的论述,可以很容易知道,如果要将极大似然估计应用到线性回归模型中,模型的复杂度会被两个因素所控制:基函数的数目和样本的数目。尽管为对数极大似然估计加上一个正则项(或者是参数的先验分布),在一定程度上可以限制模型的复杂度,防止过拟合,但基函数的选择对模型的性能仍然起着决定性的作用。

上面说了那么大一段,就是想说明一个问题:由于极大似然估计总是会使得模型过于的复杂以至于产生过拟合的现象,所以单纯的适用极大似然估计并不是特别的有效。

当然,交叉验证是一种有效的限制模型复杂度,防止过拟合的方法,但是交叉验证需要将数据分为训练集合测试集,对数据样本的浪费也是非常的严重的。

基于上面的讨论,这里就可以引出本文的核心内容:贝叶斯线性回归。贝叶斯线性回归不仅可以解决极大似然估计中存在的过拟合的问题,而且,它对数据样本的利用率是100%,仅仅使用训练样本就可以有效而准确的确定模型的复杂度。

这里面对的模型是线性回归模型,其详细的介绍可以参见前面的文章《线性回归》,线性回归模型是一组输入变量x的基函数的线性组合,在数学上其形式如下:

y(x,w)=w0+∑j=1Mωj?j(x)

这里?j(x)就是前面提到的基函数,总共的基函数的数目为M个,如果定义?0(x)=1的话,那个上面的式子就可以简单的表示为:

y(x,w)=∑j=0Mωj?j(x)=wT?(x)

w=(w0,w1,w2,...,wM)

?=(?0,?1,?2,...,?M)

则线性模型的概率表示如下:

p(t|x,w,β)=N(t|y(x,w),β?1I)

假设参数w满足高斯分布,这是一个先验分布:

p(w)=N(w|0,α?1I)

一般来说,我们称p(w)为共轭先验(conjugate prior)。这里t是x对应的目标输出,β?1和α?1分别对应于样本集合和w的高斯分布的方差,w是参数,

那么,线性模型的对数后验概率函数:

lnp(θ|D)=lnp(w|T)=?β2∑n=1N{y(xn,w)?tn}2+α2wTw+const

这里T是数据样本的目标值向量,T={t1,t2,...,tn},const是和参数w无关的量。关于这个式子的具体推导,可参见前面的文章《多项式回归》。

贝叶斯线性回归的学习过程

根据前面关于贝叶斯估计的增量学习可以很容易得到下面这个式子,这个就是贝叶斯学习过程:在前一个训练集合Dn?1的后验概率p(θ|Dn?1)上,乘以新的测试样本点xn的似然估计,得到新的集合Dn的后验概率p(θ|Dn),这样,相当于p(θ|Dn?1)成为了p(θ|Dn)的先验概率分布:

p(θ|Dn)∝p(xn|θ)p(θ|Dn?1)

有了上面的基础知识,这里就着重的讲下面这幅图,这个图是从RMPL第155页截取下来的,这幅图清晰的描述了贝叶斯线性回归的学习过程,下面结合这幅图,详细的说明一下贝叶斯学习过程。

首先,说一下这里的模型:

y(x,w)=w0+w1x

第一行:

第一行是初始状态,此时只有关于w的先验信息,即:p(θ|D0)=p(θ)=N(w|0,α?1I)。先看中间这幅图,这幅图是关于w的先验分布,由于我们假设w初始为高斯分布N(w|0,α?1I),故其图形是以(0,0)为中心的圆组成的。由于此时还没有样本点进入,所以没有关于样本的似然估计,故第一行中左边likelihood没有图。第一行右边data space的那幅图显示的是从第二幅图prior/posterior中随机抽取一些点(w0,w1),并以(w0,w1)为参数,画出来的直线,此时这些直线是随机的。

第二行:

此时有了第一个样本点x1,那么根据x1就可以得到第二行中,关于x1的似然估计,由于y=w0+w1x,似然估计的结果其实是这个式子的对偶式,即w1=1xy?1xw0。从第二行的最右边data space中的图中可以估计出,第一个样本点的坐标大概为:(0.9,0.1),所以其第一幅图中,似然估计的中心线的方程为:

w1=19?109w0

近似为左边那幅图的画法。由于第二行的先验分布是第一行的后验分布,也就是第一行的中间那幅图。则,第二行的后验分布的求法就是:将第二行的第左边那幅图和第一行的中间那幅图相乘,就可以得到第二行中间那幅图。第二行最右边那幅图就是从第二行中间那幅图中随机抽取一些点(w0,w1),并以(w0,w1)为参数,画出来的直线。

第三行之后,就可以一次类推了。

上面就是贝叶斯学习过程的完整描述。

贝叶斯回归的优缺点

优点:

1. 贝叶斯回归对数据有自适应能力,可以重复的利用实验数据,并防止过拟合

2. 贝叶斯回归可以在估计过程中引入正则项

缺点:

1. 贝叶斯回归的学习过程开销太大

贝叶斯脊回归(Bayesian Ridge Regression)

前面已经证明过了,如果贝叶斯线性回归的先验分布为

p(w)=N(w|0,α?1I)

那么,其最终的后验分布公式为:

lnp(θ|D)=lnp(w|T)=?β2∑n=1N{y(xn,w)?tn}2+α2wTw+const

这个相当于脊回归,所以将这种特殊情况称为贝叶斯脊回归,它拥有脊回归的所有特性,具体可以参见前面的文章《脊回归》。

下面这份代码提供了贝叶斯回归的用法,以及其和最小二乘法的比较。

#!/usr/bin/python
# -*- coding: utf-8 -*-

"""
author : [email protected]
time : 2016-06-21-09-21

贝叶斯脊回归
这里在一个自己生成的数据集合上测试贝叶斯脊回归

贝叶斯脊回归和最小二乘法(OLS)得到的线性模型的参数是有一定的差别的
相对于最小二乘法(OLS)二样,贝叶斯脊回归得到的参数比较接近于0

贝叶斯脊回归的先验分布是参数向量的高斯分布

"""
print(__doc__)

import numpy as np
import matplotlib.pyplot as plt
from scipy import stats
import time

from sklearn.linear_model import BayesianRidge, LinearRegression

###############################################################################
# 随机函数的种子
np.random.seed(int(time.time()) % 100)
# 样本数目为100,特征数目也是100
n_samples, n_features = 100, 100
# 生成高斯分布
X = np.random.randn(n_samples, n_features)
# 首先使用alpha为4的先验分布.
alpha_ = 4.
w = np.zeros(n_features)
# 随机提取10个特征出来作为样本特征
relevant_features = np.random.randint(0, n_features, 10)
# 基于先验分布,产生特征对应的初始权值
for i in relevant_features:
    w[i] = stats.norm.rvs(loc=0, scale=1. / np.sqrt(alpha_))

# 产生alpha为50的噪声
alpha_ = 50.
noise = stats.norm.rvs(loc=0, scale=1. / np.sqrt(alpha_), size=n_samples)
# 产生目标数据
y = np.dot(X, w) + noise

###############################################################################
# 使用贝叶斯脊回归拟合数据
clf = BayesianRidge(compute_score=True)
clf.fit(X, y)

# 使用最小二乘法拟合数据
ols = LinearRegression()
ols.fit(X, y)

###############################################################################
# 作图比较两个方法的结果
plt.figure(figsize=(6, 5))
plt.title("Weights of the model")
plt.plot(clf.coef_, ‘b-‘, label="Bayesian Ridge estimate")
plt.plot(w, ‘g-‘, label="Ground truth")
plt.plot(ols.coef_, ‘r--‘, label="OLS estimate")
plt.xlabel("Features")
plt.ylabel("Values of the weights")
plt.legend(loc="best", prop=dict(size=12))

plt.show()

其运行结果为:

贝叶斯脊回归参数:
[ -7.16688614e-02   3.73638195e-02  -4.04171217e-02   7.28338457e-03
 ...
   2.60774221e-01   4.26079127e-02   1.01660304e-02   6.79853349e-02]
最小二乘法参数:
[-1.77270023 -0.38832798  0.58907738 -1.61514115  0.58202424  0.09483505
...
 -1.37056305  2.81533169  0.02429617  0.90196961]

可以很容易的看出,相对于最小二乘法(OLS)二样,贝叶斯脊回归得到的参数比较接近于0

时间: 2024-11-03 21:12:55

贝叶斯线性回归(Bayesian Linear Regression)的相关文章

机器学习经典算法具体解释及Python实现--线性回归(Linear Regression)算法

(一)认识回归 回归是统计学中最有力的工具之中的一个. 机器学习监督学习算法分为分类算法和回归算法两种,事实上就是依据类别标签分布类型为离散型.连续性而定义的. 顾名思义.分类算法用于离散型分布预測,如前面讲过的KNN.决策树.朴素贝叶斯.adaboost.SVM.Logistic回归都是分类算法.回归算法用于连续型分布预測.针对的是数值型的样本,使用回归.能够在给定输入的时候预測出一个数值.这是对分类方法的提升,由于这样能够预測连续型数据而不不过离散的类别标签. 回归的目的就是建立一个回归方程

机器学习经典算法详解及Python实现--线性回归(Linear Regression)算法

(一)认识回归 回归是统计学中最有力的工具之一.机器学习监督学习算法分为分类算法和回归算法两种,其实就是根据类别标签分布类型为离散型.连续性而定义的.顾名思义,分类算法用于离散型分布预测,如前面讲过的KNN.决策树.朴素贝叶斯.adaboost.SVM.Logistic回归都是分类算法:回归算法用于连续型分布预测,针对的是数值型的样本,使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提升,因为这样可以预测连续型数据而不仅仅是离散的类别标签. 回归的目的就是建立一个回归方程用来预测目

机器学习之多变量线性回归(Linear Regression with multiple variables)

1. Multiple features(多维特征) 在机器学习之单变量线性回归(Linear Regression with One Variable)我们提到过的线性回归中,我们只有一个单一特征量(变量)--房屋面积x.我们希望使用这个特征量来预测房子的价格.我们的假设在下图中用蓝线划出: 不妨思考一下,如果我们不仅仅知道房屋面积(作为预测房屋价格的特征量(变量)),我们还知道卧室的数量.楼层的数量以及房屋的使用年限,那么这就给了我们更多可以用来预测房屋价格的信息. 即,支持多变量的假设为:

从零单排入门机器学习:线性回归(linear regression)实践篇

线性回归(linear regression)实践篇 之前一段时间在coursera看了Andrew ng的机器学习的课程,感觉还不错,算是入门了. 这次打算以该课程的作业为主线,对机器学习基本知识做一下总结.小弟才学疏浅,如有错误.敬请指导. 问题原描写叙述: you will implement linear regression with one variable to predict prots for a food truck. Suppose you are the CEO of a

Stanford公开课机器学习---3.多变量线性回归 (Linear Regression with multiple variable)

3.多变量线性回归 (Linear Regression with multiple variable) 3.1 多维特征(Multiple Features) n 代表特征的数量 x(i)代表第 i 个训练实例,是特征矩阵中的第 i 行,是一个向量(vector). x(i)j代表特征矩阵中第 i 行的第 j 个特征,也就是第 i 个训练实例的第 j 个特征. 多维线性方程: hθ=θ0+θ1x+θ2x+...+θnx 这个公式中有 n+1 个参数和 n 个变量,为了使得公式能够简化一些,引入

贝叶斯网络(Bayesian networks)

算法杂货铺——分类算法之贝叶斯网络(Bayesian networks) 2.1.摘要 在上一篇文章中我们讨论了朴素贝叶斯分类.朴素贝叶斯分类有一个限制条件,就是特征属性必须有条件独立或基本独立(实际上在现实应用中几乎不可能做到完全独立).当这个条件成立时,朴素贝叶斯分类法的准确率是最高的,但不幸的是,现实中各个特征属性间往往并不条件独立,而是具有较强的相关性,这样就限制了朴素贝叶斯分类的能力.这一篇文章中,我们接着上一篇文章的例子,讨论贝叶斯分类中更高级.应用范围更广的一种算法——贝叶斯网络(

Python用PyMC3实现贝叶斯线性回归模型

在本文中,我们将在贝叶斯框架中引入回归建模,并使用PyMC3 MCMC库进行推理. 我们将首先回顾经典或频率论者的多重线性回归方法.然后我们将讨论贝叶斯如何考虑线性回归. 用PyMC3进行贝叶斯线性回归 在本节中,我们将对统计实例进行一种历史悠久的方法,即模拟一些我们知道的属性的数据,然后拟合一个模型来恢复这些原始属性. 什么是广义线性模型? 在我们开始讨论贝叶斯线性回归之前,我想简要地概述广义线性模型(GLM)的概念,因为我们将使用它们来在PyMC3中制定我们的模型. 广义线性模型是将普通线性

Python 线性回归(Linear Regression) 基本理解

背景 学习 Linear Regression in Python – Real Python,对线性回归理论上的理解做个回顾,文章是前天读完,今天凭着记忆和理解写一遍,再回温更正. 线性回归(Linear Regression) 刚好今天听大妈讲机器学习,各种复杂高大上的算法,其背后都是在求"拟合". 线性回归估计是最简单的拟合了.也是基础中的基础. 依然是从字面上先来试着拆解和组合: 首先,Regression 回归,指的是研究变量之间的关系,这个由来在Python 线性回归(Li

Bayesian linear regression

Let $S={(x^{(i)}, y^{(i)})}_{i=1}^m$ be a training set of i.i.d. examples from unknow distribution. The standard probabilistic interpretation of linear regression states that $$ y^{(i)} = \theta^T x^{(i)} + \varepsilon^{(i)}, \qquad i=1, \dots, m $$