《Deep Learning》(3)-概率和信息论

    • 1 为什么需要概率
    • 2随机变量
    • 3 概率分布
      • 31 离散变量和概率质量函数
      • 32 连续变量和概率密度函数
    • 4边际概率
    • 5 条件概率
    • 6 条件概率的链式法则
    • 7独立和条件独立
    • 8 期望方差和协方差
    • 9常用概率分布
      • 伯努利分布
      • 多项分布
      • 高斯分布
      • 指数和拉普拉斯分布
      • 狄拉克分布和经验分布
      • 混合分布
    • 10常用函数的有用特性
    • 11贝叶斯准则
    • 12连续变量的一些技术细节
    • 13信息论
    • 14构造概率模型

概率论是表示不确定的数学基础。它提供了表示表示不确定的方法和求解不确定表达式的公理。在人工智能领域,概率论主要有两种用途。1、概率论告诉我们人工智能怎么推论,因此我们可以设计算法计算或近似由概率论推导出来的公式。2、可以使用概率论和统计在理论上分提出的AI系统的行为。

概率论是许多科学和工程的基础工具。这一节确保一些数学不扎实的软件工程师可以理解本书的数学。

3.1 为什么需要概率?

计算机科学的许多分支处理的实体都是确定的。程序员可以安全的假设CPU将会完美无瑕地执行机器指令。硬件引起的问题太少了,以至于许多软件应用在设计时不用考虑它的发生。对比许多计算机工程师在相对稳定确定的环境下工作,机器学习使用概率论可能会让人惊讶。

机器学习处理的的事情是不确定的,有时还需要处理随机(非不确定)事情。而不确定性和随机性来自许多方面。总结一下,大概来自三个方面:

1、系统模型固有的随机性:例如,大部分量子论的解释,把原子内的微粒当做不确定的。例如洗牌,理论上我们假设了牌真正的随机洗过了。

2、不完整的观察:即使系统是确定的,但是我们也不能观察到所有影响系统行为的变量。

3、不完整的建模:当我们建模是,要舍弃一些信息。舍弃的信息导致模型预测的不确定性。

在许多实践中,更倾向于使用简单不确定的规则,也不去使用确定复杂的规则。例如,“鸟会飞,设计起来很简答”;但是真正正确的表述应该是“鸟当中,除了没有学会飞的幼鸟、生病的鸟、受伤的失去飞翔能力的鸟……,才会飞”。

概率论原本是描述事情发生的频率的。例如,在抽扑克游戏中,我们说一定概率p抽到某张牌,那么抽很多次,会大概有p比例的次数抽到这张牌;这是可以重复的实验。有些是不能重复的,例如一个医生说病人有40%的可能性患有流感,我们不能重复多次得到病人的拷贝来验证。这时需要信度degree of belief,1代表病人确定患有流感,0代表病人一定没有流感。

在上面两个例子中,第一种事件以一定概率发生,叫做频率概率frequentist probability。后一种,定性的准确性(例如诊断为流感情况下,诊断准确性的概率)叫做贝叶斯概率Bayesian probability

如果要列出关于不确定性共有的特性,那么就是把贝叶斯概率和频率概率当做一样。例如,选手手中的牌已知,计算他赢得扑克游戏的概率;这和病人有某种症状,他患有某种病的概率计算方法相同。

概率论可以看做逻辑处理不确定性的拓展。在确定了命题A的真伪后,逻辑学为我们推导基于命题A的情况下,命题B的真伪;而概率论命题B真或伪可能性的大小。

3.2随机变量

随机变量是可以随机取一些值的变量。经常在变量右下角加上数字下标来表示随机变量可能的取值。例如,x1,x2是随机变量x可能取的值。如果是向量的话,x是随机变量,x是它可能取得值。

随机变量可能连续,可以能离散。离散随机变量状态有有限种,这些状态可以和数字无关。连续随机变量和一个实数相关联。

3.3 概率分布

概率分布是用来描述变量怎么分布在各个状态的。描述变量分布的方式要取决于这个变量是离散,还是连续。

3.3.1 离散变量和概率质量函数

离散变量的概率分布用概率密度函数(probability mass function, PDF),经常用P表示。

概率质量函数把一个状态映射为这个状态出现的概率。例如x=x用P(x)表示;如果其值为1,表示一定是等于x,如果值为零,表示一定不等于x。P(x)可以这样写P(x=x),或者x~P(x)

如果有多个变量,其联合分布P(x=x,y=y)表示x=x,y=y的概率,也常常简写为P(x,y)。

关于离散随机变量x的概率质量函数P满足一下性质:

1、P要覆盖x可能取值的所有状态。

2、?x∈x,0≤P(x)≤1

3、∑x∈xP(x)=1

3.3.2 连续变量和概率密度函数

连续变量的分布使用概率密度函数(Probability density function, PDF)来p表示,它满足

1、p必须覆盖变量x状态的所有范围

2、?x∈x,0≤p(x),注意并不要求p(x)≤1

3、∫p(x)dx=1

概率密度函数并没有给出这个状态出现的概率,它乘以一个区间表示状态在这个区间的概率p(x)δx

例如在区间[a,b]的概率∫[a,b]p(x)dx。

假设x在区间[a,b]上服从均匀分布,用函数u(x;a,b)表示。对于x?[a,b],u(x;a,b)=0;对于x∈[a,b],u(x;a,b)=1b?a。这样的均匀分布,还可以用x~U(a,b)表示。

3.4边际概率

我们知道关于变量集合的概率分布,有时我们还想知道在这个变量集合子集合上的概率分布。这样的概率分布叫做边际概率分布(Marginal Probability)。

离散变量时,P(x,y),可以使用求和准则得到

?x∈x,P(x=x)=∑yP(x=x,y=y)

可以把P(x,y)写成行和列的形式,那么求一行的和(或一列的和)就可以求得上式。

对于连续变量,使用积分代替求和

p(x)=∫p(x,y)dy

3.5 条件概率

条件概率是在某事件已经发生情况下,另一个事件发生的概率。例如x=x已经发生时,y=y的概率为

P(y=y|x=x)=P(y=y,x=x)P(x=x)

注意,上式中P(x=x)>0

3.6 条件概率的链式法则

联合概率函数,可以分解为只有一个变量的概率分布函数

P(x(1),…,x(n))=P(x(1))∏i=2nP(x(i)|x(1),…,x(i?1))

可能看起来不太直观,直观一点为:

P(x(1),…,x(n))=P(x(1))P(x(2)|x(1))P(x(3)|x(1)x(2))…

这是条件概率的链式法则。将上面定义应用两次

P(a,b,c)=P(a|b,c)P(b,c)

P(b,c)=P(b|c)P(c)

P(a,b,c)=P(a|b,c)P(b|c)P(c)

3.7独立和条件独立

如果两个变量独立,那么它们的联合概率等于它们概率的乘积。即x,y独立

?x∈x,y∈y,p(x=x,y=y)=p(x=x)p(y=y)

可以用x⊥y表示。

x,y在给定z是条件独立

?x∈x,y∈y,z∈textrmz,p(x=x,y=y|z=z)=p(x=x|z=z)p(y=y|z=z)

可以用x⊥y|z表示。

3.8 期望,方差和协方差

函数f(x)关于概率分布P(x)的期望可以用求和或积分求得:

Ex~P[f(x)]=∑xP(x)f(x)

Ex~P[f(x)]=∫P(x)f(x)dx

期望是线性运算,例如

Ex[αf(x)+βg(x)]=αEx[f(x)]+βEx[g(x)]

其中α,β不依赖x

方差用来描述变量的波动大小的,定义如下:

Var(f(x))=E[(f(x)?E[f(x)])2]

如果方差比较小,说明f(x)聚集在其期望附近。方差的平方根叫做标准差。

协方差用来描述两个变量的线性依赖关系的强弱,定义如下

Cov(f(x),g(x))=E[(f(x)?E[f(x)])(g(y)?E[g(y)])]

如果协方差绝对值比较大,说明两个变量同时距离均值比较远。如果取值为正,说明两者同时变大;如果为负,说明两者一个变大,另外一个变小。其他衡量方法,例如相关系数,是把分布标准化,用来衡量它们之间相关性的大小。

协方相关和依赖有关系,但是它们是不同的概念。有关系,是因为两个独立的变量的方差为零;如果两个变量的协方差不为零,那么它们有依赖。独立和协相关是两个不同的属性。如果两个变量协方差为零,那么它们一定没有线性依赖关系。独立的要求更高,因为独立不仅仅要求非线性相关;零协方差只表示非线性相关。

例如从在区间[?1,1]上均匀分布上去一点x,在集合(?1,1)中取一个数s。假设y=sx,s决定符号,而x决定幅度。显然x,y相关,但是Cov(x,y)=0。

向量x∈Rn的协方差矩阵是一个n×n的矩阵

Cov(x)i,j=Cov(xi,xj)

协方差矩阵的对角就是方差

Con(xi,xi)=Var(xi)

3.9常用概率分布

介绍几个常见的概率分布

伯努利分布

伯努利分布式一个二项分布,它只有一个变量表示等于1的概率:?∈[0,1]

P(x=1)=?

P(x=0)=1??

综合一下为:

P(x=x)=?x(1??)1?x

期望和方差为:

Ex[x]=?

Varx(x)=?(1??)

多项分布

伯努利分布只有2个状态,多项分布状态可以大于2个。

伯努利分布和二项分布在离散变量分布中常常用到,因为离散变量状态可以统计。连续变量状态时,上面两个分布就不适用了。

高斯分布

高斯分布也叫作标准分布:

N(x;μ,σ2)=12πσ2?????√exp(?12σ2(x?μ)2)

分布有两个参数μ∈R和σ∈(0,∞)控制,前者是均值,后者是方差:E(x)=μ,Var(x)=σ2.

还有一种形式

N(x;μ,β)=β2π???√exp(?12β(x?μ)2)

在应用中常常使用高斯分布。在缺少先验知识情况下,使用高斯分布是一个明智的选择。因为:

1、我们要估计的分布可能就接近高斯分布。

2、在方差大小相同情况下,高斯分布包含的不确定性最大(即信息量最大)。

上面是单变量的高斯分布,把它扩展到多维叫做多方差标准分布,要用到正定对称矩阵Σ

N(x;μ,Σ)=1(2π)ndet(Σ)??????????√exp(?12(x?μ)TΣ?1(x?μ))

μ是分布的均值,这时是个矩阵。Σ是分布的协方差矩阵。还可以写成

N(x;μ,β?1)=det(β)(2π)n??????√exp(?12(x?μ)Tβ(x?μ))

经常把协方差矩阵变为对角矩阵。还有一个更简单的isotropic高斯分布,它的协方差矩阵为单位矩阵乘以一个标量。

指数和拉普拉斯分布

在深度学习中,我们经常想要一个在x=0处有尖点(sharp point)的概率分布,指数分布(exponential distribution)就能满足这一点

p(x;λ)=λ1x≥0exp(?λx)

其中1x≥0表示当x为负数时,概率为零。

一个近似相关的拉普拉斯分布(Laplace distribution)可以让我们在点μ有锐点

Laplace(x;μ,γ)=12γexp(?|x?μ|γ)

狄拉克分布和经验分布

在一些实例中,我们希望把概率分布的的所有质量(mass)都聚集到一个点,这时可以使用狄拉克分布δ(x)

p(x)=δ(x?μ)

δ(x)在非零点,其值为0,但是它积分还是1。狄拉克分布不是普通的函数,它是泛化函数(generalized function)。可以这样认为:狄拉克函数把其他地方所有的质量都一点点集中到了0处。它在x=0时值无限大,因为积分为1。

还有一个更常用的有狄拉克组成的分布,叫做经验分布

p^(x)=1m∑i=1mδ(x?x(i))

狄拉克分布是定义在连续变量上的。

我们可以把狄拉克分布看做,从训练集中采样一些样本,使用采样的样本训练训练模型。

混合分布

常常联合几个概率分布来定义新的概率分布。经验分布就是狄拉克分布组合而来。

在使用联合混合分布时,那个分布起作用可以用多项分布控制

P(x)=∑iP(c=i)P(x|c=i)

其中P(c)就是一个多项分布。

混合模型中,可以引出一个概念:潜在变量(latent variable)。潜在变量使我们不能直接观察到的变量,在上面的混合模型中c就是一个例子。潜在变量通过联合概率分布和x产生联系P(x,c)=P(x|c)P(c),分布P(c)并不能直接观察到,但是我们还是可以定义P(x)

非常重要和常用的联合模型是高斯混合模型,其中p(x|c=i)是高斯的。每个组成部分有单独的均值μ(i)和方差Σ(i);在一些混合模型中,可能有对变量有更多限制。

除了均值和方差,高斯混合分布指定了每个i的先验分布(prior probability)αi=P(c=i)。先验是指在观察到x以前已经知道c。一个对比,P(c|x)是后验概率,因为它在观察到x后才计算。高斯混合模型是常用的近似密度,因为任何平滑的密度都可以被多变量高斯混合模型近似。

3.10常用函数的有用特性

logistic sigmoid

σ(x)=11+exp(?x)

常常用来生成伯努利分布,因为它的输出范围是(0,1)。

softplus

ζ(x)=log(1+exp(x))

softpuls常常为标准分布生成β或σ,因为它的输出范围是(0,∞)

softpuls使用max(0,x)变化而来的,是它的平滑版本。

下面性质很有用,希望你能记住

σ(x)=exp(x)exp(x)+exp(0) ddx=σ(x)(1?σ(x)) 1?σ(x)=σ(?x) log(σ(x)=?ζ(?x) ddxζ(x)=σ(x) ?x∈(0,1),σ?1(x)=logx1?x ?x>0,ζ?1(x)=log(exp(x)?1) ζ(x)=intx?∞σ(y)dy ζ(x)?ζ(?x)=x

3.11贝叶斯准则

已知P(y|x),想知道P(x|y);如果知道P(x),可以使用贝叶斯准则计算

P(x|y)=P(x)P(y|x)P(y)

P(y)可以通过P(y)=∑xP(y|x)P(x)计算得来。

贝叶斯准则使用计算条件概率的。

3.12连续变量的一些技术细节

对于两个连续变量x,y,有如下关系y=g(x),这里g是连续、可逆、可谓分的变换。现在来找py(y)和px(x)的关系。

|py(g(x))dy|=|px(x)dx|

可以得到

py(y)=px(g?1(y))?x?y

另一种形式

px(x)=py(g(x))?g(x)?x

在高维空间中,微分泛化为雅克比矩阵的行列式Ji,j=?xi?yj

px(x)py(g(x))|det(?g(x)?x)|

3.13信息论

衡量一个事件的信息量,应该有一下准则:

1、发生概率越大的事件包含信息量越小。

2、发生可能性越小的事件,包含信息量越大。

3、相互独立的事件,信息量可以相加

定义自信息(self-information),x=x

I(x)=?logP(x)

自信息只是定义单个事件,衡量一个概率分布的信息量使用香农熵(Shannon entropy)

H(x)=Ex~P[I(x)]=?Ex~P[logP(x)]

有两个关于x的分布P(x)、Q(x),衡量两个分布的不同,可以使用相对熵(Kullback-Leibler divergence)

DKL(P||Q)=Ex~p[logP(x)Q(x)]=Ex~p[logP(x)?logQ(x)]

在机器学习中,常常这样使用:P是真实分布,从中抽取一些符号,用来估计分布得到Q,要做的就是最小化DKL。

DKL有许多有用的特性,用的最多的就是非负性。它用来衡量两个分布的距离,用一个分布估计另一个分布,最小化它们之间的DKL即可。注意,DKL不是非负的。DKL(P||Q)≠DKL(Q||P),在使用时要注意用哪个。

它和交叉熵相关,交叉熵为H(P,Q)=H(P)+DKL(P||Q),缺少左边部分,变为:

H(P,Q)=?Ex~PlogQ(x)

最小化和Q相关的交叉熵等价于最小化KL距离,因为Q和H(P)无关,忽略它。

3.14构造概率模型

机器学习中的概率分布经常和许多变量相关。但是这些概率分布常常只和几个变量直接相关。使用单一函数构造概率分布效率低下,这时可以把概率分布划分为几个相关因子,之后再相乘。例如有三个变量a,b,c,a影响b,b影响c,但是在给定b时a,c不相关。可以这样描述这个分布

p(a,b,c)=p(a)p(b|a)p(c|b)

这个因式分解可以极大减少描述分布的参数。

可以用图来描述这样的因式分解:顶点的集合通过边来互相连接。当用图来表示概率的因式分解时,叫做构造概率模型后图模型。

主要有两种类型的构造概率模型:有向模型的和无向模型。两种类型都是使用图,顶点表示一个变量,通过边相关联的两个变量表示这两个变量在概率分布中有直接关系。

有向模型:图中的边是有向。如下图

关联的顶点的概率和它的父节点变量相关,父节点定义为PaG(xi)

p(x)=∏ip(xi|PaG(xi))

无向模型使用无向表示,它表示因式分解时使用一系列函数;这些函数和有向模型不同,它们不是任何形式的概率分布。几个顶点的集合叫做圈(clique),一个圈在一用变量?(i)(C(i))表示,它表示函数而不是分布。每个函数的输出大于0,但是并不保证其积分等于1。可以除以Z归一化,归一化后的概率分布为:

p(x)=1Z∏i?(i)(C(i))

如下图

概率分布为:

p(a,b,c,d,e)=1Z?(1)(a,b,c)?(2)(b,d)?(3)(c,e)

时间: 2024-10-14 05:40:53

《Deep Learning》(3)-概率和信息论的相关文章

Deep Learning(深度学习)学习笔记整理

申明:本文非笔者原创,原文转载自:http://www.sigvc.org/bbs/thread-2187-1-3.html 4.2.初级(浅层)特征表示 既然像素级的特征表示方法没有作用,那怎样的表示才有用呢? 1995 年前后,Bruno Olshausen和 David Field 两位学者任职 Cornell University,他们试图同时用生理学和计算机的手段,双管齐下,研究视觉问题. 他们收集了很多黑白风景照片,从这些照片中,提取出400个小碎片,每个照片碎片的尺寸均为 16x1

Deep Learning(深度学习)学习笔记整理系列 | @Get社区

body { font-family: Microsoft YaHei UI,"Microsoft YaHei", Georgia,Helvetica,Arial,sans-serif,宋体, PMingLiU,serif; font-size: 10.5pt; line-height: 1.5; } html, body { } h1 { font-size:1.5em; font-weight:bold; } h2 { font-size:1.4em; font-weight:bo

【深度学习Deep Learning】资料大全

转载:http://www.cnblogs.com/charlotte77/p/5485438.html 最近在学深度学习相关的东西,在网上搜集到了一些不错的资料,现在汇总一下: Free Online Books Deep Learning66 by Yoshua Bengio, Ian Goodfellow and Aaron Courville Neural Networks and Deep Learning42 by Michael Nielsen Deep Learning27 by

(转)Deep learning:四十二(Denoise Autoencoder简单理解)

前言: 当采用无监督的方法分层预训练深度网络的权值时,为了学习到较鲁棒的特征,可以在网络的可视层(即数据的输入层)引入随机噪声,这种方法称为Denoise Autoencoder(简称dAE),由Bengio在08年提出,见其文章Extracting and composing robust features with denoising autoencoders.使用dAE时,可以用被破坏的输入数据重构出原始的数据(指没被破坏的数据),所以它训练出来的特征会更鲁棒.本篇博文主要是根据Benig

(转)大牛的《深度学习》笔记,60分钟带你学会Deep Learning。

大牛的<深度学习>笔记,60分钟带你学会Deep Learning. 2016-08-01 Zouxy 阅面科技 上期:<从特征描述到深度学习:计算机视觉发展20年> 回复“01”回顾全文   本期:大牛的<深度学习>笔记,60分钟带你学会Deep Learning. 深度学习,即Deep Learning,是一种学习算法(Learning algorithm),亦是人工智能领域的一个重要分支.从快速发展到实际应用,短短几年时间里,深度学习颠覆了语音识别.图像分类.文本

【转载】Deep Learning(深度学习)学习笔记整理

目录: 一.概述 二.背景 三.人脑视觉机理 四.关于特征 4.1.特征表示的粒度 4.2.初级(浅层)特征表示 4.3.结构性特征表示 4.4.需要有多少个特征? 五.Deep Learning的基本思想 六.浅层学习(Shallow Learning)和深度学习(Deep Learning) 七.Deep learning与Neural Network 八.Deep learning训练过程 8.1.传统神经网络的训练方法 8.2.deep learning训练过程 九.Deep Learn

Deep learning:学前了解

以前学习硬件方面知识比较多,对深度学习知识有一定的了解.最近开始学习深度学习来提升自己. 深度学习 首先要了解深度学习的概念.深度学习的概念源于人工神经网络的研究.含多隐层的多层感知器就是一种深度学习结构.深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示. 深度学习的概念由Hinton等人于2006年提出.基于深度置信网络(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构.此外Lecun等人提出的卷积

Deep Learning(深度学习)学习笔记整理系列七

Deep Learning(深度学习)学习笔记整理系列 声明: 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文献.具体的版本声明也参考原文献. 2)本文仅供学术交流,非商用.所以每一部分具体的参考资料并没有详细对应.如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除. 3)本人才疏学浅,整理总结的时候难免出错,还望各位前辈不吝指正,谢谢. 4)阅读本文需要机器学习.计算机视觉.神经网络等等基础(如果没有也没关系了,没

TensorFlow和深度学习新手教程(TensorFlow and deep learning without a PhD)

前言 上月导师在组会上交我们用tensorflow写深度学习和卷积神经网络.并把其PPT的參考学习资料给了我们, 这是codelabs上的教程:<TensorFlow and deep learning,without a PhD> 当然登入须要FQ,我也顺带巩固下,做个翻译.不好之处请包括指正. 当然须要安装python,教程推荐使用python3.假设是Mac,能够參考博主的另外两片博文,Mac下升级python2.7到python3.6, Mac安装tensorflow1.0 好多专业词

Deep Learning(深度学习)学习笔记整理系列之(四)——CNN

[email protected] http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0  2013-04-08 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文献.具体的版本声明也参考原文献. 2)本文仅供学术交流,非商用.所以每一部分具体的参考资料并没有详细对应.如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除. 3)本人才疏学浅,整理总结的时候难免出错,还望各位前辈