机器学习中有关概率论知识的小结

一、引言

最近写了许多关于机器学习的学习笔记,里面经常涉及概率论的知识,这里对所有概率论知识做一个总结和复习,方便自己查阅,与广大博友共享,所谓磨刀不误砍柴工,希望博友们在这篇博文的帮助下,阅读机器学习的相关文献时能够更加得心应手!这里只对本人觉得经常用到的概率论知识点做一次小结,主要是基本概念,因为机器学习中涉及概率论的地方,往往知道基本概念就不难理解,后面会不定期更新,希望博友们多留言补充。

二、贝叶斯(Bayes)公式

通常把事件 A 的概率 P(A)叫做实验前的假设概率,即先验概率(prior probability),如果有另一个事件 B 与事件 A 有某种关系,即事件 A 和 B 不是互相独立的,那么当事件 B 确实发生之后,则应当重新估计事件 A 的概率,即 P(A | B), 这叫做条件概率或者试验后的假设概率,即后验概率(posterior probability).

公式一:

再引入全概率公式:设事件A当前仅当互不相容的事件(即任意两个事件不可能同时发生的)(i = 1, 2 , ... n) 中的任意一个事件发生时才可能发生,已知事件  的概率  及事件 A 在  已发生的条件下的条件概率,则事件 A 发生的概率为:

这就是全概率公式.

根据概率乘法定理:

我们可以得到:

于是:

再根据上面介绍的全概率公式,则可得到传说中的贝叶斯公式:

这些公式定理几乎贯穿整个机器学习,很基本,也很重要!

三、常用的离散随见变量分布

  1. “0-1”分布": 设随机变量 X 只能取得两个数值:0与1,而概率函数是: 通常把这种分布叫做“0-1”分布或者两点分布,是分布参数.
  2. 二项分布(binomial distribution): 设随机变量 X 可能的的值是0, 1, 2, ..., n, 而概率函数是:

其中,这种分布叫做二项分布,含有两个参数  和 ,通常把这种分布记作,如果随见变量 X 服从二项分布,记作

  3.  泊松(Possion)分布: 设随机变量 X 的可能值是一切非负整数,而概率函数是:

    其中λ > 0 为常数,这种分布叫做泊松分布。泊松分布就含有一个参数λ ,记作P(λ), 如果随机变量 X 服从泊松分布,则记作X~P(λ)

四、随机变量的分布函数

x 是任何实数,考虑随机变量 X 取得的值不大于  x 的概率,即事件 X ≤   x  的概率,记作 F(x) = P(X ≤ x), 这个函数叫做随机变量 X 的概率分布函数或者分布函数,注意区别于上面讲到的概率函数.

如果已知随机变量 X 的分布函数 F(X), 则随见变量 X 落在半开区间 (x1, x2] 内的概率:P(x1 < X ≤ x2) = F(x2) - F(x1)

五、连续随机变量的概率密度

连续随机变量的概率密度就是分布函数的导函数

六、随机变量的数学期望

如果随机变量 X 只能取得有限个值:

而取得有限个值得概率分别是:

则数学期望:

如果连续随机变量 X 的概率密度为,则连续随机变量的数学期望:

一个常数的的数学期望等于这个常数本身。

定理:两个独立随机变量的乘积的数学期望等于它们数学期望的乘积。证明如下:

对于离散随机变量 X 与 Y 独立:

对于连续随机变量 X 与 Y 独立:

七、方差与标准差

随机变量 X 的方差记作 D(X),定义为:

下面证明一个很有用的公式(会用到性质:一个常数的的数学期望等于这个常数本身):

简而言之:随机变量的方差等于变量平方的期望减去期望的平方.

标准差就是方差的算术平方根。

常数的方差为0.

八、协方差与相关系数

随机变量 X 与 随机变量 Y 的协方差记作:

进一步推导可得:

因为两个独立随机变量乘积的期望等于两个随机变量各自期望的乘积,于是当两个随机变量独立使,很容易得到它们的协方差为0.

两个随机变量 X 与 Y 的 相关系数为:

两个随机变量的相关系数的绝对值不大于1.

当且仅当随机变量 Y 与 X 之间存在线性关系:

时,相关系数的绝对值等于1,并且

九、正态分布

正态分布又叫高斯分布,设连续随机变量 X 的概率密度

其中 μ 及 σ>0 都是常数,这种分布就是正态分布.

正态分布含有两个参数 μ 及 σ>0,其中μ等于正态分布的数学期望,而 σ 等于正态分布的标准差,通常把这种分布记作,随机变量 X 服从正态分布,则记为:

定理 设随机变量 X 服从正态分布,则 X 的线性函数 Y= a + bX(b≠0)也服从正态分布,且有

先总结这么多,以后遇到重要的概率论知识点会继续补充!

时间: 2024-12-24 16:01:36

机器学习中有关概率论知识的小结的相关文章

机器学习中的基础知识(入门上篇)

前面我们已经给大家讲述了很多有关机器学习的概念,这些概念都是十分重要的,我们如果要学习人工智能的话就需要重视这些知识.在这篇文章我们接着给大家介绍机器学习中的基础知识,希望这篇文章能够给大家带来帮助. (1)正则化就是对模型复杂度的惩罚.正则化帮助防止过拟合.正则化包括不同种类:L1 正则化.L2 正则化.dropout正则化. (2)正则化率就是一种标量级,用lambda来表示,指正则函数的相对重要性. (3)表征就是将数据映射到有用特征的过程. (4)根目录就是指定放置 TensorFlow

机器学习中的基础知识(深入上篇)

机器学习的知识有很多,我们在前面的文章中讲述的都是相对比较简单的知识,想必那些已经让大家头疼不已吧?在这篇文章中我们给大家介绍一下机器学习中深层次的知识.大家跟着小编学起来吧. (1)层就是神经网络中的神经元序列,可以处理输入特征序列或神经元的输出.也是 TensorFlow 的一种抽象化概念.层是将张量和配置选项作为输入.输出其他张量的 Python 函数.一旦必要的张量出现,用户就可以通过模型函数将结果转换成估计器. (2)学习率就是通过梯度下降训练模型时使用的一个标量.每次迭代中,梯度下降

003 机器学习中的基础知识

有些知识还是记录下来比较容易复习. 懂原理, 会使用平台,使用语言实现常见算法. 1.大纲 机器学习的基本概念 机器学习的实质 机器学习方法的三要素 经验风险与结构风险 常见损失函数 一:基本概念 1.机器学习的方法流程 用监督学习为例 首先,有一个输入数据,然后根据这个输入数据做一些特征的加工和整理,基于特征进行模型的训练,去建模,然后做模型评估,得到一个可以接受的模型,然后对模型就行部署,使用模型对业务进行应用. 定期更新模型,对模型生命周期进行维护. 2.输入空间与输出空间 输入空间(in

机器学习中概率论知识复习

机器学习先验知识概率论部分,发现看Machine Learning(-Andrew Ng)课程的时候中间有推导过程不是很明白,遂针对性复习. 知识内容组织结构,参考:<Probability Theory Review for Machine Learning>(Machine Learning-Andrew Ng,课程讲义复习笔记2) 内容补充,参考维基百科. 公式编辑参考:http://meta.math.stackexchange.com/questions/5020/mathjax-b

机器学习中的重点数学知识

深度学习中的数学 1.数学是基石,编程为工具 2.深度学习基本全是优化问题(数学) 微积分知识重点: ① 导数:导数法则.常见的函数的导数. ② 多元函数的导数:求梯度(偏导数).二阶导数和hess矩阵 l 为什么需要使用矩阵表达多元函数? 方便计算.简洁 l 二次型求梯度 特别简单(需要了解:张矩阵). 泰勒级数和极值: l 实际中我们想求一个函数的极值点: 令f'(x) = 0,哇,太难了............怎么办?(泰勒展开) 一阶函数函数的导数是一个数,可以确定函数的极值点.但是二阶

机器学习中的贝叶斯方法---先验概率、似然函数、后验概率的理解及如何使用贝叶斯进行模型预测(2)

在 机器学习中的贝叶斯方法---先验概率.似然函数.后验概率的理解及如何使用贝叶斯进行模型预测(1)文章中介绍了先验分布和似然函数,接下来,将重点介绍后验概率,以及先验概率.似然函数.后验概率三者之间的关系---贝叶斯公式. 在这篇文章中,我们通过最大化似然函数求得的参数 r 与硬币的抛掷次数(抛掷次数是10,求得的r=0.9)有关,为了更好地描述 参数 r 与 抛掷次数之间的关系,对下面符号作一些说明: 参数 r :抛一次硬币出现正面的概率,显然 r 的取值范围为[0,1] yN,在N次抛硬币

机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之一(简介)

A Gentle Introduction to Probabilistic Modeling and Density Estimation in Machine Learning And A Detailed Explanation of Variational Auto-Encoder by Jiyang Wang [email protected] Github.com/2wavetech 简介 非监督机器学习(Unsupervised Machine Learning)中的数据分布密度估

Android基础入门教程——8.1.1 Android中的13种Drawable小结 Part 1

Android基础入门教程--8.1.1 Android中的13种Drawable小结 Part 1 标签(空格分隔): Android基础入门教程 本节引言: 从本节开始我们来学习Android中绘图与动画中的一些基础知识,为我们进阶部分的自定义 打下基础!而第一节我们来扣下Android中的Drawable!Android中给我们提供了多达13种的 Drawable,本节我们就来一个个撸一遍! Drawable资源使用注意事项 Drawable分为两种: 一种是我们普通的图片资源,在Andr

机器学习中的范数规则化之(一)L0、L1与L2范数

机器学习中的范数规则化之(一)L0.L1与L2范数 [email protected] http://blog.csdn.net/zouxy09 转自:http://blog.csdn.net/zouxy09/article/details/24971995 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文.知识有限,以下都是我一