机器学习升级版(VII)——第2课 概率论与贝叶斯先验

摘录自:邹博《机器学习升级版》课件

1. 概率论基础

  • 1.初步认识

  • 2.古典概型

  • 3.生日悖论

    • 生日悖论(Birthday paradox)是指,如果一个房间里有23个或23个以上的人,那么至少有两个人的生日相同的概率要大于50%。这就意味着在一个典型的标准小学班级(30人)中,存在两人生日相同的可能性更高。对于60或者更多的人,这种概率要大于99%。从引起逻辑矛盾的角度来说生日悖论并不是一种悖论,从这个数学事实与一般直觉相抵触的意义上,它才称得上是一个悖论。大多数人会认为,23人中有2人生日相同的概率应该远远小于50%。
  • 4.装箱问题

  • 5.与组合数的关系

  • 6.组合数背后的密码  

  • 7.统计数值的概率

  • 8.本福特定律

  • 9.概率公式

  • 10.贝叶斯公式  

    • 定义:

    • 应用:
  • 11.分布

    • 常见分布是可以完美统一为一类分布
    • 1.两点分布 Bernoulli distribution

    • 2.二项分布  Binomial Distribution

    • 3.负二项分布

    • 考察Taylor展式

    • 4.泊松分布 Poisson distribution

    • 5.均匀分布 Uniform Distribution

    • 6.指数分布 Exponential Distribution

    • 7.正态分布Normal/高斯分布Gaussian distribution

    • 上述分布总结

    • 8.Beta分布

    • 9.指数族分布

    • 考察参数Φ

2.统计量

  • 1.事件独立性

  • 2.期望

    • 即,概率加权下的平均值
    • 离散型:
    • 连续型:
    • 期望的性质
    • 例1:计算期望

    • 例2:集合Hash问题 

  • 3.方差

  • 4.协方差

    • 定义:

    • 性质:

    • 协方差和独立、不相关

    • 协方差的意义

    • 协方差的上界

    • 证明过程分析

    • 协方差上界定理的证明

    • 再谈独立与不相关

  • 5.Pearson相关系数

  • 6.协方差矩阵

3.大数定律

  • 1.切比雪夫不等式

  • 2.大数定律

  • 3.大数定律的意义

  • 4.重要推论:伯努利定理

4.中心极限定理

  • 1.中心极限定理

  • 2.例题:标准的中心极限定理的问题

  • 3.中心极限定理的意义

  • 4.贝叶斯公式带来的思考:

5.最大似然估计

  • 1.最大似然估计

  • 2.最大似然估计的具体实践操作

  • 3.二项分布的最大似然估计

  • 4.正态分布的最大似然估计

  • 5. 例题:概率计算
    • 统计某个婚恋网站注册用户的实际年龄,均值25岁,标准差2,试估计用户年龄在21-29岁的概率至少是多少?

6. 术语摘录

原文地址:https://www.cnblogs.com/lxr1995/p/9164569.html

时间: 2024-08-29 12:42:43

机器学习升级版(VII)——第2课 概率论与贝叶斯先验的相关文章

机器学习实战教程(五):朴素贝叶斯实战篇之新浪新闻分类

原文链接: Jack-Cui,https://cuijiahua.com/blog/2017/11/ml_5_bayes_2.html 一.前言 上篇文章机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器讲解了朴素贝叶斯的基础知识.本篇文章将在此基础上进行扩展,你将看到以下内容: 拉普拉斯平滑 垃圾邮件过滤(Python3) 新浪新闻分类(sklearn) 二.朴素贝叶斯改进之拉普拉斯平滑 上篇文章提到过,算法存在一定的问题,需要进行改进.那么需要改进的地方在哪里呢?利用贝叶斯分类器对文档进行

机器学习Matlab实战之垃圾邮件分类————朴素贝叶斯模型

本系列来自于我<人工智能>课程复习总结以及机器学习部分的实验总结 垃圾邮件分类是监督学习分类中一个最经典的案例,本文先复习了基础的概率论知识.贝叶斯法则以及朴素贝叶斯模型的思想,最后给出了垃圾邮件分类在Matlab中用朴素贝叶斯模型的实现 1.概率 1.1 条件概率 定义:事件B发生的情况下,事件A发生的概率记作条件概率P(A|B) P(A|B)=P(A∧B)P(B) 条件概率也叫后验概率,无条件概率也叫先验概率(在没有任何其它信息存在的情况下关于命题的信度) 可以得到乘法规则: P(A∧B)

《机器学习实战》学习笔记:基于朴素贝叶斯的分类方法

概率是许多机器学习算法的基础,在前面生成决策树的过程中使用了一小部分关于概率的知识,即统计特征在数据集中取某个特定值的次数,然后除以数据集的实例总数,得到特征取该值的概率. 目录: 一.基于贝叶斯理论的分类方法 二.关于朴素贝叶斯的应用场景 三.基于Python和朴素贝叶斯的文本分类 1.准备数据 2.训练算法 3.测试算法 四.小结 以下进入正文: 一.基于贝叶斯理论的分类方法 假设有两类数据组成的数据集如下: 其中,假设两个概率分布的参数已知,并用p1(x,y)表示当前数据点(x,y)属于类

《机器学习实战》学习笔记:基于朴素贝叶斯的垃圾邮件过滤

概率是许多机器学习算法的基础,在前面生成决策树的过程中使用了一小部分关于概率的知识,即统计特征在数据集中取某个特定值的次数,然后除以数据集的实例总数,得到特征取该值的概率. 之前的基础实验中简单实现了朴素贝叶斯分类器,并正确执行了文本分类,这一节将贝叶斯运用到实际场景,垃圾邮件过滤这一实际应用. 实例:使用朴素贝叶斯过滤垃圾邮件 在上一节:http://blog.csdn.net/liyuefeilong/article/details/48383175中,使用了简单的文本文件,并从中提取了字符

机器学习Matlab打击垃圾邮件的分类————朴素贝叶斯模型

该系列来自于我<人工智能>课程回顾总结,以及实验的一部分进行了总结学习机 垃圾分类是有监督的学习分类最经典的案例,本文首先回顾了概率论的基本知识.则以及朴素贝叶斯模型的思想.最后给出了垃圾邮件分类在Matlab中用朴素贝叶斯模型的实现 1.概率 1.1 条件概率 定义:事件B发生的情况下,事件A发生的概率记作条件概率P(A|B) P(A|B)=P(A∧B)P(B) 条件概率也叫后验概率.无条件概率也叫先验概率(在没有不论什么其他信息存在的情况下关于命题的信度) 能够得到乘法规则: P(A∧B)

机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

原文链接: Jack-Cui,https://cuijiahua.com/blog/2017/11/ml_4_bayes_1.html 一.前言 朴素贝叶斯算法是有监督的学习算法,解决的是分类问题,如客户是否流失.是否值得投资.信用等级评定等多分类问题.该算法的优点在于简单易懂.学习效率高.在某些领域的分类问题中能够与决策树.神经网络相媲美.但由于该算法以自变量之间的独立(条件特征独立)性和连续变量的正态性假设为前提,就会导致算法精度在某种程度上受影响. 本篇文章将从朴素贝叶斯推断原理开始讲起,

机器学习基础——让你一文学会朴素贝叶斯模型

今天这篇文章和大家聊聊朴素贝叶斯模型,这是机器学习领域非常经典的模型之一,而且非常简单,适合初学者入门. 朴素贝叶斯模型,顾名思义和贝叶斯定理肯定高度相关.之前我们在三扇门游戏的文章当中介绍过贝叶斯定理,我们先来简单回顾一下贝叶斯公式: \[P(A|B)=\frac{P(A)P(B|A)}{P(B)}\] 我们把\(P(A)\)和\(P(B)\)当做先验概率,那么贝叶斯公式就是通过先验和条件概率推算后验概率的公式.也就是寻果溯因,我们根据已经发生的事件去探究导致事件发生的原因.而朴素贝叶斯模型正

Stanford大学机器学习公开课(六):朴素贝叶斯多项式模型、神经网络、SVM初步

(一)朴素贝叶斯多项式事件模型 在上篇笔记中,那个最基本的NB模型被称为多元伯努利事件模型(Multivariate Bernoulli Event Model,以下简称 NB-MBEM).该模型有多种扩展,一种是在上一篇笔记中已经提到的每个分量的多值化,即将p(xi|y)由伯努利分布扩展到多项式分布:还有一种在上一篇笔记中也已经提到,即将连续变量值离散化.本文将要介绍一种与多元伯努利事件模型有较大区别的NB模型,即多项式事件模型(Multinomial Event Model,一下简称NB-M

【概率论】贝叶斯法则

基础知识描述: 联合概率: 定义:指在多元的概率分布中多个随机变量同时满足各自条件的概率. 举例:假设X和Y都服从正态分布,那么P{X<4,Y<0}就是一个联合概率,表示X<4,Y<0两个条件同时成立的概率.X与Y的联合概率表示为 P(XY) 或者P(X,Y),或者P(X∩Y) 条件概率: 定义:事件A在另外一个事件B已经发生条件下的发生概率. 举例:在B条件下A条件概率表示为P(A|B) 贝叶斯法则: 通常,事件A在事件B(发生)的条件下的概率,与事件B在事件A的条件下的概率是不