机器学习(四) 概率论

概率论

举例说明

先验概率:一个病人 得了癌症的概率

后验概率:一个病人 拍了片子,显示某个部位不正常时,得癌症的概率

似然函数 : 一个病人,得了癌症,拍片子显示不正常的概率

标准化常量:拍片子不正常的概率

贝叶斯公式

曲线拟合:

期中D表示 观测到的数据。

表示 在不同的w值下,这样的数据出现的可能性,而不是数据在参数w的情况下的概率密度


频率派


贝叶斯派


W是固定的参数,值被定义为一些估计量,

估计量w的误差由可能的数据集D获得


只有一个数据集D

参数的不确定性来自w的可能分布

频率派估计:最大似然函数

求出一个w值,使得似然函数

最大。即 求一个w值,使得被观测到的数据值的可能性最大。

机器学习:误差方程(error function)是 最大似然函数的负log

取对数是单调函数(monoton)

最大化似然等价于最小化误差

贝叶斯方法:

凭经验获得参数w

如果先验概率选择的很差,结果也会很差。

先验概率选择非常主观。

有时候甚至是为了数学计算上的简便而选择一些先验概率

需要对整个参数空间积分

在样本上有优势 MCMC算法

在近似的模式上有优势  Variation Bayes, Expectation Propagation.

决策论:

最小化误分率:找到边界x,使得x1∈R2,x2∈R1的概率最小。

最小化损失期望:对每个错误赋权,如 x1∈R2权1,x2∈R1权1000( 如癌症检测中,误诊为癌症的损失要比有癌症而没有诊断出来要严重得多)

拒绝域: 如果后验概率明显小于1,则拒绝作出选项,进行进一步的判断。

S-fold 检验

将数据分为S组,用s-1组训练,剩下的一组用来测试。选择不同的训练与测试数据,进行s次。

时间: 2024-10-24 02:58:39

机器学习(四) 概率论的相关文章

机器学习四 -- 基于概率论的分类方法:朴素贝叶斯

基于概率的分类方法:朴素贝叶斯 贝叶斯决策理论 朴素贝叶斯是贝叶斯决策理论的一部分,所以在讲解朴素贝叶斯之前我们先快速简单了解一下贝叶斯决策理论知识. 贝叶斯决策理论的核心思想:选择具有最高概率的决策.比如我们毕业选择就业方向,选择C++方向的概率为0.3,选择Java的概率为0.2,选择机器学习的概率为0.5.那么我们就把这样的一位毕业生就业方向归类为机器学习方向. 条件概率 什么是条件概率?事件A在另一个事件B已知发生条件下的发生概率,记为P(A|B),读作“在B条件下A的概率”. 例子1:

机器学习中概率论知识复习

机器学习先验知识概率论部分,发现看Machine Learning(-Andrew Ng)课程的时候中间有推导过程不是很明白,遂针对性复习. 知识内容组织结构,参考:<Probability Theory Review for Machine Learning>(Machine Learning-Andrew Ng,课程讲义复习笔记2) 内容补充,参考维基百科. 公式编辑参考:http://meta.math.stackexchange.com/questions/5020/mathjax-b

机器学习(四) 机器学习(四) 分类算法--K近邻算法 KNN (下)

六.网格搜索与 K 邻近算法中更多的超参数 七.数据归一化 Feature Scaling 解决方案:将所有的数据映射到同一尺度 八.scikit-learn 中的 Scaler preprocessing.py import numpy as np class StandardScaler: def __init__(self): self.mean_ = None self.scale_ = None def fit(self, X): """根据训练数据集X获得数据的均

机器学习 基于概率论的分类方法:朴素贝叶斯

分类器可能产生错误分类,要求分类器给出一个最优的类别猜测结果并给出这个猜测的概率估计值. 朴素贝叶斯的特点: 优点:在数据较少的情况下依然有效,可以处理多类别问题: 缺点:对于输入数据的准备方式较为敏感: 适用数据类型:标称型数据 条件概率:在A条件下发生B结果的概率: P(B|A) = P(A&B)/P(A) 在A条件下发生B结果的概率等于A和B同时发生的概率除以A发生的概率 P(A&B) = P(A)*P(B|A) A和B同时发生的概率等于A发生的概率乘以A条件下B发生的概率 P(A&

机器学习数学基础 - 概率论

随机事件和概率 基础概念 ?  随机试验 ?  样本点和样本空间 ?  随机事件 随机事件的概率 ?  例子 条件概率 ?  定义 ?  例子 事件的独立性 ?  定义 ?  例子 全概率公式和贝叶斯公式 全概率公式 贝叶斯公式 实例 随机变量, 期望和方差 随机变量 ?  定义 ?  例子 概率分布 ?  定义 ?  性质 概率密度函数 随机变量的期望 随机变量的方差 最大似然估计 原文地址:https://www.cnblogs.com/shijieli/p/11620323.html

机器学习笔记(一):绪论

机器学习的特点 机器学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测和分析的一门学科.其主要特点: 建立在计算机及网络之上 以数据为研究对象,是数据驱动学科 目的是对数据进行预测和分析 以方法为中心构建模型并运用模型对数据进行预测和分析 机器学习是概率论.统计学.信息论.计算理论.最优化理论等多个领域的交叉学科 机器学习的对象 机器学习的对象数据.它从数据出发,提取数据的特征,抽象出数据的模型,发现数据的知识,又回到对数据的分析和预测当中去.机器学习关于数据的基本假设是同类数据具

GMIS 2017 大会陈雨强演讲:机器学习模型,宽与深的大战

https://blog.csdn.net/starzhou/article/details/72819374 2017-05-27 19:15:36     GMIS 2017 10 0 5 月 27 日,机器之心主办的为期两天的全球机器智能峰会(GMIS 2017)在北京 898 创新空间顺利开幕.中国科学院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃为本次大会做了开幕式致辞,他表示:「我个人的看法是再过几年,我们90%的工作是人工智能提供的,就像我们今天大部分工作是机器提供的一样

舆情,文本挖掘

MLE,MAP,EM 和 point estimation 之间的关系是怎样的 和点估计相对应的是区间估计,这个一般入门的统计教材里都会讲.直观说,点估计一般就是要找概率密度曲线上值最大的那个点,区间估计则要寻找该曲线上满足某种条件的一个曲线段. 最大似然和最大后验是最常用的两种点估计方法.以最简单的扔硬币游戏为例,一枚硬币扔了五次,有一次是正面.用最大似然估计,就是以这五次结果为依据,判断这枚硬币每次落地时正面朝上的概率(期望值)是多少时,最有可能得到四次反面一次正面的结果.不难计算得到期望概

《Deep Learning》(3)-概率和信息论

1 为什么需要概率 2随机变量 3 概率分布 31 离散变量和概率质量函数 32 连续变量和概率密度函数 4边际概率 5 条件概率 6 条件概率的链式法则 7独立和条件独立 8 期望方差和协方差 9常用概率分布 伯努利分布 多项分布 高斯分布 指数和拉普拉斯分布 狄拉克分布和经验分布 混合分布 10常用函数的有用特性 11贝叶斯准则 12连续变量的一些技术细节 13信息论 14构造概率模型 概率论是表示不确定的数学基础.它提供了表示表示不确定的方法和求解不确定表达式的公理.在人工智能领域,概率论

分类算法总结

      目前看到的比较全面的分类算法,总结的还不错.       主要分类方法介绍解决分类问题的方法很多[40-42] ,单一的分类方法主要包括:决策树.贝叶斯.人工神经网络.K-近邻.支持向量机和基于关联规则的分类等:另外还有用于组合单一分类方法的集成学习算法,如Bagging和Boosting等.      (1)决策树       决策树是用于分类和预测的主要技术之一,决策树学习是以实例为基础的归纳学习算法,它着眼于从一组无次序.无规则的实例中推理出以决策树表示的分类规则.构造决策树的