极大似然估计(Maximum Likelihood)与无监督

1. 极大似然与最大概率

  因为不是科班出身,所以最初接触极大似然的时候,总是很奇怪为什么叫极大似然,而不直接叫做最大概率?

  后来才知道极大似然是用来估计未知参数的,而最大概率的表述更适合于已知参数的情况下,求解出现最大概率的变量的,举例如下:

  Max L(θ) = θ1x12x23x3

  Max P(x) = θ1x12x23x3

  Max L(θ)是拥有多组观测样本X时,估计θ参数的方法,而Max P(x)正好相反,是已知θ时,求解什么样的x出现会使得P最大。

2.  极大似然与无监督

  弄懂了第一点后,再来看看极大似然与无监督有什么关系。

  这里的无监督即指机器学习中的无监督学习方法,例如我们知道了一组变量X服从高斯分布(正态分布),那么怎么预估高斯分布中的参数μ和σ呢?

  例如:某学校学生的“身高”服从高斯分布,越矮越少,越高也越少,只有中间最多,还有考试成绩往往也符合高斯分布,中间居多,两边偏少,但是我们并不知道μ和σ是多少,也就没法构造出整体分布函数到底是怎么样的,那如果某个学生问班主任老师我的成绩大概排在全省的什么位置?

  班主任只知道学校的样本,并不清楚全省所有人都考得怎么样,但是他知道无论是学校的成绩还是全省的成绩都符合高斯分布,现在怎么预估出这个高斯分布呢?

  由于班主任老师是数学老师,他很快就想到了解决办法,他利用已有的样本X去预估高斯分布的参数μ和σ!

  用的就是极大似然估计——Max L(θ)。

  其实这就是求无监督机器学习方法的一种方式,假设我们的机器学习问题就是要学习考试分数的高斯分布函数的参数,而且我们只有变量即观测样本,而没有观测值——也就是代入变量到高斯分布里的结果,在这个例子里是一个概率值,这个概率值可以等同于学生成绩所处的分布位置。

  总结以上,当我们只有部分样本的观测值,而没有标注结果,且知道假设分布函数的情况下,可以用极大似然估计的方式估计出在这组观测值下假设分布函数的最佳参数。

  

相关资料:

  最大似然估计正态分布:http://www.dwz.cn/v25v2

  最大似然估计法:http://blog.sciencenet.cn/home.php?mod=space&uid=491809&do=blog&id=400893

转载请注明引用自:

  http://www.cnblogs.com/breakthings/p/4058543.html

时间: 2024-10-25 20:15:31

极大似然估计(Maximum Likelihood)与无监督的相关文章

【机器学习算法-python实现】最大似然估计(Maximum Likelihood)

1.背景 最大似然估计是概率论中常常涉及到的一种统计方法.大体的思想是,在知道概率密度f的前提下,我们进行一次采样,就可以根据f来计算这个采样实现的可能性.当然最大似然可以有很多变化,这里实现一种简单的,实际项目需要的时候可以再更改. 博主是参照wiki来学习的,地址请点击我 这里实现的是特别简单的例子如下(摘自wiki的最大似然) 离散分布,离散有限参数空间[编辑] 考虑一个抛硬币的例子.假设这个硬币正面跟反面轻重不同.我们把这个硬币抛80次(即,我们获取一个采样并把正面的次数记下来,正面记为

最大似然估计 (Maximum Likelihood Estimation), 交叉熵 (Cross Entropy) 与深度神经网络

最近在看深度学习的"花书" (也就是Ian Goodfellow那本了),第五章机器学习基础部分的解释很精华,对比PRML少了很多复杂的推理,比较适合闲暇的时候翻开看看.今天准备写一写很多童鞋们w未必完全理解的最大似然估计的部分. 单纯从原理上来说,最大似然估计并不是一个非常难以理解的东西.最大似然估计不过就是评估模型好坏的方式,它是很多种不同评估方式中的一种.未来准备写一写最大似然估计与它的好朋友们,比如说贝叶斯估计 (Beyasian Estimation), 最大后验估计(Max

极大似然估计和EM算法

title: 最大似然估计和EM算法 date: 2018-06-01 16:17:21 tags: [算法,机器学习] categories: 机器学习 mathjax: true --- 本文是对最大似然估计和EM算法做的一个总结. 一般来说,事件A发生的概率与某个未知参数$\theta?$有关,$\theta?$取值不同,则事件A发生的概率$p(A|\theta)?$也不同.当我们在一次实验中事件A发生了,则认为此时的$\theta?$值应是t的一切可能取值中使$p(A|\theta)?$

[白话解析] 深入浅出 极大似然估计 & 极大后验概率估计

[白话解析] 深入浅出极大似然估计 & 极大后验概率估计 0x00 摘要 本文在少用数学公式的情况下,尽量仅依靠感性直觉的思考来讲解 极大似然估计 & 极大后验概率估计,并且从名著中找了几个实例给大家看看这两种估计如何应用 & 其非常有趣的特点. 0x01 背景知识 1. 概率 vs 统计 概率(probability)和统计(statistics)看似两个相近的概念,其实研究的问题刚好相反. 1.1 概率 概率研究的是,已经知道了模型和参数后,给出一个事件发生的概率. 概率是一种

极大似然估计(maximum likelihood estimination)教程

极大似然估计法是求点估计的一种方法,最早由高斯提出,后来费歇尔(Fisher)在1912年重新提出.它属于数理统计的范畴. 大学期间我们都学过概率论和数理统计这门课程. 概率论和数理统计是互逆的过程.概率论可以看成是由因推果,数理统计则是由果溯因. 用两个简单的例子来说明它们之间的区别. 由因推果(概率论) 例1:设有一枚骰子,2面标记的是"正",4面标记的是"反".共投掷10次,问:5次"正"面朝上的概率? 解:记 "正面"

最大似然估计实例 | Fitting a Model by Maximum Likelihood (MLE)

参考:Fitting a Model by Maximum Likelihood 最大似然估计是用于估计模型参数的,首先我们必须选定一个模型,然后比对有给定的数据集,然后构建一个联合概率函数,因为给定了数据集,所以该函数就是以模型参数为自变量的函数,通过求导我们就能得到使得该函数值(似然值)最大的模型参数了. Maximum-Likelihood Estimation (MLE) is a statistical technique for estimating model parameters

机器学习(二十五)— 极大似然估计、贝叶斯估计、最大后验概率估计区别

最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum aposteriori estimation, 简称MAP)是很常用的两种参数估计方法. 1.最大似然估计(MLE) 在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数作为真实的参数估计. 也就是说,最大似然估计,就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值(模型已知,参数未知). (1)基本思想 当从模型总体

理解极大似然估计(MLE)

极大似然估计学习时总会觉得有点不可思议,为什么可以这么做,什么情况才可以用极大似然估计.本文旨在通俗理解MLE(Maximum Likelihood Estimate). 一.极大似然估计的思想与举例 举个简单的栗子:在一个盒子里有白色黑色小球若干个,每次有放回地从里面哪一个球,已知抽到白球的概率可能为0.7或者0.3,但不清楚,现在抽取三次,三次都没有抽到白球,请问盒子中一次抽到白球的概率是多少? 这类栗子有一个共性,我们假设白球的概率为p,然后用它去计算已知发生的事情“三次都是黑球”使其发生

极大似然估计与贝叶斯定理

文章转载自:https://blog.csdn.net/zengxiantao1994/article/details/72787849 极大似然估计-形象解释看这篇文章:https://www.zhihu.com/question/24124998 贝叶斯定理-形象解释看这篇文章:https://www.zhihu.com/question/19725590/answer/217025594 极大似然估计 以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然