极大似然估计(maximum likelihood estimination)教程

极大似然估计法是求点估计的一种方法,最早由高斯提出,后来费歇尔(Fisher)在1912年重新提出。它属于数理统计的范畴。

大学期间我们都学过概率论和数理统计这门课程。

概率论和数理统计是互逆的过程。概率论可以看成是由因推果,数理统计则是由果溯因。

用两个简单的例子来说明它们之间的区别。

由因推果(概率论)

例1:设有一枚骰子,2面标记的是“正”,4面标记的是“反”。共投掷10次,问:5次“正”面朝上的概率?

解:记 “正面”朝上为事件A,正面朝上的次数为x。

计算的时候,对表达式求最大值,得到参数值估计值。

这也把一个参数估计问题转化为一个最优化问题。

此外,我们甚至不知道一个系统的模型是什么。因此在参数估计前,先按照一定的原则选择系统模型,再估计模型中的参数。本文为了简单,模型设定为伯努利模型。

以上是对极大似然估计方法理论上的介绍,接下来介绍计算方法。

因此概率密度函数是指  在参数已知的情况下,随机变量的概率分布情况。

似然函数是指  在随机变量已知的情况下,参数取值的概率分布情况。

<span style="font-size:18px;">Objfun.m:
function f = objfun( x )
f = -(94*log(x(1)*exp(-x(2)*1))+6*log(1-(x(1)*exp(-x(2)*1))) + ...
    77*log(x(1)*exp(-x(2)*3))+23*log(1-(x(1)*exp(-x(2)*3))) + ...
    40*log(x(1)*exp(-x(2)*6))+60*log(1-(x(1)*exp(-x(2)*6))) + ...
    26*log(x(1)*exp(-x(2)*9))+74*log(1-(x(1)*exp(-x(2)*9))) + ...
    24*log(x(1)*exp(-x(2)*12))+76*log(1-(x(1)*exp(-x(2)*12))) + ...
    16*log(x(1)*exp(-x(2)*18))+84*log(1-(x(1)*exp(-x(2)*18))));
end

sample5.m
x0 = [0.1,0.1];   %给定初值
lb = [0,0];		%给定下限
ub = [];			%给定上限
[x,fval] = fmincon(@objfun,x0,[],[],[],[],lb,ub)

解得:
x =
   1.070111883136768   0.130825782195123
fval =
     3.053055671586732e+02</span>

参考文献:Myung I J. Tutorial on maximum likelihood estimation[J]. Journal of mathematical Psychology, 2003,
47(1): 90-100.

时间: 2024-08-08 02:57:21

极大似然估计(maximum likelihood estimination)教程的相关文章

极大似然估计(Maximum Likelihood)与无监督

1. 极大似然与最大概率 因为不是科班出身,所以最初接触极大似然的时候,总是很奇怪为什么叫极大似然,而不直接叫做最大概率? 后来才知道极大似然是用来估计未知参数的,而最大概率的表述更适合于已知参数的情况下,求解出现最大概率的变量的,举例如下: Max L(θ) = θ1x1+θ2x2+θ3x3 Max P(x) = θ1x1+θ2x2+θ3x3 Max L(θ)是拥有多组观测样本X时,估计θ参数的方法,而Max P(x)正好相反,是已知θ时,求解什么样的x出现会使得P最大. 2.  极大似然与无

【机器学习算法-python实现】最大似然估计(Maximum Likelihood)

1.背景 最大似然估计是概率论中常常涉及到的一种统计方法.大体的思想是,在知道概率密度f的前提下,我们进行一次采样,就可以根据f来计算这个采样实现的可能性.当然最大似然可以有很多变化,这里实现一种简单的,实际项目需要的时候可以再更改. 博主是参照wiki来学习的,地址请点击我 这里实现的是特别简单的例子如下(摘自wiki的最大似然) 离散分布,离散有限参数空间[编辑] 考虑一个抛硬币的例子.假设这个硬币正面跟反面轻重不同.我们把这个硬币抛80次(即,我们获取一个采样并把正面的次数记下来,正面记为

最大似然估计 (Maximum Likelihood Estimation), 交叉熵 (Cross Entropy) 与深度神经网络

最近在看深度学习的"花书" (也就是Ian Goodfellow那本了),第五章机器学习基础部分的解释很精华,对比PRML少了很多复杂的推理,比较适合闲暇的时候翻开看看.今天准备写一写很多童鞋们w未必完全理解的最大似然估计的部分. 单纯从原理上来说,最大似然估计并不是一个非常难以理解的东西.最大似然估计不过就是评估模型好坏的方式,它是很多种不同评估方式中的一种.未来准备写一写最大似然估计与它的好朋友们,比如说贝叶斯估计 (Beyasian Estimation), 最大后验估计(Max

极大似然估计和EM算法

title: 最大似然估计和EM算法 date: 2018-06-01 16:17:21 tags: [算法,机器学习] categories: 机器学习 mathjax: true --- 本文是对最大似然估计和EM算法做的一个总结. 一般来说,事件A发生的概率与某个未知参数$\theta?$有关,$\theta?$取值不同,则事件A发生的概率$p(A|\theta)?$也不同.当我们在一次实验中事件A发生了,则认为此时的$\theta?$值应是t的一切可能取值中使$p(A|\theta)?$

[白话解析] 深入浅出 极大似然估计 &amp; 极大后验概率估计

[白话解析] 深入浅出极大似然估计 & 极大后验概率估计 0x00 摘要 本文在少用数学公式的情况下,尽量仅依靠感性直觉的思考来讲解 极大似然估计 & 极大后验概率估计,并且从名著中找了几个实例给大家看看这两种估计如何应用 & 其非常有趣的特点. 0x01 背景知识 1. 概率 vs 统计 概率(probability)和统计(statistics)看似两个相近的概念,其实研究的问题刚好相反. 1.1 概率 概率研究的是,已经知道了模型和参数后,给出一个事件发生的概率. 概率是一种

最大似然估计实例 | Fitting a Model by Maximum Likelihood (MLE)

参考:Fitting a Model by Maximum Likelihood 最大似然估计是用于估计模型参数的,首先我们必须选定一个模型,然后比对有给定的数据集,然后构建一个联合概率函数,因为给定了数据集,所以该函数就是以模型参数为自变量的函数,通过求导我们就能得到使得该函数值(似然值)最大的模型参数了. Maximum-Likelihood Estimation (MLE) is a statistical technique for estimating model parameters

机器学习(二十五)— 极大似然估计、贝叶斯估计、最大后验概率估计区别

最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum aposteriori estimation, 简称MAP)是很常用的两种参数估计方法. 1.最大似然估计(MLE) 在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数作为真实的参数估计. 也就是说,最大似然估计,就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值(模型已知,参数未知). (1)基本思想 当从模型总体

理解极大似然估计(MLE)

极大似然估计学习时总会觉得有点不可思议,为什么可以这么做,什么情况才可以用极大似然估计.本文旨在通俗理解MLE(Maximum Likelihood Estimate). 一.极大似然估计的思想与举例 举个简单的栗子:在一个盒子里有白色黑色小球若干个,每次有放回地从里面哪一个球,已知抽到白球的概率可能为0.7或者0.3,但不清楚,现在抽取三次,三次都没有抽到白球,请问盒子中一次抽到白球的概率是多少? 这类栗子有一个共性,我们假设白球的概率为p,然后用它去计算已知发生的事情“三次都是黑球”使其发生

矩阵求导(包含极大似然估计)

from https://zhuanlan.zhihu.com/p/24709748 极大似然 https://blog.csdn.net/zengxiantao1994/article/details/72787849 https://zhuanlan.zhihu.com/p/26614750 矩阵求导 注1: 注2: 例子2 极大似然估计 知识:https://blog.csdn.net/zengxiantao1994/article/details/72787849 https://zhu