极大似然估计和最小二乘法

目录

  • 1.极大似然估计

    • 公式推导
  • 2.最小二乘法

可能我从来就没真正的整明白过,只是会考试而已
搞清楚事情的来龙去脉不容易忘记
两个常见的参数估计法:
极大似然估计法和最小二乘法

1.极大似然估计

ref知乎,模型已定,参数未知的条件下,根据实验数据估计参数模型,等价于“利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值”
举个例子

一个麻袋里有白球与黑球,但是我不知道它们之间的比例,那我就有放回的抽取10次,结果我发现我抽到了8次黑球2次白球,我要求最有可能的黑白球之间的比例时,就采取最大似然估计法:
 我假设我抽到黑球的概率为p,那得出8次黑球2次白球这个结果的概率为:P(黑=8)=p^8*(1-p)^2,现在我想要得出p是多少啊,很简单,使得P(黑=8)最大的p就是我要求的结果,接下来求导的的过程就是求极值的过程啦。可能你会有疑问,为什么要ln一下呢,这是因为ln把乘法变成加法了,且不会改变极值的位置(单调性保持一致嘛)这样求导会方便很多~同样,这样一道题:设总体X 的概率密度为 已知 X1,X2..Xn是样本观测值,求θ的极大似然估计这也一样啊,要得到 X1,X2..Xn这样一组样本观测值的概率是P{x1=X1,x2=X2,...xn=Xn}=f(X1,θ)f(X2,θ)…f(Xn,θ)  然后我们就求使得P最大的θ就好啦,一样是求极值的过程

看过知乎几个答主讲的,感觉都不太像是在说人话。。
这个是我体听过最好的解释了

知乎

公式推导

一元线性回归中:随机抽取n组样本观测值:\(X_i\),\(Y_i\)(i=1,2...n)假如模型参数已经求得\(B_0\)和\(B_1\),那么\(Y_i\)f服从的正态分布如下
\[
Y_{i} \sim N\left(\hat{\beta}_{0}+\hat{\beta}_{1} X_{i}, \sigma^{2}\right)
\]
\(Y_i\)的概率分布函数如下
\[
P\left(Y_{i}\right)=\frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{1}{2 \sigma^{2}}\left(Y_{i}-\beta_{0}-\hat{\beta}_{1} X_{i}\right)^{2}}
\]
因为\(Y_i\)的样本是独立同分布的,所以Y的样本联合分布概率的似然函数为
\[
L\left(\hat{\beta}_{0}, \hat{\beta}_{1}, \sigma^{2}\right)=P\left(Y_{1}, Y_{2}, \ldots, Y_{n}\right)=\frac{1}{(2 \pi)^{n / 2} \sigma^{n}} e^{-\frac{1}{2 \sigma^{2} T} \sum\left(\gamma_{i}-\hat{\beta}_{0}-\hat{\beta}_{1} X_{j}\right)^{2}}
\]
将这个函数求极大值,另外,似然函数的极大化与极大似然函数取对数后再极大化是等价的,取对数后的极大似然函数如此啊
\[
L^{*}=\ln L=-n \ln (\sqrt{2 \pi} \sigma)-\frac{1}{2 \sigma^{2}} \sum\left(Y_{i}-\hat{\beta}_{0}-\hat{\beta}_{1} X_{i}\right)^{2}
\]
求\(L^*\)的极大值等价于\(\Sigma\left(Y_{i}-\hat{\beta}_{0}-\hat{\beta}_{1} X_{i}\right)^{2}\)求极小,按照正常求导步骤求解即可

2.最小二乘法

最小二乘法就是在这些散点图中找到一条能够反映相关性的一条直线,这条直线使得所有点到这条直线的距离的平方和最小,最后我们通过对这条直线的未知系数求偏导
这个一般的统计学上的书会有,考试时候也会出一些简单的题手算,就是求一条直线的斜率和截距
这个讲的更加清楚一些博客园

原文地址:https://www.cnblogs.com/gaowenxingxing/p/12191011.html

时间: 2024-08-30 15:25:45

极大似然估计和最小二乘法的相关文章

极大似然估计、贝叶斯估计、EM算法

参考文献:http://blog.csdn.net/zouxy09/article/details/8537620 极大似然估计 已知样本满足某种概率分布,但是其中具体的参数不清楚,极大似然估计估计就是把待估参数看做是确定性的量,只是其取值未知.最佳估计就是使得产生当前样本的概率最大下的参数值. 贝叶斯估计 已知样本满足某种概率分布,但参数未知.贝叶斯估计把待估参数看成符合某种先验概率分布的随机变量.对样本进行观测的过程就是把先验概率密度转化为后验概率密度,这样就利用样本信息修正了对参数的初始估

极大似然估计(Maximum Likelihood)与无监督

1. 极大似然与最大概率 因为不是科班出身,所以最初接触极大似然的时候,总是很奇怪为什么叫极大似然,而不直接叫做最大概率? 后来才知道极大似然是用来估计未知参数的,而最大概率的表述更适合于已知参数的情况下,求解出现最大概率的变量的,举例如下: Max L(θ) = θ1x1+θ2x2+θ3x3 Max P(x) = θ1x1+θ2x2+θ3x3 Max L(θ)是拥有多组观测样本X时,估计θ参数的方法,而Max P(x)正好相反,是已知θ时,求解什么样的x出现会使得P最大. 2.  极大似然与无

极大似然估计(maximum likelihood estimination)教程

极大似然估计法是求点估计的一种方法,最早由高斯提出,后来费歇尔(Fisher)在1912年重新提出.它属于数理统计的范畴. 大学期间我们都学过概率论和数理统计这门课程. 概率论和数理统计是互逆的过程.概率论可以看成是由因推果,数理统计则是由果溯因. 用两个简单的例子来说明它们之间的区别. 由因推果(概率论) 例1:设有一枚骰子,2面标记的是"正",4面标记的是"反".共投掷10次,问:5次"正"面朝上的概率? 解:记 "正面"

极大似然估计与贝叶斯定理

文章转载自:https://blog.csdn.net/zengxiantao1994/article/details/72787849 极大似然估计-形象解释看这篇文章:https://www.zhihu.com/question/24124998 贝叶斯定理-形象解释看这篇文章:https://www.zhihu.com/question/19725590/answer/217025594 极大似然估计 以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然

极大似然估计和EM算法

title: 最大似然估计和EM算法 date: 2018-06-01 16:17:21 tags: [算法,机器学习] categories: 机器学习 mathjax: true --- 本文是对最大似然估计和EM算法做的一个总结. 一般来说,事件A发生的概率与某个未知参数$\theta?$有关,$\theta?$取值不同,则事件A发生的概率$p(A|\theta)?$也不同.当我们在一次实验中事件A发生了,则认为此时的$\theta?$值应是t的一切可能取值中使$p(A|\theta)?$

极大似然估计思想的最简单解释

极大似然估计思想的最简单解释 https://blog.csdn.net/class_brick/article/details/79724660?from=timeline 极大似然估计法的理解可以从三个角度入手,一个是整体性的思想,然后两个分别是离散状态的极大似然估计和连续状态的极大似然估计的简单例子. 一.思想 极大似然估计可以拆成三个词,分别是"极大"."似然"."估计",分别的意思如下:极大:最大的概率似然:看起来是这个样子的估计:就是

机器学习(二十五)— 极大似然估计、贝叶斯估计、最大后验概率估计区别

最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum aposteriori estimation, 简称MAP)是很常用的两种参数估计方法. 1.最大似然估计(MLE) 在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数作为真实的参数估计. 也就是说,最大似然估计,就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值(模型已知,参数未知). (1)基本思想 当从模型总体

理解极大似然估计(MLE)

极大似然估计学习时总会觉得有点不可思议,为什么可以这么做,什么情况才可以用极大似然估计.本文旨在通俗理解MLE(Maximum Likelihood Estimate). 一.极大似然估计的思想与举例 举个简单的栗子:在一个盒子里有白色黑色小球若干个,每次有放回地从里面哪一个球,已知抽到白球的概率可能为0.7或者0.3,但不清楚,现在抽取三次,三次都没有抽到白球,请问盒子中一次抽到白球的概率是多少? 这类栗子有一个共性,我们假设白球的概率为p,然后用它去计算已知发生的事情“三次都是黑球”使其发生

[白话解析] 深入浅出 极大似然估计 & 极大后验概率估计

[白话解析] 深入浅出极大似然估计 & 极大后验概率估计 0x00 摘要 本文在少用数学公式的情况下,尽量仅依靠感性直觉的思考来讲解 极大似然估计 & 极大后验概率估计,并且从名著中找了几个实例给大家看看这两种估计如何应用 & 其非常有趣的特点. 0x01 背景知识 1. 概率 vs 统计 概率(probability)和统计(statistics)看似两个相近的概念,其实研究的问题刚好相反. 1.1 概率 概率研究的是,已经知道了模型和参数后,给出一个事件发生的概率. 概率是一种