统计学习三要素

原文链接:https://www.mlpod.com/mlbase/23.html

三要素:方法=模型+策略+算法。

1.1 模型

在监督学习过程中,模型就是所要学习的条件概率分布或决策函数。假设空间用$\mathcal{F}$表示,假设空间可以定义为$$\mathcal{F} = \left\{ {f|Y = {f_\theta }\left( X \right),\theta \in {\mathbb{R}^n}} \right\}$$或$$\mathcal{F} = \left\{ {P|{P_\theta }\left( {Y|X} \right),\theta \in {\mathbb{R}^n}} \right\}$$,$\theta$为参数向量。

1.2 策略

1.2.1 损失函数和风险函数

监督学习问题是在假设空间$\mathcal{F}$中选取模型$f$作为决策函数,对于给定的输入$X$,由$f(X)$给出相应的输出$Y$,这个输出的预测值$f(X)$与真实值$Y$可能一致也可能不一致,用一个损失函数(loss function)或代价函数(cost function)来度量预测错误的程度。损失函数是$f(X)$和$Y$的非负实值函数,记作$L(Y,f(x))$。

统计学习常用以下几种损失函数:

(1)0-1损失函数(0-1 loss function)

$$ L(Y,f(X))=\left\{
\begin{aligned}
1,Y \ne f(X) \\
0,Y = f(X)
\end{aligned}
\right.
$$

(2)平方损失函数(quadratic loss function)

$$L(Y,f(X))=(Y-f(X))^2$$

(3)绝对损失函数(absolute loss function)

$$L(Y,f(X))=|Y-f(X)|$$

(4)对数损失函数(logarithmic loss function)或对数似然函数(loglikelihood loss function)

$$L(Y,P(Y|X))=-logP(Y|X)$$

损失越小,模型越好。由于模型的输入输出$(X,Y)$都是随机变量,遵循联合分布$P(X,Y)$,所以损失函数的期望是$${R_{\exp }}\left( f \right) = E\left[ {L\left( {Y,f\left( X \right)} \right)} \right] = \int\limits_{\mathcal{X} \times \mathcal{Y}} {L\left( {y,f\left( x \right)} \right)P\left( {x,y} \right)dxdy} $$这是理论上模型$f(X)$关于联合分布$P(X,Y)$的平均意义下的损失,称为风险函数(risk function)或期望损失(expected loss)。

学习的目标就是选择期望风险最小的模型。由于$P(X,Y)$未知,所以监督学习就成为一个病态问题(ill-formed problem)。

模型$f(X)$关于训练数据集的平均损失称为经验风险(empirical risk)或经验损失(empirical loss),记作$R_{emp}$:$${R_{emp}}\left( f \right) = \frac{1}{N}\sum\limits_{i = 1}^N {L\left( {{y_i},f\left( {{x_i}} \right)} \right)} $$根据大数定律,在样本$N$趋向于无穷时,经验风险趋于期望风险。由于现实中样本有限,所以要对经验风险进行矫正,因此关系到监督学习的两个基本策略:经验风险最小化和结构风险最小化。

1.2.2 经验最小化与结构风险最小化

经验风险最小化即:$$\mathop {\min }\limits_{f \in \mathcal{F}} \frac{1}{N}\sum\limits_{i = 1}^n {L\left( {{y_i},f\left( {{x_i}} \right)} \right)} $$。训练样本较小时会产生过拟合现象(over-fitting),就是对已知数据预测效果很好,未知数据预测效果很差。

结构风险最小化(structual risk minimization,SRM)是为了防止过拟合而提出来的策略。结构风险最小化等价于正则化(regularization)。结构风险在经验风险上加上模型复杂度的正则项(regularizer)或罚项(penalty term),其定义是:$${R_{srm}}\left( f \right) = \frac{1}{N}\sum\limits_{i = 1}^N {L\left( {{y_i},f\left( {{x_i}} \right)} \right) + \lambda J\left( f \right)} $$

1.3 算法

算法是指学习模型的具体计算方法。统计学习基于训练数据集,根据学习策略,从假设空间中选择最优模型,最后需要考虑用什么样的计算方法求解最优模型。这时,统计学习问题归结为最优化问题,统计学习的算法成为求解最优化问题的算法。

原文地址:https://www.cnblogs.com/0xcafe/p/9572060.html

时间: 2024-10-08 20:02:03

统计学习三要素的相关文章

统计学习三:2.K近邻法代码实现(以最近邻法为例)

通过上文可知感知机模型的基本原理,以及算法的具体流程.本文实现了感知机模型算法的原始形式,通过对算法的具体实现,我们可以对算法有进一步的了解.具体代码可以在我的github上查看. 代码 #!/usr/bin/python3 # -*- coding:utf-8 -*- import sys import numpy as np class Kdtree(object): ''' 类名: Kdtree 用于存储kd树的数据 成员: __value: 训练数据,保存数据点的坐标 __type: 保

统计学习方法一:基础

对统计学习方法中的基础概念和理论做一个总结.逐步更新. 内容摘自<统计学习方法>第一章,第一章内容基本全是重要内容,因此此篇部落格算是一个加入了自己理解思路的读书笔记. 一.统计学习方法包含哪几种? 监督学习:用于学习的数据集都是输入\输出数据对(有标记的样本),学习的任务是找到输入与输出的对应规则.主要用于分类.标注.回归分析. 非监督学习:用于学习的数据集只有输入(未标记的样本),学习的任务是对于数据进行分析,找到输出.主要用于聚类. 半监督学习:是监督学习和非监督学习的结合,它主要考虑如

统计学习基础(HGL的读书笔记)

统计学习:统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科,统计学习也成为统计机器人学习[1]. 统计学习分类:有监督学习与无监督学习[2]. 统计学习三要素:模型.策略与算法[1]. 统计学习的对象:统计学习的对象是数据.统计学习从数据出发,提取数据的特征,抽取数据的模型,发现数据中的指示,又回到对数据的分析与预测中去[1]. 统计学习的目的:建立输入与输出的关系,评价输入与输出的关系,即Y = f(X) + ε.其中输入变量X可以称为预测变量.自变量.属性

统计学习的相关定义

1. 什么是统计学习? 统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科.具有以下特点: (1)以计算机和网络为平台:(2)以数据为对象,数据驱动的学科:(3)目的是对数据进行预测和分析:(4)以方法为中心,统计学习方法构建模型并应用模型进行预测和分析:(5)概率论.信息论.计算理论.最优化理论及计算机学习的交叉学科. 统计学习方法的步骤: (1)得到一个有限的训练数据集合:(2)得到包含所有可能的模型的假设空间,即

(八)从零开始学人工智能--统计学习:统计学习基础知识

目录 统计学习基础知识 1. 统计学习种类 1.1 监督学习 1.2 非监督学习 2. 统计学习中的基本概念 2.1 统计学习三要素:模型,策略,算法 2.2 欠拟合和过拟合 2.3 如何避免过拟合 2.4 过拟合产生的原因 2.5 最大似然估计和贝叶斯估计 3. 线性回归 3.1 经典线性回归 3.2 岭回归(ridge regression) 3.3 lasso回归和ElasticNet 4. 线性分类 4.1 感知机 4.2 逻辑回归(logistic regression) 4.3 So

?统计学习精要(The Elements of Statistical Learning)?课堂笔记(三)

照例文章第一段跑题,先附上个段子(转载的哦~): I hate CS people. They don't know linear algebra but want to teach projective geometry. They don't know any probability but want to use graphical models. They don't understand stats at all but still do machine learning like c

第一章:统计学习及监督学习概论

目录 统计学习 基本分类 按模型分类 按算法分类 按技巧分类 三要素 模型 策略 算法 生成模型和判别模型 生成方法 判别方法 应用 习题 统计学习 对象:data 目的:预测和分析 方法 监督,无监督,强化学习 基本分类 监督学习 从标注数据中学习预测模型 建设\((X,Y)\)遵循联合概率分布\(P(X,Y)\), 样本独立同分布 假设空间:输入空间到输出空间映射的集合 无监督 \(X\)是输入空间,\(Z\)是隐式结构空间,学习\(z=g(x)\)或者\(P(z|x)\) 强化学习 半监督

【腾讯Bugly干货分享】彻底弄懂 Http 缓存机制 - 基于缓存策略三要素分解法

本文来自于腾讯Bugly公众号(weixinBugly),未经作者同意,请勿转载,原文地址:https://mp.weixin.qq.com/s/qOMO0LIdA47j3RjhbCWUEQ 作者:李志刚 导语 Http 缓存机制作为 web 性能优化的重要手段,对从事 Web 开发的小伙伴们来说是必须要掌握的知识,但最近我遇到了几个缓存头设置相关的题目,发现有好几道题答错了,有的甚至在知道了正确答案后依然不明白其原因,可谓相当的郁闷呢!!为了确认下是否只是自己理解不深,我特意请教了其他几位小伙

?统计学习精要(The Elements of Statistical Learning)?课堂笔记(一)

前两天微博上转出来的,复旦计算机学院的吴立德吴老师在开?统计学习精要(The Elements of Statistical Learning)?这门课,还在张江...大牛的课怎能错过,果断请假去蹭课...为了减轻心理压力,还拉了一帮同事一起去听,eBay浩浩荡荡的十几人杀过去好不壮观!总感觉我们的人有超过复旦本身学生的阵势,五六十人的教室坐的满满当当,壮观啊. 这本书正好前阵子一直在看,所以才会屁颠屁颠的跑过去听.确实是一本深入浅出讲data mining models的好书.作者网站上提供免