svm、经验风险最小化、vc维

原文:http://blog.csdn.net/keith0812/article/details/8901113

“支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上”

结构化风险

结构化风险 = 经验风险 + 置信风险

经验风险 =  分类器在给定样本上的误差

置信风险 = 分类器在未知文本上分类的结果的误差

置信风险因素:

样本数量,给定的样本数量越大,学习结果越有可能正确,此时置信风险越小; 
分类函数的VC维,显然VC维越大,推广能力越差,置信风险会变大。

提高样本数量,降低VC维,降低置信风险。

以前机器学习的目标是降低经验风险,要降低经验风险,就要提高分类函数的复杂度,导致VC维很高,VC维高,置信风险就高,所以,结构风险也高。---- 这是SVM比其他机器学习具有优势的地方。

svm能达到降低vc维,最主要那个是核函数的引入。

前面这部分知识都是在学习svm的时候摘抄别人的博客,当时对vc维就不是很理解,看了很多遍都是云里雾里的。但在后来的学习中发现这个概率常常出现,到时很多算法都不能有一部分无法正确理解,今天鼓起勇气再次学习一下vc维概念,整理如下:

例子:     一个线性二分类函数能打散一个只包含三个元素的的集合        所以称线性二分类函数的vc维为3

抽象:     一个函数集能后打撒一个包含h个元素的集合      称该函数集的vc维为h

说到这儿大家可能对打散这个定理不是很理解,那还是以二分类函数为例

假设有一个包含三个元素的集合,这三个元素应该存在2^3即8种形式分开,具体情况如下:

而线性二分类函数,就能实现这个要求,所以说线性二分类函数的VC维为3。

同样对于具有h个元素的集合,如果一个函数集能够实现2^h种形式分开,我们称这个函数集的vc维为h

若对任意数目的样本都有函数能将它们打散.则函数集的VC维是无穷大。    即该函数集能够打散包含任意个元素的集合。

VC维定义应用

研究人员通过分析得出结论:经验风险最小化学习过程一致的必要条件是函数集的VC维有限,且这时的收敛速度是最快的。

个人理解,如果一个vc维无穷大,即该函数集能够打散包含任意个元素的集合。那么这个函数必定很复杂,才能满足这个条件,如果一个函数过于复杂,这个函数的泛化能力将下降,训练的经验风险将增大,收敛的速度也会减慢。

时间: 2024-10-07 18:04:35

svm、经验风险最小化、vc维的相关文章

机器学习 之 SVM VC维度、样本数目与经验风险最小化的关系

VC维在有限的训练样本情况下,当样本数 n 固定时.此时学习机器的 VC 维越高学习机器的复杂性越高. VC 维反映了函数集的学习能力,VC 维越大则学习机器越复杂(容量越大). 所谓的结构风险最小化就是在保证分类精度(经验风险)的同一时候,减少学习机器的 VC 维,能够使学习机器在整个样本集上的期望风险得到控制. 经验风险和实际风险之间的关系,注意引入这个原因是什么? 由于训练误差再小也就是在这个训练集合上,实际的推广能力不行就会引起过拟合问题. 所以说要引入置信范围也就是经验误差和实际期望误

结构化风险最小、VC维到SVM的理解

支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上. 置信风险: 分类器对 未知样本进行分类,得到的误差. 经验风险: 训练好的分类器,对训练样本重新分类得到的误差.即样本误差 结构风险:置信风险 + 经验风险 结构风险最小化就是为了防止过拟合而提出来的策略,贝叶斯估计中最大后验概率估计就是结构风险最小化的一个例子.当模型的条件概率分布.损失函数是对数损失函数.模型复杂度由模型先验概率表示时,结构风险最小化等价于最大后验概率估计.监督学习问题变成经验风险或结构风险函数的最优

【转载】VC维,结构风险最小化

以下文章转载自http://blog.sina.com.cn/s/blog_7103b28a0102w9tr.html 如有侵权,请留言,立即删除. 1 VC维的描述和理解 给定一个集合S={x1,x2,...xd},如果一个假设类H(hypothesis h ∈ H)能够实现集合S中所有元素的任意一种标记方式,则称H能够打散S.有了打散的定义,就得到VC维的定义:H的VC维表示能够被H打散的最大集合的大小.若H能分散任意大小的集合,那么VC(H)为无穷大. ?VC维反应的是hypothesis

文本分类学习 (七)支持向量机SVM 的前奏 结构风险最小化和VC维度理论

前言: 经历过文本的特征提取,使用LibSvm工具包进行了测试,Svm算法的效果还是很好的.于是开始逐一的去了解SVM的原理. SVM 是在建立在结构风险最小化和VC维理论的基础上.所以这篇只介绍关于SVM的理论基础. 目录: 文本分类学习(一)开篇 文本分类学习(二)文本表示 文本分类学习(三)特征权重(TF/IDF)和特征提取        文本分类学习(四)特征选择之卡方检验 文本分类学习(五)机器学习SVM的前奏-特征提取(卡方检验续集) 文本分类学习(六)AdaBoost和SVM(残)

解读机器学习基础概念:VC维的来龙去脉

原作者:vincentyao  原文链接: http://dataunion.org/14581.html 目录: 说说历史 Hoeffding不等式 Connection to Learning 学习可行的两个核心条件 Effective Number of Hypotheses Growth Function Break Point与Shatter VC Bound VC dimension 深度学习与VC维 小结 参考文献 VC维在机器学习领域是一个很基础的概念,它给诸多机器学习方法的可学

VC维的来龙去脉(转载)

原始来源已不可考,作者名为:火光摇曳.本文仅做学习之用,如有侵权,请联系我. 本文来源:http://www.thebigdata.cn/JiShuBoKe/14027.html 目录: 说说历史 Hoeffding不等式 Connection to Learning 学习可行的两个核心条件 Effective Number of Hypotheses Growth Function Break Point与Shatter VC Bound VC dimension 深度学习与VC维 小结 参考

vc维的解释

在做svm的时候我们碰到了结构风险最小化的问题,结构风险等于经验风险+vc置信范围,当中的vc置信范围又跟样本的数量和模型的vc维有关,所以我们看一下什么是vc维 首先看一下vc维的定义:对一个指标函数集,假设存在H个样本可以被函数集中的函数按全部可能的2的H次方种形式分开,则称函数集可以把H个样本打散:函数集的VC维就是它能打散的最大样本数目H 比如有个样本,一个函数可以将这h个样本打散,打散指的是样本最后被分类的情况有2^h种可能.则这个函数可以打散的最大样本数就是vc维 例如以下图所看到的

【转载】VC维的来龙去脉

本文转载自 火光摇曳 原文链接:VC维的来龙去脉 目录: 说说历史 Hoeffding不等式 Connection to Learning 学习可行的两个核心条件 Effective Number of Hypotheses Growth Function Break Point与Shatter VC Bound VC dimension 深度学习与VC维 小结 参考文献 VC维在机器学习领域是一个很基础的概念,它给诸多机器学习方法的可学习性提供了坚实的理论基础,但有时候,特别是对我们工程师而言

VC维的来龙去脉

目录: 说说历史 Hoeffding不等式 Connection to Learning 学习可行的两个核心条件 Effective Number of Hypotheses Growth Function Break Point与Shatter VC Bound VC dimension 深度学习与VC维 小结 参考文献 VC维在机器学习领域是一个很基础的概念,它给诸多机器学习方法的可学习性提供了坚实的理论基础,但有时候,特别是对我们工程师而言,SVM,LR,深度学习等可能都已经用到线上了,但