VC Dimension -衡量模型与样本的复杂度

(1)定义VC Dimension:

dichotomies数量的上限是成长函数,成长函数的上限是边界函数:

所以VC Bound可以改写成:

下面我们定义VC Dimension:

对于某个备选函数集H,VC Dimension就是它所能shatter的最大数据个数N。VC Dimension = minimum break point - 1。所以在VC Bound中,(2N)^(k-1)可以替换为(2N)^(VC Dimension)。VC Dimension与学习算法A,输入分布P,目标函数f均无关。

(2)PLA的VC Dimension  

1D的PLA最多shatter2个点,所以VC Dimension = 2;

2D的PLA最多shatter3个点,所以VC Dimension = 3;

猜测dD的PLA,VC Dimension会不会等于d+1? 只需证明dvc≥d+1并且 dvc≤d+1

  • 证明VC Dimension≥d+1,只需证明H可以shatter某些d+1个输入。

构造一组d+1个输入:

图1

第一列灰色的1是对每个输入提高1维的操作,这个是一个d+1维的方阵,对角线全部是1,所以该矩阵可逆。即对于任意一种输出,我们总能找到一个备选函数使得

图2

即这一组输入的所有dichotomies都被穷尽了,所以VC Dimension≥d+1得证

  • 证明VCDimension≤d+1,只需证H不能shatter任何d+2个输入

在2D情形下构造一组4个输入:

图3

所以 x4 = x3 + x2 - x1

时间: 2024-10-13 01:29:01

VC Dimension -衡量模型与样本的复杂度的相关文章

机器学习基石——第7-8讲.The VC dimension

本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumlone-002/lecture) 第7讲-------The VC dimension 一.VC dimension的定义 VC dimension是什么呢?大家可能猜到了,这是和我们上

机器学习基石笔记-Lecture 5-7 VC dimension

为了引出VC维做了很长的铺垫..VC维:用来描述假设空间的表达能力. 第四节讲到对有限的假设空间,只要N足够大,不管A如何选g,训练数据如何选取,g的训练错误率和真实的错误率都很接近. 现在先解决无限假设空间的问题. 希望找到一个 m_H 来替代无限大的M. 系数M的来源是因为对bad data的概率值进行了累加. 但是其实一些h在同一个data上是重叠的,union bound将概率放大了.这样就希望对h进行一些划分,找出在data上表现类似的h,归为一类. 这里举出了二维感知机分类的例子,来

【The VC Dimension】林轩田机器学习基石

首先回顾上节课末尾引出来的VC Bound概念,对于机器学习来说,VC dimension理论到底有啥用. 三点: 1. 如果有Break Point证明是一个好的假设集合 2. 如果N足够大,那么Ein跟Eout的表现会比较接近 3. 如果算法A选的g足够好(Ein很小),则可能从数据中学到了东西 ================================================== 现在正式引出VC Dimension的概念:啥叫VC Dimension: VC Dimensi

机器学习基石第七讲 The VC Dimension

一.Definition of VC Dimension

Coursera台大机器学习课程笔记6 -- The VC Dimension

这节课同样非常的抽象,主要讲的是VC Dimension,这节课最重要的是这幅图: 参考:http://www.cnblogs.com/HappyAngel/p/3633989.html

【机器学习基础】VC维与模型复杂度、样本复杂度

引言 上一小节,我们引入了VC维的概念,用它来描述假设集合的表达能力.这一小节中,我们将从VC维的物理意义出发,进一步学习如何根据VC维传达的信息来选择模型和假设集合. VC维的物理意义 如果我们将假设集合的数量|H|比作假设集合的自由度,那么VC维就是假设集合在做二元分类的有效的自由度,即这个假设空间能够产生多少Dichotomies的能力(VC维说的是,到什么时候,假设集合还能shatter,还能产生最多的Dichotomies). VC维.真实错误率.训练错误率 在上一节中,我们讨论要做到

训练贷款模型时样本、模型、监控的一些点

一.样本 理想情况下,样本分三部分. 训练样本70% 验证样本(有时也叫测试样本)30% 跨时间验证样本:但经常这块数据没有,那也就只用前面的数据来做也可以. 二.如何确保模型训练完成 1.训练样本的roc和ks达到比较好的水平(0.7,0.3及以上) 2.验证样本和训练样本的指标差距不大(如10%,也要根据ks和roc的绝对值来看) 3.跨时间验证样本和训练样本的指标差距不大(如10%,也要根据ks和roc的绝对值来看) 三.模型上线监控 变量稳定性 模型稳定性 模型ks 通过率.拒绝率.在各

文本分类学习 (七)支持向量机SVM 的前奏 结构风险最小化和VC维度理论

前言: 经历过文本的特征提取,使用LibSvm工具包进行了测试,Svm算法的效果还是很好的.于是开始逐一的去了解SVM的原理. SVM 是在建立在结构风险最小化和VC维理论的基础上.所以这篇只介绍关于SVM的理论基础. 目录: 文本分类学习(一)开篇 文本分类学习(二)文本表示 文本分类学习(三)特征权重(TF/IDF)和特征提取        文本分类学习(四)特征选择之卡方检验 文本分类学习(五)机器学习SVM的前奏-特征提取(卡方检验续集) 文本分类学习(六)AdaBoost和SVM(残)

正则化--L2正则化

请查看以下泛化曲线,该曲线显示的是训练集和验证集相对于训练迭代次数的损失. 图 1 显示的是某个模型的训练损失逐渐减少,但验证损失最终增加.换言之,该泛化曲线显示该模型与训练集中的数据过拟合.根据奥卡姆剃刀定律,或许我们可以通过降低复杂模型的复杂度来防止过拟合,这种原则称为正则化. 也就是说,并非只是以最小化损失(经验风险最小化)为目标: $$\text{minimize(Loss(Data|Model))}$$ 而是以最小化损失和复杂度为目标,这称为结构风险最小化: $$\text{minim