机器学习基石第四讲笔记

第四讲介绍了机器学习是否可行的问题。

1. 从给定的资料D中,找出一个接近目标f的假设g是可行的。比如PLA。但是,找到的这个g能否用于D以外的地方,这就难说了。

2. Hoeffding‘s inequality回答了g是否能用于D以外的问题:

  (1)In probability theory, Hoeffding‘s inequality provides an upper bound on the probability that the sum of random variables deviates from its expected value.

  (2)将所有可能的输入X想象成一个罐子,罐子中的每一个球代表了一个输入的数据点x。对于找到的一个假设h以及目标f,若h(x) ≠ f(x),则把x漆成橙色;若h(x) = f(x),则把x漆成绿色。因为罐子X中有很多球x,无法直接得到橙色球的比例,所以从罐子中抽出N个球作为样本,估算整个罐子中橙色球的比例。由Hoeffding不等式可知,当N足够大时,样本中橙色球比例和罐子中橙色球比例的差距是有上界的。

  (3)对于给定的h,称h在样本中的错误率为Ein(h),而在整个输入空间的错误率为Eout(h),由Hoeffding不等式有,P[|Ein(h) - Eout(h)| > ε] ≤ 2exp(-2ε2N)。因此,Eout(h)是无需知道。当Ein(h) ≈ Eout(h)且Ein(h)很小是,可以说Eout(h)很小,h大概很接近f。

3. 上面给出了验证某一个h是否接近f的办法,但仍不是学习。真正的学习是要从一堆假设中做出选择,而不是每次都给出相同的某个h。比如PLA,用不同的资料学习就会得到不同的直线,而不是得到同一条直线。若某个算法总给出相同的h,那么这个算法很可能是没有用的,不能学到什么。

4. 当有很多个假设时,可以想象每个不同的h把罐子中的球漆成不同的颜色:

很有可能选到的假设h的Ein很小,但是这个Ein很小的h,可能是偶然的。例:抛一个硬币5次,5次均为正面的概率很小。但抛50个硬币,每个硬币抛5次,其中一个硬币5次均为正面的概率就很大了。Hoeffding不等式说明的是只有一个h时,Ein和Eout差别很小。称Ein和Eout差别很大为BAD事件。如果某一份数据,使某一个h的Ein和Eout很大,称这份数据为BAD。由Hoeffding不等式可知,对于某个h,一份数据为BAD的概率上界为2exp(-2ε2N)。若某一份数据,对于假设集至少一个假设是BAD,则认为这份数据对于整个假设集是BAD,有

从上面可知,当假设集大小有限时,数据为BAD这件事发生的概率仍然是有上界的,所以只要N足够大,能保证Ein约等于Eout。如果算法A能找到一个Ein很小的假设,就可以认为机器学习到了东西。

时间: 2024-10-09 23:24:24

机器学习基石第四讲笔记的相关文章

机器学习基石第六讲:theory of generalization

博客已经迁移至Marcovaldo's blog (http://marcovaldong.github.io/) 机器学习基石第六讲继续讨论"学习是否可行的问题". Restriction of Break Point 继续前面的讨论,我们看mH(N)是否会有一个很小的增长速度.回顾前面的四种成长函数及其break point.我们知道k是一个成长函数的break point,那比k大的值全是break point. mH(N)是一个hypothesis在N个数据点上可以产生的dic

机器学习基石第八讲:noise and error

博客已经迁移至Marcovaldo's blog (http://marcovaldong.github.io/) 机器学习基石第八讲主要介绍噪声和误差度量,笔记整理在下面. Noise and Probabilistic Target 现实中的数据很可能含有噪声(noise),例如前面的信用卡发放问题中,有的顾客符合发放标准但没有发给,或者同样情况的顾客有人发了有人没法,再或者顾客的信息不正确等等,VC bound是否在由噪声的情况下工作呢? 继续使用前面抽弹珠的例子,罐子中每一个弹珠代表一个

机器学习中使用的神经网络第四讲笔记

Geoffery Hinton教授的Neuron Networks for Machine Learning的第四讲主要介绍如何使用back propagation算法来学习到词汇的特征表示. Learning to predict the next word 接下来的几小节主要介绍如何使用back propagation算法来学习到词汇的特征表示.我们从一个很简单的例子开始,介绍使用back propagation算法来将词汇间的相关信息转换成特征向量. 下图给出了一个家庭的树状图,我们要做的

机器学习基石——第13-14讲.Hazard of Overfitting

本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumlone-002/lecture) 第13讲-------Hazard of Overfitting 从这一节开始,我们开始探讨How Can Machines Learn Better的

机器学习基石——第15-16讲.Validation

本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumlone-002/lecture) 第15讲-------Validation 一.模型选择问题 机器学习的每个模型都有各式各样的参数.即使只是对于二元分类,学习算法上可以选择PLA,LR

机器学习基石——第1-2讲.The Learning Problem

本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumlone-002/lecture) 第一讲-------The Learning Problem 一.课程总体 Machine Learning是一个理论与应用混合的工具,本课程则主要是f

机器学习基石——第3-4讲.Types of Learning

本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumlone-002/lecture) 第3讲-------Types of Learning 上一节讲到如果要回答YES/NO的是非问题,我们可以使用像PLA(感知机)这样的算法,他会在无数

机器学习基石——第9-10讲.Linear Regression

本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumlone-002/lecture) 第9讲-------Linear Regression 从这一节开始,开始涉及到How Can Machines Learn的问题了. 一.Linear

机器学习基石——第5-6讲.Training versus Testing

本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumlone-002/lecture) 第5讲-------Training versus Testing 从这一讲开始,讲的问题就是属于Why Can Machines Learn的范畴了.