斯坦福《机器学习》Lesson6感想———1、函数间隔和几何间隔

这一课主要是从怎样推断一个机器学习分类算法里拟合的參数是最佳參数引出函数间隔和几何间隔的定义。

1、函数间隔

如果假想函数

watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" >,,那么能够知道y=1;反之则y=0
。所以当。我们能够非常确定的觉得y=1;当,能够非常确定地觉得y=0。

所以在分类算法中。我们在训练样本时得到这两个结果的时候,就能够知道选择的參数能非常好的拟合数据。能非常有自信地觉得我们的分类器是符合数据事实的。因此我们数据能够引出函数间隔的定义。

给定某一个数据案例。假想函数为(用(w,b)表示表示为b,表示为w,整个假想函数的结果表示为{-1,1})。我们能够定义基于參数(w,b)的这个数据案例的函数间隔为:

因此可知,假设要得到一个值尽可能大的函数间隔。在时,须要为一个尽可能大的正数即为。在时,须要为一个尽可能大的负数即为。所以我们能够推出

当函数间隔大的时候,算法选择的參数能更好的模拟数据的现实能对測试数据集做出更好的猜測。

在给定的整个训练数据集上。函数间隔为:

2、几何间隔

图1

假设假想函数,图1中的线表示,称为分隔超平面(用来将数据集分隔开来的直线,也叫决策边界)。

图1中全部数据点都在二维平面上。所以此时分隔超平面为一条直线。可是假设全部数据点是在三维空间里。则分隔超平面为一个平面。

假设数据在n维空间里。则分隔超平面为n-1维的超平面。

可知数据点里决策边界越远,其最后的预測结果就越可信。

图1中的A点离决策边界最远,说明能够很确定的觉得它属于y=1;而c点最靠近决策边界,仅仅要略微改变下决策边界就能够推断其属于y=0。

因此。可知分隔超平面(决策边界)的选择取决于离分隔超平面近期的点与分隔超平面之间的间隔。这间隔就是几何间隔。支持向量就是离分隔超平面近期的点。

几何间隔越大。说明分类器越可信。

图2

按图2可定义几何间隔,已知A为,假想函数为,可知w是分隔超平面的法向量,w/||w||为分隔超平面的单位法向量。点A能够代表y=1的情况,如果AB=
,所以B(,0)。所以能够得到例如以下等式:

所以求解可得:

这个求解的仅仅是y=1的情况。所以综合y=-1的情况可定义A点的几何间隔为:

在给定的整个训练数据集上。几何间隔为

3、函数间隔和几何间隔的关系

函数间隔/||w|| =几何间隔

函数间隔会随着w和b的缩放而缩放。可是对于算法的參数选取没有意义。几何间隔不会随着w和b的缩放而缩放。

时间: 2025-01-31 01:41:50

斯坦福《机器学习》Lesson6感想———1、函数间隔和几何间隔的相关文章

(笔记)斯坦福机器学习第六讲--朴素贝叶斯

本讲内容 1. Naive Bayes(朴素贝叶斯) 2.Event models(朴素贝叶斯的事件模型) 3.Neural network (神经网络) 4.Support vector machines(支持向量机) 1.朴素贝叶斯 上讲中的垃圾邮件问题有几个需要注意的地方: (1)  一个单词只有出现和不出现两种可能,因此每个特征x只有两个取值 (2) 特征向量x的个数应该等于词典的长度,比如  将该算法一般化: (1) 让 可以取更多的值 此时  服从多项式分布,而不再是伯努利分布.一种

支持向量机中的函数距离和几何距离

作者:Jason Gu链接:https://www.zhihu.com/question/20466147/answer/28469993来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. SVM是通过超平面将样本分为两类.在超平面确定的情况下,可以相对地表示点距离超平面的远近.对于两类分类问题,如果,则的类别被判定为1:否则判定为-1. 所以如果,则认为的分类结果是正确的,否则是错误的.且的值越大,分类结果的确信度越大.反之亦然. 所以样本点与超平面之间的函数间隔定

(笔记)斯坦福机器学习第七讲--最优间隔分类器

本讲内容 1.Optional margin classifier(最优间隔分类器) 2.primal/dual optimization(原始优化问题和对偶优化问题)KKT conditions(KKT条件) 3.SVM dual (SVM的对偶问题) 4.kernels (核方法) 1.最优间隔分类器 对于一个线性可分的训练集合,最优间隔分类器的任务是寻找到一个超平面(w,b), 使得该超平面到训练样本的几何间隔最大. 你可以任意地成比例地缩放w和b的值,这并不会改变几何间隔的大小. 例如,

斯坦福机器学习

---title: 斯坦福机器学习-线性回归photos: - http://7xrw7v.com1.z0.glb.clouddn.com/bb2cf32cadac65e934ab587c5f456329.pngtags: - 斯坦福机器学习date: 2016-09-05 16:34:34--- 摘要: - 单变量线性回归- 代价函数- 梯 度 下 降- 学习率- 多 变 量 线 性 回 归- 特 征 缩 放- 多 项 式 回 归- 正 规 方 程 <!--more--> 不积跬步,无以至千

cs229 斯坦福机器学习笔记(一)

前言 说到机器学习,很多人推荐的学习资料就是斯坦福Andrew Ng的cs229,有相关的视频和讲义.不过好的资料 != 好入门的资料,Andrew Ng在coursera有另外一个机器学习课程,更适合入门.课程有video,review questions和programing exercises,视频虽然没有中文字幕,不过看演示的讲义还是很好理解的(如果当初大学里的课有这么好,我也不至于毕业后成为文盲..).最重要的就是里面的programing exercises,得理解透才完成得来的,毕

斯坦福机器学习课程汇总

斯坦福机器学习课程汇总 前言 首先感谢吴恩达建立Coursera这样一个优秀的在线学习平台,以及他发布在这个平台上的机器学习课程. 这门课程将整个机器学习领域的基础知识,用浅显易懂的方式,深入浅出的进行了介绍.使得一个拥有高中数学知识的学生也能听得明白. 如果你想要涉足机器学习.人工智能领域,或者对这一领域有浓厚的兴趣想要深入了解,那么你会发现很多机器学习入门课程推荐的资料中,都有吴恩达老师的这一系列课程.甚至在大多数资料中,都把这门课放在了首选的位置上. 因此,我把吴恩达老师的课程整理成了Ma

斯坦福机器学习公开课---1.机器学习简单介绍

斯坦福机器学习公开课---1. 机器学习简单介绍 1.1  介绍 机器学习流行原因--- 1)      由人工智能AI发展来的一个领域 2)      是计算机需要开发的一项新的能力,涉及工业和基础学科中的很多内容. 应用学习算法,如设计自主机器人,计算生物学和其他被机器学习影响的领域. 1.2  机器学习应用 1)        数据挖掘 网站点击流数据.电子医疗记录.计算生物学和工程学. 2)        无法手动进行编程的领域 自动直升机.手写体识别.自然语言处理NLP和计算机视觉.

斯坦福机器学习公开课学习笔记(1)—机器学习的动机与应用

(转载请注明出处:http://blog.csdn.net/buptgshengod) 1.背景 斯坦福机器学习公开课差不多是网上能找到的最好的机器学习入门课程了.现在一共有20节课放到网络上,博主是在网易公开课学的,那里的视频有中文字幕然后课件也很全. (地址:http://v.163.com/special/opencourse/machinelearning.html) 主讲师Andrew Ng(已经被百度诏安了)是华裔科学家,看他的课特别有亲切感.感觉他们的课跟国内老师的课区别还是挺大的

[4] 算法之路 - 插入排序之Shell间隔与Sedgewick间隔

题目 插入排序法由未排序的后半部前端取出一个值,插入已排序前半部的适当位置,概念简单但速度不快. 排序要加快的基本原则之一: 是让后一次的排序进行时,尽量利用前一次排序后的结果,以加快排序的速度,Shell排序法即是基于此一概念来改良插入排序法. 解法 Shell排序法最初是D.L Shell于1959所提出,假设要排序的元素有n个,则每次进行插入排序时并不是所有的元素同时进行时,而是取一段间隔. Shell排序算法 – n/2间隔 Shell首先将间隔设定为n/2,然后跳跃进行插入排序,再来将