机器学习基石(12)--Nonlinear Transformation

本节课重要讲述非线性的问题怎么样才能变成线性的分类问题。

到目前为止,我们会用模型进行线性的分类(左图),但是遇到右图的样子的时候,还是不能用一条线将它们分开。

但是右图视觉上,明显是可以用一个圆来进行分类的,假设一个半径为0.6的圆:

将上面的方程式进行展开和赋值,通过转换,再一次把圆形的方程式换成了一个线性的方程式,只不过多了一个新的变量z:

虽然(x,y)不是线性可分的,但是(z,y)却是线性可分的。z和y组成了一个完全不同于x和y构成的空间,在z-y空间中,是线性可分的。(把每一个x-y空间中的点,转换到z-y中间中去,在这个例子中,x中的每一个点通过取平方转换到了z的空间)这个转换的过程叫做feature transform Φ。

那么如果能在z空间线性可分,反过来能不能在x空间圆形可分呢?

先将公式转换,再代入例子验证:

z空间的点返回x空间的时候,不一定是一个正圆,有可能是椭圆等等。但是,如果能在z空间线性可分,那么在x空间就会有一个特殊形态的二次曲线(quadratic curve)。

如果拓展到所有形态的二次曲线:

下图就是所有可能的quadratic hypotheses的形式:

于是证明了z空间的线可以对应到x空间内所有形态的二次曲线,当然也包括直线。

那么什么样才是一个好的二次曲线呢?

下面是x空间和z空间的对应关系:

x空间线性不可分的情况,通过以下步骤可以转换成z空间线性可分并且可以用我们熟悉的模型进行分类。

1. 将x空间内的点通过feature transform Φ转换到z空间中去;

2. 通过已知的模型提出一个表现好的hypothesis g把z空间的点进行分类;

3. 将z空间的分类返回到x空间的分类。

上面讲的只是二项曲线的转换Φ2,如果我们继续把维度提高到Q,我们的转换ΦQ又有什么不同呢?

通过排列组合,我们有Qd的努力才能解开Q次方的转换。不管是计算量还是储存量都要花额外的力气。另外,模型的复杂度VC Dimension也在提升:

当Q升高的时候,我们又要面临一个trade off了。

当Q不同的时候,不同维度的hypothesis set是一个包含的关系:

而随着hypothesis set变高的时候,Ein也在不断的变小。

同时解释了下图:

因为我们在意的是Eout不是Ein,高复杂度的hypothesis set不一定就是好的。

时间: 2024-10-08 00:00:16

机器学习基石(12)--Nonlinear Transformation的相关文章

机器学习基石笔记12——机器可以怎样学习(4)

Lecture 12: Nonlinear Transformation 12.1 Quadratic Hypothesis 现在我们碰到一个新的问题,如何来给如图 12-1 所示的线性不可分数据做分类? 我们之前只学过 linear classification 和 linear regression .没有学过 nonlinear 算法. 图 12-1  线性不可分数据集 图 12-1 所示的数据可以用用圆(椭圆也可以)分开, 如图 12-2 所示 图 12-2 $$h_{SEP}(x) =

机器学习基石——第1-2讲.The Learning Problem

本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumlone-002/lecture) 第一讲-------The Learning Problem 一.课程总体 Machine Learning是一个理论与应用混合的工具,本课程则主要是f

台大林轩田·机器学习基石记要

台大林轩田·机器学习基石记要 昨天开始看林轩田的机器学习基石,从今天起开始去粗取精 第一讲比较基础,一些概念自己早已经理解了,所以不再做笔记,有点印象的是讲到了ML.DL.AI的一些联系与区别,ML主要是想从数据中学习/逼近一个理想的函数f(x) 第二讲讲到了PLA,感知器学习算法,并且证明了线性可分时感知器收敛定理(与Haykin的Neural Networks and Learning Machines证明相同,另外补充的是学习速率不一定为1,只要非负即可,但是这个地方还有一些疑问,在Hay

林轩田《机器学习基石》 简介

转:https://blog.csdn.net/red_stone1/article/details/80517672 课程介绍 台湾大学林轩田老师曾在coursera上开设了两门机器学习经典课程:<机器学习基石>和<机器学习技法>.<机器学习基石>课程由浅入深.内容全面,基本涵盖了机器学习领域的很多方面.其作为机器学习的入门和进阶资料非常适合.<机器学习技法>课程主要介绍了机器学习领域经典的一些算法,包括支持向量机.决策树.随机森林.神经网络等等.林老师的

NTU-Coursera机器学习:机器学习基石 (Machine Learning Foundations)

课讲内容 这门课以8周设计,分成 4个核心问题,每个核心问题约需2周的时间来探讨.每个约2个小时的录影中,每个小时为一个主题,以会各分成4到5个小段落,每个段落里会有一个后多个随堂的练习.我们在探讨每个核心问题的第二周.依上所述,課程的規畫如下: When Can Machines Learn? [何时可以使用机器学习] 第一周:(NTU-Coursera机器学习:机器学习问题与二元分类) 第一讲:The Learning Problem [机器学习问题]第二讲:Learning to Answ

机器学习基石笔记6——为什么机器可以学习(2)

转载请注明出处:http://www.cnblogs.com/ymingjingr/p/4271742.html 目录 机器学习基石笔记1——在何时可以使用机器学习(1) 机器学习基石笔记2——在何时可以使用机器学习(2) 机器学习基石笔记3——在何时可以使用机器学习(3)(修改版) 机器学习基石笔记4——在何时可以使用机器学习(4) 机器学习基石笔记5——为什么机器可以学习(1) 机器学习基石笔记6——为什么机器可以学习(2) 机器学习基石笔记7——为什么机器可以学习(3) 机器学习基石笔记8

机器学习基石笔记15——机器可以怎样学得更好(3)

转载请注明出处:http://www.cnblogs.com/ymingjingr/p/4271742.html 目录 机器学习基石笔记1——在何时可以使用机器学习(1) 机器学习基石笔记2——在何时可以使用机器学习(2) 机器学习基石笔记3——在何时可以使用机器学习(3)(修改版) 机器学习基石笔记4——在何时可以使用机器学习(4) 机器学习基石笔记5——为什么机器可以学习(1) 机器学习基石笔记6——为什么机器可以学习(2) 机器学习基石笔记7——为什么机器可以学习(3) 机器学习基石笔记8

机器学习基石笔记9——机器可以怎样学习(1)

转载请注明出处:http://www.cnblogs.com/ymingjingr/p/4271742.html 目录 机器学习基石笔记1——在何时可以使用机器学习(1) 机器学习基石笔记2——在何时可以使用机器学习(2) 机器学习基石笔记3——在何时可以使用机器学习(3)(修改版) 机器学习基石笔记4——在何时可以使用机器学习(4) 机器学习基石笔记5——为什么机器可以学习(1) 机器学习基石笔记6——为什么机器可以学习(2) 机器学习基石笔记7——为什么机器可以学习(3) 机器学习基石笔记8

机器学习基石笔记7——为什么机器可以学习(3)

转载请注明出处:http://www.cnblogs.com/ymingjingr/p/4271742.html 目录 机器学习基石笔记1——在何时可以使用机器学习(1) 机器学习基石笔记2——在何时可以使用机器学习(2) 机器学习基石笔记3——在何时可以使用机器学习(3)(修改版) 机器学习基石笔记4——在何时可以使用机器学习(4) 机器学习基石笔记5——为什么机器可以学习(1) 机器学习基石笔记6——为什么机器可以学习(2) 机器学习基石笔记7——为什么机器可以学习(3) 机器学习基石笔记8