支持向量机-Machine Learning In Action学习笔记

P.S. SVM比较复杂,代码没有研究清楚,进一步学习其他知识后再来补充。以下仅罗列了最核心的知识,来自《机器学习实战》的学习摘要。


优点:泛化错误率低,计算开销不大,结果易解释。

缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适用于处理二类问题。

适用数据类型:数值型和标称型数据。

线性可分数据:画出一条直线将两组数据点分开。

超平面(将数据集分隔开来的直线,为N-1维:分类的决策边界。如果数据点离决策边界越远,那么其最后的预测结果也就越可信。

间隔:点到分隔面的距离。(离分隔超平面最近的点,确保它们离分隔面的距离尽可能远。)

支持向量(support vector)就是离分隔超平面最近的那些点。接下来要试着最大化支持向量到分隔面的距离,需要找到此问题的优化求解方法。

应用支持向量机算法就是在特征空间建立分类超平面。

类别标签是0或1:类别标签为什么采用-1和+1呢?这是由于-1和+1仅仅相差一个符号,方便数学上的处理。(如果数据点处于正方向(即+1类)并且离分隔超平面很远的位置时,wTx+b(即分隔超平面)会是一个很大的正数,同时label * (wTx+b)(即间隔)也会是一个很大的正数。而如果数据点处于负方向(-1类)并且离分隔超平面很远的位置时,此时由于类别标签为-1,则label * (wTx+b)仍然是一个很大的正数。)


目标:

  1. 最终是找出分类器定义中的w和b;
  2. 为此必须找到具有最小间隔的数据点;
  3. 找到对该最小间隔最大化的w和b;
  4. 离分隔超平面最近的点的label * (wTx+b)的值为1;
  5. 该问题转换为带约束条件的优化问题:这里的约束条件就是label * (wTx+b)≥ 1.0;
  6. 用拉格朗日乘子法求解,(有个假设:数据必须100%线性可分,因为这不可能,所以引入所谓松弛变量,来允许有些数据点可以处于分隔面的错误一侧)约束条件为:

这里的常数C用于控制“最大化间隔”“保证大部分点的函数间隔小于1.0”这两个目标的权重。在优化算法的实现代码中,常数C是一个参数,因此我们就可以通过调节该参数得到不同的结果。一旦求出了所有的alpha,那么分隔超平面就可以通过这些alpha来表达。这一结论十分直接,SVM中的主要工作就是求解这些alpha。(大部分alpha值为0。而非零alpha所对应的也就是支持向量。)

SVM的一般流程

收集数据:可以使用任意方法。

准备数据:需要数值型数据。

分析数据:有助于可视化分隔超平面。

训练算法:SVM的大部分时间都源自训练,该过程主要实现两个参数的调优。

测试算法:十分简单的计算过程就可以实现。

使用算法:几乎所有分类问题都可以使用SVM,值得一提的是,SVM本身是一个二类分类器,对多类问题应用SVM需要对代码做一些修改。

序列最小优化算法(SMO):将大优化问题分解为多个小优化问题来顺序求解。

SMO算法的目标:求出一系列alpha和b,用这些alpha就很容易计算出权重向量w并得到分隔超平面。

SMO算法的工作原理:每次循环中选择两个alpha进行优化处理。一旦找到一对合适的alpha,那么就增大其中一个同时减小另一个。这里所谓的“合适”就是指两个alpha必须要符合一定的条件,条件之一就是这两个alpha必须要在间隔边界之外,而其第二个条件则是这两个alpha还没有进行过区间化处理或者不在边界上。

SMO算法的第一个版本伪代码:

创建一个alpha向量并将其初始化为0向量

当迭代次数小于最大迭代次数时(外循环)

对数据集中的每个数据向量(内循环):

如果该数据向量可以被优化:

随机选择另外一个数据向量

同时优化这两个向量

如果两个向量都不能被优化,退出内循环

如果所有向量都没被优化,增加迭代数目,继续下一次循环

数组过滤:只对NumPy类型有用,array(list)>0,会得到一个布尔数组。array(list)[array(list)>0]得到原列表中大于0的所有值组成的数组。

利用完整Platt SMO算法加速优化:

1. 通过一个外循环来选择第一个alpha值:一种方式是在所有数据集上进行单遍扫描;另一种方式则是在非边界alpha中实现单遍扫描(不等于边界0或C的alpha值,跳过已知的不会改变的alpha值)。

2. 通过一个内循环来选择第二个alpha值:通过最大化步长的方式来获得第二个alpha值。简化版SMO算法中,我们会在选择j之后计算错误率Ej。但在这里,我们会建立一个全局的缓存用于保存误差值,并从中选择使得步长或者说Ei-Ej最大的alpha值。

核函数:实现从一个特征空间到另一个特征空间的映射。能把数据从某个很难处理的形式转换成为另一个较容易处理的形式。(将数据(有时是非线性数据)从一个低维空间映射到一个高维空间,可以将一个在低维空间中的非线性问题转换成高维空间下的线性问题来求解。)

向量的内积:指的是两个向量相乘,之后得到单个标量或者数值。SVM优化中所有的运算都可以写成内积的形式。我们可以把内积运算替换成核函数(该过程为核技巧或者核”变电“),而不必做简化处理。

径向基核函数(一个流行的核函数):

  • 采用向量作为自变量,能够基于向量距离运算输出一个标量
  • 径向基函数的高斯版本:(σ是用户定义的用于确定到达率(reach) 或者说函数值跌落到0的速度参数)

支持向量的数目存在一个最优值。SVM的优点在于它能对数据进行高效分类。如果支持向量太少,就可能会得到一个很差的决策边界;如果支持向量太多,也就相当于每次都利用整个数据集进行分类,这种分类方法称为k近邻

来自为知笔记(Wiz)

时间: 2024-10-10 08:26:13

支持向量机-Machine Learning In Action学习笔记的相关文章

CART回归树(chap9)Machine Learning In Action学习笔记

后续再次学习,现在理解有些模糊. 优点:可以对复杂和非线性的数据建模 缺点:结果不易理解 适用数据类型:数值型(转换成二值型)和标称型数据 树回归的一般方法 收集数据:采用任意方法收集数据. 准备数据:需要数值型的数据,标称型数据应该映射成二值型数据. 分析数据:绘出数据的二维可视化显示结果,以字典方式生成树. 训练算法:大部分时间都花费在叶节点树模型的构建上. 测试算法:使用测试数据上的R2值来分析模型的效果. 使用算法:使用训练出的树做预测,预测结果还可以用来做很多事情 回归树与分类树的思路

决策树(chap3)Machine Learning In Action学习笔记

优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据. 缺点:可能会产生过度匹配问题. 适用数据类型:数值型(必须离散化)和标称型. 决策树创建分支的伪代码函数createBranch(): 检测数据集中的每个子项是否属于同一分类: If so return 类标签: Else 寻找划分数据集的最好特征 划分数据集 创建分支节点 for 每个划分的子集 调用函数createBranch并增加返回结果到分支节点中 return 分支节点 决策树的一般流程 收集数据:

朴素贝叶斯-Machine Learining In Action学习笔记

优点:在数据较少的情况下仍然有效,可以处理多类别问题. 缺点:对于输入数据的准备方式较为敏感. 适用数据类型:标称型数据. 条件概率:p(x,y|c?) 需要先验知识和逻辑推理 频数概率:从数据本身获得结论,并不考虑逻辑推理及先验知识 朴素贝叶斯的一般过程: 1. 收集数据:可以使用任何方法. 2. 准备数据:需要数值型或者布尔型数据 3. 分析数据:有大量特征时,绘制特征作用不大,此时使用直方图效果更好. 4. 训练算法:计算不同的独立特征的条件概率. 5. 测试算法:计算错误率. 6. 使用

Machine Learning With Spark学习笔记(在10万电影数据上训练、使用推荐模型)

我们如今開始训练模型,还输入參数例如以下: rank:ALS中因子的个数.通常来说越大越好,可是对内存占用率有直接影响,通常rank在10到200之间. iterations:迭代次数,每次迭代都会降低ALS的重构误差.在几次迭代之后,ALS模型都会收敛得到一个不错的结果,所以大多情况下不须要太多的迭代(一般是10次). lambda:模型的正则化參数,控制着避免过度拟合.值越大,越正则化. 我们将使用50个因子,8次迭代,正则化參数0.01来训练模型: val model = ALS.trai

Machine Learning With Spark学习笔记(提取10万电影数据特征)

注:原文中的代码是在spark-shell中编写执行的,本人的是在eclipse中编写执行,所以结果输出形式可能会与这本书中的不太一样. 首先将用户数据u.data读入SparkContext中,然后输出第一条数据看看效果,代码如下: val sc = new SparkContext("local", "ExtractFeatures") val rawData = sc.textFile("F:\\ScalaWorkSpace\\data\\ml-10

Machine Learning In Action 第二章学习笔记: kNN算法

本文主要记录<Machine Learning In Action>中第二章的内容.书中以两个具体实例来介绍kNN(k nearest neighbors),分别是: 约会对象预测 手写数字识别 通过“约会对象”功能,基本能够了解到kNN算法的工作原理.“手写数字识别”与“约会对象预测”使用完全一样的算法代码,仅仅是数据集有变化. 约会对象预测 1 约会对象预测功能需求 主人公“张三”喜欢结交新朋友.“系统A”上面注册了很多类似于“张三”的用户,大家都想结交心朋友.“张三”最开始通过自己筛选的

【机器学习实战】Machine Learning in Action 代码 视频 项目案例

MachineLearning 欢迎任何人参与和完善:一个人可以走的很快,但是一群人却可以走的更远 Machine Learning in Action (机器学习实战) | ApacheCN(apache中文网) 视频每周更新:如果你觉得有价值,请帮忙点 Star[后续组织学习活动:sklearn + tensorflow] ApacheCN - 学习机器学习群[629470233] 第一部分 分类 1.) 机器学习基础 2.) k-近邻算法 3.) 决策树 4.) 基于概率论的分类方法:朴素

Machine Learning in Action -- Support Vector Machines

虽然SVM本身算法理论,水比较深,很难懂 但是基本原理却非常直观易懂,就是找到与训练集中支持向量有最大间隔的超平面 形式化的描述: 其中需要满足m个约束条件,m为数据集大小,即数据集中的每个数据点function margin都是>=1,因为之前假设所有支持向量,即离超平面最近的点,的function margin为1 对于这种有约束条件的最优化问题,用拉格朗日定理,于是得到如下的形式, 现在我们的目的就是求出最优化的m个拉格朗日算子,因为通过他们我们可以间接的算出w和b,从而得到最优超平面 考

【web开发学习笔记】Structs2 Action学习笔记(一)

1.org.apache.struts2.dispatcher.ng.filter.StrutsPrepareAndExecuteFilter准备和执行 2. <filter-mapping> <filter-name>struts2</filter-name> <url-pattern>/*</url-pattern> </filter-mapping> url-pattern约定熟成只写/*,没必要写*.action 3. <