1.2 linear SVM 推导

1.将公式中的distance具体化

将$w_0$单独抽出作为$b$,$w=(w_1,...,w_n),x=(x_1,...,x_n)$

则分割平面为:$w^Tx+b=0$

A.证明w为法向量

设两点$x‘,x‘‘$都在平面上,所以有

$w^Tx‘=w^Tx‘‘=-b$

$w^T(x‘-x‘‘)=0$

可以知道$x‘-x‘‘$是平面上的一个向量,$w$和它垂直,所以为法向量

B.距离表示为x-x‘到法向量的投影,同时使用第一个限制条件

$distance=|\frac{w^T(x-x‘)}{||w||}|=|\frac{w^Tx+b}{||w||}|=\frac{1}{||w||}y_n(w^Tx+b)$

2.使用放缩,简化条件

因为$w^Tx+b=0$和$3w^Tx+3b=0$表示同一个平面,适当放缩w和b

使 $\min\limits_{n=1,...,N} y_n(w^Tx+b) = 1$,则$margin(b,w)=\frac{1}{||w||}$

此时下方限制条件使最小的等于0,已经保证上方的条件,所以上方可省略

3.放松限制条件,去除min

A.变换条件,解不变

变条件为$y_n(w^Tx+b)\geq 1$

假设此时在$y_n(w^Tx+b)$上取得最优(b,w),

比如是在$y_n(w^Tx+b)=1.26$取得最优解,此时放缩(b,w)为$(\frac{b}{1.26},\frac{w}{1.26})$,

此时由于w变短,所以得到更好的解

因此,最优解不能在大于1的地方获得,最优解保持一致

B.变换max为min,并去除根号

时间: 2024-07-31 04:52:06

1.2 linear SVM 推导的相关文章

SVM推导过程及SMO详细求解过程(二)

记得当时自己在记笔记的时候,推导的过程中有一个地方符号写错了,有找到的吗? 当时的推导花费了很多功夫,如果转载请注明出处,谢谢! 其它:由于公式标记不方便,为了大家啊能够容易阅读只能以图片形式上传.

Fisher判别推导 Logistic回归推导 SVM推导

1. Fisher判别分析 2 Logistic 推导(二分类) 3 支持向量机推导(硬间隔) 原文地址:https://www.cnblogs.com/zfc888/p/10274434.html

算法理论——Linear SVM

问题引入 下面的三个超平面都起到分类的效果,哪个最好? 答案显然是第三个.为什么? 直觉上,如果现在我们有个测试点,非常靠近右下角的那个红叉叉,也就是说这个点的特征与那个红叉叉非常接近,这时候,我们希望我们的分类器能够将这个测试点划分为与红叉叉相同的类. 也就是说,我们希望,找到的超平面能够远离所有的点,也就是要最小化超平面到离它最近的那个点的距离. 我们定义:对任意的W, 要求出Wi使得f(Wi)等于 如何求最大值

SVM推导过程及SMO详细求解过程(一)

豆豆叶:机器学习与我的学术日常

Preface 今晚参加了 豆豆叶 在知乎举办的 Live:机器学习与我的学术日常 . 我参加的目的就是我想了解一下机器学习有一定成果的同龄人,是怎么样子做学术,怎么样学习这个学科的. 参加完这个 Live,回头总结来看,收获真的挺多的. Background 豆豆叶,本科毕业于中科大数学系.他原来是中科大计算机的,后来转到数学系的.因为他觉得计算机上的知识通过自己看书.看视频就能学会了,但是数学知识需要跟着老师走,做题练习,一步一个脚印的来. 后来他去了香港读了两年博士,之后直接 quit 了

机器学习基石--学习笔记02--Hard Dual SVM

背景 上一篇文章总结了linear hard SVM,解法很直观,直接从SVM的定义出发,经过等价变换,转成QP问题求解.这一讲,从另一个角度描述hard SVM的解法,不那么直观,但是可以避免feature转换时的数据计算,这样就可以利用一些很高纬度(甚至是无限维度)的feature转换,得到一些更精细的解. ? 拉格朗日乘子式 首先,回顾一下SVM问题的定义,如下: 线性约束很烦,不方便优化,是否有一种方法可以将线性约束放到优化问题本身,这样就可以无拘无束的优化,而不用考虑线性约束了.拉格朗

机器学习技法——第1-2讲.Linear Support Vector Machine

本栏目(机器学习)下机器学习技法专题是个人对Coursera公开课机器学习技法(2015)的学习心得与笔记.所有内容均来自Coursera公开课Machine Learning Techniques中Hsuan-Tien Lin林轩田老师的讲解.(https://class.coursera.org/ntumltwo-001/lecture) 第1讲-------Linear Support Vector Machine 在机器学习基石介绍的基本工具(主要围绕特征转换Feature Transf

【林轩田】SVM

SVM 推导 点到平面的距离(几何距离): 函数距离: |wx+b|,不考虑1/||w||. SVM的优化目标:所有样本点到分离超平面的最小的几何距离最大,可以写成: 这里 限制条件的第一行表示每个样本点都被正确的分类, 第二行表示最大化的目标是样本点到分离超平面的最小几何距离. W,b同步放缩并不影响分离超平面,故放缩至一定比例,使所有样本点到超平面的最小函数距离刚好为1, 那么最大化的目标就很简单了 需要优化的问题的形式为: 注意,既然放缩时使最小的函数间隔为1,那么实际上产生了一个比之前每

SVM与LR的比较

两种方法都是常见的分类算法,从目标函数来看,区别在于逻辑回归采用的是logistical loss,svm采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重.SVM的处理方法是只考虑support vectors,也就是和分类最相关的少数点,去学习分类器.而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重.两者的根本目的都是一样的.此外,根据需要,两个方法都可以增加不同的正则化项