机器学习技法(5)--Kernel Logistic Regression

回顾一下soft margin SVM的知识:

然而从另一个角度来看,分为真的有犯错和没有犯错:

在没有犯错的时候,ξn=0就好了。于是ξn就可以写成一个求max的过程。根据这个思路,我们有了SVM的新形式:

这样一来,ξn就不再是一个独立的变量,它变成了一个由b和w决定的变量,这样的话,式子又被简化了。

简化后的式子和L2的正则差不多:

SVM和正则化有很多相似的点:

这些联系可以帮助我们以后换一种视角看待SVM。

下面从错误衡量的视角看LR和SVM:

由此可以看出SVM≈L2的LR。

那么再比较一下他们在二分类问题时的优缺点:

LR做二元分类比较好,因为它有个几率的概念;SVM只有固定的解,但是它有kernel这个好武器。

先跑个SVM,得到b和w;

再做一些放缩和平移的处理。

得到新的问题:

具体的步骤:

kernel的本质其实就是w可以表示成输入数据的线性组合。那么如果用这样的思路去看L2正则:

上图证明了L2正则也可以被kernel的(kernelized)。接下来就可以继续证明LR也可以被kernel:

总结:

时间: 2024-08-07 08:19:23

机器学习技法(5)--Kernel Logistic Regression的相关文章

Kernel Logistic Regression

所以,这里我们通过一种两个步骤的训练方式把SVM方法和Logistic Regression结合起来,第一步我们还是通过SVM求解得到Wsvm和bsvm,然后我们把得到的w和b,用上面的方法进行Logistic Regression的训练, 通过A和B这两个参数进行放缩和平移,最终得到的结果如果A>0的话,那么Wsvm就是好的,B接近0的话, bsvm也是可靠的. 这里我们把Platt’s Model的步骤概括成为以下的步骤: 因为有B的存在,所以有一定的平移的效果,所以soft binary

Probabilistic SVM 与 Kernel Logistic Regression(KLR)

本篇讲的是SVM与logistic regression的关系. (一) SVM算法概论 首先我们从头梳理一下SVM(一般情况下,SVM指的是soft-margin SVM)这个算法. 这个算法要实现的最优化目标是什么?我们知道这个目标必然与error measurement有关. 那么,在SVM中,何如衡量error的?也即:在SVM中ε具体代表着什么? SVM的目标是最小化上式.我们用来衡量error.这个式子是不是有点眼熟?我们在regularzation一篇中,最小化的目标也是如此形式.

机器学习实战四(Logistic Regression)

机器学习实战四(Logistic Regression) 这一章会初次接触最优化算法,在日常生活中应用很广泛.这里我们会用到基本的梯度上升法,以及改进的随机梯度上升法. Logistic回归 优点:计算代价不高,易于理解和实现 缺点:容易欠拟合,分裂精度可能不高 原理:根据现有数据堆分类边界线建立回归公式,依次进行分类. 这里的回归其实就是最佳拟合的意思. 1.基于Logistic回归和Sigmoid函数的分类. 我们需要一个这样的函数:接受所有的输入,然后预测出类别.例如,如果只有两类,则输出

【Kernel Logistic Regression】林轩田机器学习技术

最近求职真慌,一方面要看机器学习,一方面还刷代码.还是静下心继续看看课程,因为觉得实在讲的太好了.能求啥样搬砖工作就随缘吧. 这节课的核心就在如何把kernel trick到logistic regression上. 首先把松弛变量的表达形式修改一下,把constrained的形式改成unconstrained的形式. 改成这种'unconstrained' form of soft-margin SVM之后,突然发现很像L2 regularization 如果用regularized mode

机器学习 (三) 逻辑回归 Logistic Regression

文章内容均来自斯坦福大学的Andrew Ng教授讲解的Machine Learning课程,本文是针对该课程的个人学习笔记,如有疏漏,请以原课程所讲述内容为准.感谢博主Rachel Zhang 的个人笔记,为我做个人学习笔记提供了很好的参考和榜样. § 3.  逻辑回归 Logistic Regression 1 分类Classification 首先引入了分类问题的概念——在分类(Classification)问题中,所需要预测的$y$是离散值.例如判断一封邮件是否属于垃圾邮件.判断一个在线交

Coursera台大机器学习课程笔记9 -- Logistic Regression

这一节课主要讲如何用logistic regression做分类. 在误差衡量问题上,选取了最大似然函数误差函数,这一段推导是难点. 接下来是如何最小化Ein,采用的是梯度下降法,这个比较容易. 参考:http://beader.me/mlnotebook/section3/logistic-regression.html http://www.cnblogs.com/ymingjingr/p/4330304.html

机器学习之逻辑回归(Logistic Regression)

"""逻辑回归中的Sigmoid函数"""   import numpy as np   import matplotlib.pyplot as plt     def sigmoid(t):   return 1/(1+np.exp(-t))     x=np.linspace(-10,10,500)   y=sigmoid(x)     plt.plot(x,y)   plt.show() 结果: 逻辑回归损失函数的梯度:   逻辑回归算法:

斯坦福机器学习视频笔记 Week3 Logistic Regression and Regularization

我们将讨论逻辑回归. 逻辑回归是一种将数据分类为离散结果的方法. 例如,我们可以使用逻辑回归将电子邮件分类为垃圾邮件或非垃圾邮件. 在本模块中,我们介绍分类的概念,逻辑回归的损失函数(cost functon),以及逻辑回归对多分类的应用. 我们还涉及正规化. 机器学习模型需要很好地推广到模型在实践中没有看到的新例子. 我们将介绍正则化,这有助于防止模型过度拟合训练数据. Classification 分类问题其实和回归问题相似,不同的是分类问题需要预测的是一些离散值而不是连续值. 如垃圾邮件分

机器学习技法(3)--Kernel Support Vector Machine

根据上一次推导出来的问题: 从计算的角度来说,如果维度太大,向量z的内积求解起来非常的耗时耗力. 我们可以把这个过程分拆成两个步骤,先是一个x空间到z空间的转换Φ,再在z空间里做内积.如果能把这两个步骤合起来算得快一点的话就可以避开这个大计算量. x和x'转换了再做内积: 这样的方法可以算得比较快,因为直接在x空间内计算就好了,不用在z空间计算: 而这样的转换叫做kernel function: 这个kernel在SVM里怎样应用呢? 可见,kernel trick是一个避免了在高纬度空间进行计