数据挖掘笔试面试(13)

【校招面经】机器学习与数据挖掘常见面试题整理 part9

2018年08月04日 22:10:31 稻蛙 阅读数:203

八十、SVM的核函数

from:https://blog.csdn.net/lihaitao000/article/details/51173459

SVM核函数包括线性核函数、多项式核函数、径向基核函数、高斯核函数、幂指数核函数、拉普拉斯核函数、ANOVA核函数、二次有理核函数、多元二次核函数、逆多元二次核函数以及Sigmoid核函数. 核函数的定义并不困难,根据泛函的有关理论,只要一种函数 K ( x i , x j ) 满足Mercer条件,它就对应某一变换空间的内积.对于判断哪些函数是核函数到目前为止也取得了重要的突破,得到Mercer定理和以下常用的核函数类型: (1)线性核函数 K ( x , x i ) = x ⋅ x i (2)多项式核 K ( x , x i ) = ( ( x ⋅ x i ) + 1 ) d (3)径向基核(RBF) K ( x , x i ) = exp ( − ∥ x − x i ∥ 2 σ 2 ) Gauss径向基函数则是局部性强的核函数,其外推能力随着参数 σ 的增大而减弱。多项式形式的核函数具有良好的全局性质。局部性较差。 (4)傅里叶核 K ( x , x i ) = 1 − q 2 2 ( 1 − 2 q cos ( x − x i ) + q 2 ) (5)样条核 K ( x , x i ) = B 2 n + 1 ( x − x i ) (6)Sigmoid核函数 K ( x , x i ) = tanh ( κ ( x , x i ) − δ ) 采用Sigmoid函数作为核函数时,支持向量机实现的就是一种多层感知器神经网络,应用SVM方法,隐含层节点数目(它确定神经网络的结构)、隐含层节点对输入节点的权值都是在设计(训练)的过程中自动确定的。而且支持向量机的理论基础决定了它最终求得的是全局最优值而不是局部最小值,也保证了它对于未知样本的良好泛化能力而不会出现过学习现象。 核函数的选择 在选取核函数解决实际问题时,通常采用的方法有: 一是利用专家的先验知识预先选定核函数; 二是采用Cross-Validation方法,即在进行核函数选取时,分别试用不同的核函数,归纳误差最小的核函数就是最好的核函数.如针对傅立叶核、RBF核,结合信号处理问题中的函数回归问题,通过仿真实验,对比分析了在相同数据条件下,采用傅立叶核的SVM要比采用RBF核的SVM误差小很多. 三是采用由Smits等人提出的混合核函数方法,该方法较之前两者是目前选取核函数的主流方法,也是关于如何构造核函数的又一开创性的工作.将不同的核函数结合起来后会有更好的特性,这是混合核函数方法的基本思想

八十一、SVM-点到超平面的距离

from:https://blog.csdn.net/denghecsdn/article/details/77313758

前提知识:已知法线的情况下,求点到平面的距离:

d=| ( n*PA) / n | (n为法向量,P为该点,A为平面内任意一点)

n*PA是向量的点乘

—————————————————————————————

样本空间中的任意一点 x,到超平面(w,b)的距离,可以表示为

后来有同学评论说,点到超平面上的点为什么这么计算呢?我在这里再具体说一下。推导过程并不繁琐(这里以三维空间为例)。

对于超平面A

,假设 x‘ 为超平面上任意一点,那么,显然满足:

对于空间上任意一点 x, 到平面 A  的距离 H,等于 x 到超平面的法向量长度,也就是 向量 xx‘ 在垂直方向上(即法向量)上的投影。而计算投影,将 xx‘ 乘以法向量 w 即可。并且,我们不光要投影,还要计算单位,即使用单位为 1 的投影。也就是在分母除以 || w ||。所以,距离 H 可以表示为:

又因为:

所以,距离为:

八十二、SVM中,高斯核为什么会把原始维度映射到无穷多维?

from:https://blog.csdn.net/u013382288/article/details/80978456

1)先将高斯函数泰勒展开

2)将x和x‘分离,发现它们长得一样

3)高斯函数里藏着无限多维的转换

八十三、SVM中的C和gamma

from:https://blog.csdn.net/u013382288/article/details/80978456

1. C

1)C越大,越不能容忍分类误差样本存在,也就是hard-margin SVM,容易出现曲线边,容易过拟合

2)C越小,不关心分类是否正确,而关心间隔是否够大,容易欠拟合

2. gamma:gamma是选择RBF函数作为kernel后,该函数自带的一个参数。隐含地决定了数据映射到新的特征空间后的分布,

1)gamma越大,支持向量越少,容易欠拟合

2)gamma值越小,支持向量越多,容易过拟合

支持向量的个数影响训练与预测的速度

八十四、SVM的原问题和对偶问题

from:https://blog.csdn.net/diligent_321/article/details/53396682

SVM原问题

  SVM的几何意义是寻找一个最优分隔超平面,使其能把数据空间的两类点分开。记超平面方程为wTx+b=0,任意一点xi到超平面的距离公式为

di=|wTxi+b|||w||

  所以,目标函数为

maxw,bmini∈{1,...,N}|wTxi+b|||w||

  约束条件为

yi(wTxi+b)>0,i∈{1,...,N}

  ,这样便可以保证所有点都被正确分类。

  观察上述规划问题可知,将w, b同时放大或者缩小相同的倍数,不影响结果,即w, b存在多组解。为了得到唯一的一组w, b, 不妨令“函数间隔”为1,即令样本集满足

mini∈{1,...,N}|wTxi+b|=1

  ,那么可以转化为新问题如下,

maxw,b1||w||=minw,b12||w||2s,t    yi(wTxi+b)≥1,i∈{1,...,N}

SVM对偶问题

  对于SVM而言,原问题

minwθp(w)=minwmaxα,β,αi≥0L(w,α,β)

  不易求解,但由于原问题为二次规划问题,满足“strong duality”关系,故可解其对偶问题。

maxα,β,αi≥0minwL(w,α,β)=maxα,αi≥0minw,b{12||w||2−∑i=1Nαi[yi(wTxi+b)−1]}

  求解偏导数得

∂L(w,α)∂w=w−∑i=1Nαiyixi∂L(w,α)∂b=−∑i=1Nαiyi

  ,若令∂L(w,α)∂w=0,∂L(w,α)∂b=0,则可解之得

w∗=∑i=1Nαiyixi,  ∑i=1Nαiyi=0

  ,于是,对偶问题转化为

maxα{∑i=1Nαi−12∑i,j=1Ny(i)y(j)αiαj<x(i),x(j)>}s,t  αi≥0,  i∈{1,...,N}∑i=1Nαiyi=0

  ,求解出α,则w∗,b∗也就得到了。决策方程可以表示为

(w∗)Tx+b=(∑i=1Nαiyixi)Tx+b=∑i=1Nαiyi<xi,x>+b

  ,上式中,看上去是对所有训练样例和测试样例做内积,计算量大,其实不然,从KKT条件可知,对偶问题解出的α参数,仅support vectors的αi非零,其余全0。

  此外,引入对偶问题,除了简化“无约束”最优化过程外,还为核函数做了铺垫,而kernel function可以将原始样本映射到高维空间,使其变得“更有可能线性可分”(根据常识,数据越稀疏越可分)

原文地址:https://www.cnblogs.com/yumoye/p/10354160.html

时间: 2024-08-30 12:06:35

数据挖掘笔试面试(13)的相关文章

数据挖掘笔试面试(6)

[校招面经]机器学习与数据挖掘常见面试题整理 part1 2018年07月23日 00:12:13 稻蛙 阅读数:938 注:以下是本人春招时看面经时收集的常见面试题,答案部分是由网上多个信息源整理而成,部分是个人解答.当时整理时只是自己看的,很多没有注明来源地址,后续有时间补上来源,如有侵权请告知. 一.PCA为什么要中心化 因为要算协方差. 单纯的线性变换只是产生了倍数缩放,无法消除量纲对协方差的影响,而协方差是为了让投影后方差最大. 二.PCA的主成分是什么 在统计学中,主成分分析(PCA

数据挖掘笔试面试(9)

[校招面经]机器学习与数据挖掘常见面试题整理 part4 2018年07月25日 12:43:21 稻蛙 阅读数:149 五十一.Hinge loss Hinge loss 的叫法来源于其损失函数的图形,为一个折线,通用的函数表达式为: L(mi)=max(0,1−mi(w)) 表示如果被正确分类,损失是0,否则损失就是 1−mi(w) . 在机器学习中,Hing 可以用来解 间距最大化 的问题,最有代表性的就是SVM 问题,最初的SVM 优化函数如下:argminw,ζ12||w||2+C∑i

数据挖掘笔试+面试

笔试加面试题: https://blog.csdn.net/qwop446/article/details/78023390 自我介绍:从经历.性格.优势等 原文地址:https://www.cnblogs.com/lgx-fighting/p/9373617.html

数据挖掘笔试面试(7)

[校招面经]机器学习与数据挖掘常见面试题整理 part2 2018年07月25日 12:36:40 稻蛙 阅读数:150 三十.随机森林如何评估特征重要性 衡量变量重要性的方法有两种,Decrease GINI 和 Decrease Accuracy: 1) Decrease GINI: 对于回归问题,直接使用argmax(VarVarLeftVarRight)作为评判标准,即当前节点训练集的方差Var减去左节点的方差VarLeft和右节点的方差VarRight. 2) Decrease Acc

数据挖掘笔试面试(12)

[校招面经]机器学习与数据挖掘常见面试题整理 part8 2018年08月04日 21:46:27 稻蛙 阅读数:266 七十六.t-SNE from:http://www.datakit.cn/blog/2017/02/05/t_sne_full.html t-SNE(t-distributed stochastic neighbor embedding)是用于降维的一种机器学习算法,是由 Laurens van der Maaten 和 Geoffrey Hinton在08年提出来.此外,t

数据挖掘笔试面试(11)

[校招面经]机器学习与数据挖掘常见面试题整理 part7 2018年08月04日 21:32:43 稻蛙 阅读数:182 七十.势函数法 from:https://www.cnblogs.com/huadongw/p/4106290.html 势函数主要用于确定分类面,其思想来源于物理. 1 势函数法基本思想 假设要划分属于两种类别ω1和ω2的模式样本,这些样本可看成是分布在n维模式空间中的点xk. 把属于ω1的点比拟为某种能源点,在点上,电位达到峰值. 随着与该点距离的增大,电位分布迅速减小,

数据挖掘笔试面试(10)

[校招面经]机器学习与数据挖掘常见面试题整理 part5 2018年08月04日 15:58:45 稻蛙 阅读数:105 五十九.计量经济学中的平稳性 六十.高斯混合分布 1. 生成模型 2. 认为点是由多个高斯分布产生的,每个点可以归入多个类 3. 目标是使观测到的点在生成的高斯分布中出现概率最大 在做参数估计的时候,常采用的方法是 最大似然 .最大似然法就是使样本点在估计的概率密度函数上的概率值最大 .由于概率值一般都很小, N 很大的时候这个连乘的结果非常小,容易造成浮点数下溢.所以我们通

php 笔试面试 总结

一次小小的笔试面试经历,虽然是一些简单的问题,但是自己在这儿总结一下,也查一些资料,得出一些较好的答案,也能帮助自己成长. 1.自己熟悉的http状态码及其意义 其实这个题答案随处可见.这儿也还是记录一下我们常见的http状态码 200:请求返回的状态正常. 301:url永久性重定向. 302:url暂时性重定向. 400:错误请求. 401:未授权访问. 403:禁止访问. 404:未找到 500:服务器错误. 502:bad gateway.错误网关. 504:Gateway Timeou

12种排序算法:原理、图解、动画视频演示、代码以及笔试面试题目中的应用

出处:http://blog.csdn.net/han_xiaoyang/article/details/12163251. 声明:版权所有,转载请注明出处,谢谢. 0.前言 从这一部分开始直接切入我们计算机互联网笔试面试中的重头戏算法了,初始的想法是找一条主线,比如数据结构或者解题思路方法,将博主见过做过整理过的算法题逐个分析一遍(博主当年自己学算法就是用这种比较笨的刷题学的,囧),不过又想了想,算法这东西,博主自己学的过程中一直深感,基础还是非常重要的,很多难题是基础类数据结构和题目的思想综