超平面

||x|| 是什么意思?

表示范数,这是空间的一个性质,大体至关于一般意义上到原点距离的意思,但有更为广泛普遍的界说:假设V是域F上的向量空间;V的范数是一个函数p:V→R;x→p(x),满足:?a∈F,?u,v∈V,1.p(v)≥0(正值性)2.p(a v)=|a|p(v),(正值齐次性)3.p(u+v)≤p(u)+p(v)(三角不等式)4.p(v)是零向量,当且仅当v是零向量(正定性)如果没有第4条叫做半范数.范数是研究空间、向量的一种非常有用的东西.	 一般是指欧式范数x=(x1,x2,x3,.,xn)||x||=根号(x1*x1+.+xn*xn)

超平面

什么是超平面

我们最常见的平面概念是在三维空间中定义的:

Ax+By+Cz+D=0Ax+By+Cz+D=0

它由两个性质定义:

  • 方程是线性的: 是空间点的各分量的线性组合
  • 方程数量为1

若抛却维度等于3的限制, 就得到了超平面的定义. 方程数量为1, 它的本质其实是自由度比空间维度dd小一. 自由度的概念可以简单的理解为至少要给定多少个分量的值才能确定一个点. 例如, 三维空间里的(超)平面只要给定了(x,y,z)(x,y,z)中任意两个分量, 剩下的一个的值就确定了. 先确定值的两个分量是自由的, 因为它们想取什么值就能取什么值;剩下的那个是"不自由的", 因为它的值已经由另外两确定了. 二维空间里的超平面为一条直线. 一维空间里超平面为数轴上的一个点.
现在用数学语言定义一下.
dd维空间中的超平面由下面的方程确定:

wTx+b=0wTx+b=0

其中,ww与xx都是dd维列向量,x=(x1,x2,…,xd)Tx=(x1,x2,…,xd)T为平面上的点, w=(w1,w2,…,wd)Tw=(w1,w2,…,wd)T为平面的法向量.bb是一个实数, 代表平面与原点之间的距离.

点到超平面的距离

假设点x′x′为超平面A:wTx+b=0A:wTx+b=0上的任意一点, 则点xx到AA的距离为x?x′x?x′在超平面法向量ww上的投影长度:

d=|wT(x?x′)|||w||=|wTx+b|||w||d=|wT(x?x′)|||w||=|wTx+b|||w||

超平面的正面与反面

一个超平面可以将它所在的空间分为两半, 它的法向量指向的那一半对应的一面是它的正面, 另一面则是它的反面.

判断一个点是在超平面的正面还是反面(面向的空间里)

还是要用到它的法向量ww.
仍然假设点x′x′为超平面A:wTx+b=0A:wTx+b=0上的任意一点, 点xx为待判断的点.
若x?x′x?x′与ww的夹角小于90°90°, 则xx在AA的正面, 否则在反面

wT(x?x′)>0wT(x?x′)>0

→wTx+b>0→wTx+b>0

所以判定依据为:

x在A的???正面平面上反面,wTx+b>0,wTx+b=0,wTx+b<0x在A的{正面,wTx+b>0平面上,wTx+b=0反面,wTx+b<0

若将距离公式中分子的绝对值去掉, 让它可以为正为负. 那么, 它的值正得越大, 代表点在平面的正向且与平面的距离越远. 反之, 它的值负得越大, 代表点在平面的反向且与平面的距离越远.

时间: 2024-10-22 10:13:11

超平面的相关文章

SVM之超平面方程来源

摘要 本文主要说明SVM中用到的超平面方程是怎么来的,以及各个符号的物理意义,怎么算空间上某点到该平面的距离. 正文 < 统计学习方法>一书给出如下说明: 首先说明我对超平面的理解: 在三维坐标系里,XoY平面把三维坐标系"分割"成两个空间,这个分割平面引申到一维,二维,四维空间-来,他就是一个超平面.一维里是一个点分割空间,二维里是条线,3维刚好是个平面,4维的用几何已经无法表示了,但是我们赋予这个分割的东西为超平面,就比较形象了. 对于这个分离超平面方程时怎么来的,书中

(转)统计学习-2 感知机知识准备(模型类型、超平面与梯度下降法)

判别模型与生成模型 前面也有过介绍,回顾一下,判别模型的意思就是它不关心数据是怎么产生的,不关心数据之间有何概率关系,它只关心数据之间有什么不同,这种不同会造成什么结果.比如说给你一堆水果,让你把它们中相同种类的放在一个篮子里,判别模型的话,我们直接通过分辨两个果子之间的差别,是黄的还是红的,是大的还是小的来分类,而如果是生成模型,那么我们就需要学习水果的品种,认识水果,那么就可以这样,哦,这个果子看上去更像苹果,那么它就是苹果啦来分类. 从数学的角度来讲,判别模型直接学习条件概率模型 P(Y|

空间任意点到超平面的距离计算[转载]

原文见链接:http://http//bubblexc.com/y2011/310/  稍有修正. 直线.平面 在说超平面之前,先说说 Rn 空间中的直线和平面.给定 Rn 空间中的一点 p 和一非负向量 v? ,满足 i=tv? +p 的点 i 的集合称为 Rn 空间中的一条直线.上式中 t 是一个标量,向量 v?  决定了该直线的方向.如图1所示: 图1:line figure illustration 相对的,给定 Rn 空间中的一点 p和两个线性无关的向量 v? ,w? ,满足 i=tv

点到超平面距离公式 推导

公式: d = |wx0 + b|/||w||2 推导: 参考文献: https://blog.csdn.net/yutao03081/article/details/76652943 原文地址:https://www.cnblogs.com/jhc888007/p/9501494.html

支持向量到最优超平面的距离的推导

The issue at hand is to find the parameters wo and bo for the optimal hyperplane, given the training set {(xi,di)}. 原文地址:https://www.cnblogs.com/donggongdechen/p/9943603.html

超平面多维近似向量查找工具annoy使用总结

需求:我有800万的中文词向量,我想要查询其中任意一个向量对应的最邻近的向量是哪些.通常情况下如果向量集比较小的话,几十万个向量(几个G这种),我们都可以用gensim的word2vec来查找,但是880万有16个G,加到内存中就爆炸了,而且gensim中的查找属于暴力搜索,即全都遍历比较余弦相似度来进行查找,因此几百万的词向量查找起来就很慢了.这里我需要用更快速的工具来进行查找,找到了两个工具,一个是facebook的faiss包另一个是annoy包.Faiss只能部署在linux,而且看着好

举例:不相交的闭凸集不一定存在严格将他们分离的超平面

原文地址:https://www.cnblogs.com/CreatorKou/p/10147034.html

机器学习—逻辑回归理论简介

下面是转载的内容,主要是介绍逻辑回归的理论知识,先总结一下自己看完的心得 简单来说线性回归就是直接将特征值和其对应的概率进行相乘得到一个结果,逻辑回归则是这样的结果上加上一个逻辑函数 这里选用的就是Sigmoid函数,在坐标尺度很大的情况下类似于阶跃函数 在确认特征对应的权重值也就是回归系数的时候 最常用的方法是最大似然法,EM参数估计,这个是在一阶导数能够有解的前提下 如果一阶导数无法求得解析值,那么一般选取梯度上升法,通过有限次的迭代过程,结合代价函数更新回归系数至收敛 //////////

17-占领记忆,从更新权重开始——小而美的感知机

一个人和另一个人的相遇是很奇妙的.人生若只如初见,Wi全都是0.有的人之间自带化学反应,初次见面就噼里啪啦更新权重,经过激活函数得出--1:看你顺眼:-1:负分滚粗(原谅群主的简单粗暴).所谓权重,深藏于生活的每个细节中.曾经看过一篇文章,说即使关系亲密的人之间也是自带评分表的:今天你做了一件事让我开心,score++:明天你惹到我让我不爽,score--.所以无论和关系多好的人相处我们都需要反省,不断调整自己的行为,且行且珍惜.机器学习也是有温度的,你可以把它看作一个活生生的人,感觉触角多且灵