K近邻(k-Nearest Neighbor,KNN)算法,一种基于实例的学习方法

1. 基于实例的学习算法

0x1:数据挖掘的一些相关知识脉络

本文是一篇介绍K近邻数据挖掘算法的文章,而所谓数据挖掘,就是讨论如何在数据中寻找模式的一门学科。

其实人类的科学技术发展的历史,就一直伴随着数据挖掘,人们一直在试图中数据中寻找模式,

  • 猎人在动物迁徙的行为中寻找模式
  • 农夫在庄稼的生长中寻找模式
  • 政客在选民的意见上寻找模式
  • 恋人在对方的反应中寻找模式
  • 企业家的工作是要辨别出机会,寻找出那些可以转变为有利可图的生意的行为中的一些模式,也即所谓的成功的模式,并且利用这些机会
  • 科学家的工作是理解数据,从数据中寻找模式,并用它们来指导在真实世界中如何运作

所谓数据挖掘,本质上就是通过分析存在于
数据库里的数据来解决问题,数据挖掘被定义为找出数据中的模式的过程,这个过程必须是自动的或半自动的。

接下来的问题就是,如何表示数据模式

有价值的数据模式能够让我们对新数据做出非凡的预测,表示一个数据模式有两种极端的方法:

  • 一种是内部结构很难被理解的黑匣子
  • 一种是展示模式结构的透明结构,它的结构揭示了模式的结构

两种方法可能都可以做出好的预测,它们的区别在于被挖掘出的模式能否以结构的形式清晰地表现,这个结构是否经得起分析,理由是否充分,能否用来形成未来的决策

如果模式能够以显而易见的方法获得决策结构,就称为结构模式(structural pattern),换句话说,结构模式能够帮助解释有关数据的一些现象,具备可解释性。

更进一步地,机器学习从数据中挖掘结构模式的过程,称为知识表达,机器学习所能发现的模式有许多不同的表达方式,每一种方式就是一种推断数据输出结构的技术,包括:

  • 表(table):所谓表,就是采用与输入相同的形式,完整存储所有的输入数据。这是机器学习输出结构的最简单、最基本的方法,它本质上等于一种存储与搜索技术
  • 回归表(regression table):线性回归模型就是一种回归表,回归表的核心目标是如何进行特征选择,形成一个比原始数据集更小的、扼要的决策表,关键问题是确定去除哪些属性而不会影响最终的决策
  • 决策表(decision table):决策树模型就是一种决策表
  • 实例表(instance table):本文要介绍的K近邻就是一种基于实例的学习算法,它在传统表的基础上进行了优化,有效缩减了需要存储和开销以及优化了搜索效率

0x2:什么是基于实例的学习算法?

了解了来龙去脉的知识脉络之外,我们将视野缩小到”基于实例的机器学习“这个领域内。

在基于实例的学习中,训练样本被一字不差地保存,并且使用一个距离函数来判定训练集中的哪个实例与一个未知的测试实例最靠近。一旦找到最靠近的训练实例,那么最靠近实例所属的类就被预测为测试实例的类。

基于实例的算法,有时也称为基于记忆的学习,它不是明确归纳概率分布或者分界面,而是将新的问题例子与训练过程中见过的例子进行对比,这些见过的例子就在存储器中。

Relevant Link:

《数据挖掘 实用机器学习工具与技术》Ian H.Witten Eibe Frank,Mark A.Hall

2. 从有效寻找最近邻问题说起

我们先来看下面这张图,

假设我们现在的目标是寻找图中离绿色点最近的实例。这个问题的答案似乎是显而易见的,很显然是右下方向的红色三角。

但是我们只要对题目稍加改造,例如将空间维数从2维扩展到100维,图上的点密度增加10倍,这个时候,答案还依然明显吗?显然不是了!

最直观的想法是,我们需要建一张表(table),将图中所有的数据点的坐标都保存起来,例如:

x1 ...... xn
A 1 ...... 2
..      
N 5 ...... 3

这样,每输入一个新的点时,我们就遍历一遍整张表,根据一定的距离函数(例如欧氏距离)找出距离最近的1个或k个实例。

这个场景在现实中是非常常见的需求,例如:

  • 相似文本发现
  • 相似性聚类
  • 目标分类
  • .....

尽管上面描述的查表法非常简单且有效,但是缺点是速度非常慢。这个过程与训练实例的数量成线性关系,换句话说,就是一个单独的预测所花费的时间与训练实例的数量成比例关系。处理整个数据集所花费的时间与训练集实例数量O(train)和测试集实例数量O(test)的乘积成正比。

如何解决这个关键矛盾呢?学者们从数据结构优化上入手,提出了一系列的高效数据结构与搜索算法,它们合称为K近邻算法,K近邻算法要解决的最核心问题就是如何有效寻找到最近邻的实例集,支撑这种搜索的结构就是一种知识表达。我们接下来来讨论它。

3. K近邻法(k-nearest neighbor KNN)算法介绍

K近邻法(k-nearest neighbor KNN)是一种数据驱动(基于实例的算法(Instance-based Algorithms))的分类回归方法。它属于一种判别模型。

0x1:适用场景

1. 多分类问题场景

在多分类问题中的k近邻法,k近邻法的输入为实例的特征向量,对应于特征空间的点,输出为实例的类别。

k近邻法假设给定一个训练数据集,其中的实例类别已定,分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决等方式进行预测。因此,k近邻法不具有显示的学习过程(或者说是一种延迟学习),k近邻法实际上利用训练数据集对特征向量空间进行划分,并作为其分类的“模型”。

2. 回归问题的场景

KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。

更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成正比。

0x2:算法模型

输入训练数据集,其中为实例的特征向量,为实例的类别。

根据给定的距离度量,在训练集中找出与 x 最邻近的 K(需要人工设定调参) 个点,在由这 K 个点组成的邻域中根据分类决策规则决定 x 的类别 y

K近邻法的特殊情况是k=1的情形,称为最近邻算法,即对于输入的实例点(特征向量)x,最近邻法将训练数据集中与x最邻近的类作为x的类。

Y = P(y | x):这里概率函数P指某种最小化距离判定公式

可以看到,K近邻法没有显示的学习过程,作为判别模型的一种,k近邻法的判别函数的具体形式也不是很明显。

K近邻法使用的模型实际上对应于特征空间的划分,某种意义上来说,k近邻的模型就是样本特征空间本身。

在k近邻法中,当下列基本要素:

  • 训练集
  • 距离度量
  • k值
  • 分类决策规则

确定后,对于任何一个新的输入实例,它所属的类唯一地确定。这相当于根据上述基本要素将特征空间划分为一些子空间,确定子空间里的每个点所属的类。

特征空间中,对每个训练实例点x1,距离该点比其他点更近的所有点组成一个区域,叫作单元(cell)。每个训练实例点拥有一个单元,所有训练实例点的单元构成对特征空间的一个划分:

K近邻很好地体现了判别式模型的思想,k近邻不生成概率分布函数,它只是通过三个基本要素尽可能地“捕捉”训练样本中的概率密度特征。之所以输入样本会被分到不同的类别,其本质就在于在训练样本中存在不均匀的概率密度分布,即某一个区域某一个类别密度占比比其他的类多。

下面我们来具体谈谈K近邻模型的几个基本要素。

1. K值选择

K值的选择会对K近邻法的结果产生重大影响。

  • 如果选择较小的K值,就相当于用较小的邻域中的训练实例进行预测

    • “学习”的近似误差(approximation error)会减少,只有与输入实例较近的(相似的、Lp距离较小的)训练实例才会对预测结果起作用
    • 但缺点是“学习”的估计误差(estimation error)会增大,预测结果会对近邻的实例点非常敏感,如果近邻的实例点恰巧是噪声,预测就会出错,可以理解为模型的容错性较差
    • 换句话说,k值的减小就意味着整体模型变得复杂(因为搜索范围小了,所以总的需要的搜索结果的存储单元就变多了),容易发生过拟合。
  • 如果选择较大的K值,就相当于用较大邻域中的训练实例进行预测
    • 优点是可以减少学习的估计误差,即不容易受到近邻点的波动影响
    • 但缺点是学习的近似误差会增大,这时与输入实例较远的(不相似的)训练实例也会对预测其作用,使预测发生错误
    • 总体来说,K值的增大就意味着整体模型变得简单

近似误差估计误差的核心区别在于是假设临近点的噪音扰动比较多还是远点的噪音扰动比较多。

在实际应用中,K值一般选取一个比较小的数值,即我们基本上认为近邻点的相关性是比较大的,而原点的相关性比较小

在实际项目中,K值的选择和样本中的概率密度分布有关,并没有一个定式的理论告诉我么该选什么样的K值,好在的是这个K值的搜索空间并不是很大,通常我们可以采取一个for循环交叉验证来搜索所有可能的K值,通过重复进行多次实验,每次随机选取不同的train set和validate set,查看KNN模型对train set和validate set的拟合和泛化能力来选择一个最好的K值。

理论上分析

理论上说,当 k 和实例的数量 n 都变成无穷大,使得 k/n -> 0 时,那么在数据集上产生的误差概率将达到理论上的最小值

2. 距离度量

特征空间中两个实例点的距离是两个实例点相似程度的一种数字化度量。

K近邻模型的特征空间一般是n维实数向量空间,计算两个向量之间的距离有很多种方法,注意这不是KNN独有的算法,向量间距离模型是数学中的基础概念:

设特征空间是n维实数向量空间

的Lp距离定义为:

1)P = 1:曼哈顿距离(Manhattan distance)

2)P = 2:欧式距离(Euclidean distance)

3)P = 正无穷:各个坐标距离的最大值

下图给出了二维空间中p取不同值时,与原点的Lp距离为1(Lp = 1)的点的集合图形

这张图很好地说明了取不同的距离策略对于KNN对于紧邻点的搜索范围是不同的,进而影响随后的判别分类结果

举一个例子说明由不同的距离度量所确定的最近邻点是不同的。已知二维空间的3个点,我们来对比一下在p取不同的值时,Lp距离下X1的最近邻点

P值 和X2距离 和X3距离
1 4 6
2 4 4.24
3 4 3.78
4 4 3.57

可以看到,p = 1/2时,X2是X1的最近邻点;P >= 3,X3是X1的最近邻点。

3. 分类决策规则

近邻法中的分类决策规则往往是多数表决,即由输入实例的k个临近的训练实例中的多数的label决定输入实例的类。当K=1时算法退化为最近邻搜索。

多数表决规则(majority voting rule)本质也是最优化技术,它符合极大似然估计原则。

我们假设分类的损失函数为0-1损失函数为:

那么误分类的概率是:

对给定的实例,其最近邻的 k 个训练实例点构成集合,如果涵盖的区域的类别是Cj,那么误分类率是:

要使误分类率最小,即经验风险最小,就要使下式最大:

即模型对训练样本的预测准确度(拟合程度)最大。所以多数表决规则等价于经验风险最小化。

0x3:学习策略

KNN的学习策略很简单,就是在训练集中寻找最近邻的K个实例点,并进行voting,选择最多类别的那个,即经验风险最小化。这同样体现了极大似然估计的核心思想。

0x4:学习算法

KNN的策略非常直观易理解,算法要解决是具体的工程化问题,即如何在高维空间中选出 k 个近邻点,当维度很高且样本量很大的时候,如果不采取一些高效的算法而直接暴力搜索的话是非常耗时的。

解决该问题的思路就是利用特殊构造的存储数据结构以及特殊的搜索方法来完成,这也是本文的重点讨论部分。

最先被提出的一种数据结构是树结构,通过应用分治思想,树结构将原始的O(N)复杂度降低为O(logN)复杂度,我们接下来来讨论它。

1. KD树(kd tree)结构

KD树是一种对K维空间中的实例点进行存储以便对其进行快速检索的树形数据结构。kd树是一个二叉树,一棵KD树就是一个超平面,表示对K维空间的一个划分(partition)。构造KD树相当于不断地用垂直于坐标轴的超平面将K维空间切分,构成一系列的K维超矩形区域。KD树的每个结点对应于一K维超矩形区域。

这里K是数据集属性的数量。

下图展示了一个k=2的小例子:

树不一定会发展到相同的深度,训练集中的每一个实例与树中的一个结点相对应,最多一半的结点是叶子节点。

2. 构建KD树

输入:k维空间数据集(样本数量是N),每个样本的维度是k,

  • 构造根节点,根节点对应于K维空间中包含所有实例点的超矩形区域
  • 选择为坐标轴,以数据集T中所有实例的坐标的中位数做 i 为切分点,将根节点对应的超矩形区域切分为两个子区域,切分由通过切分点并与坐标轴垂直的超平面实现。由根节点生成深度为 1 的左,右子节点
    • 左子结点对应坐标小于切分点的子区域
    • 右子节点对应于坐标大于切分点的子区域
  • 重复上述分裂过程,对深度为 j 的结点,选择为切分的坐标轴,(取模循环不断根据每个维度进行二叉切分),以该节点的区域中所有实例的坐标的中位数作为切分点,将该结点对应的超矩形区域切分为两个子区域。切分由通过切分点并与坐标轴垂直的超平面实现。由该结点生成深度为 j + 1 的左、右子节点:
    • 左子节点对应坐标小于切分点的子区域;
    • 右子节点对应坐标大于切分点的子区域;
    • 将刚好落在切分超平面上的实例点保存在该结点
  • 直到两个子区域没有实例存在时停止(即所有实例点都被分到某个子空间中),从而形成KD树的区域划分,最后一次切分得到的左、右子矩形空间就是叶节点

用一个例子来说明kd树构造过程 ,给定一个二维空间的数据集:

  • 根节点对应包含数据集 T 的超矩形区域
  • 选择轴,6个数据点的坐标的中位数是7,以平面将空间分为左、右量子子矩形(子结点)
  • 接着,左矩形的第二个维度的中位数是4,所以以再分为两个子矩形;右矩形以分为两个子矩形
  • 继续切分,直到所有的实例点都被分到一个超平面上,所切出的空间是一个不包含任何实例点的纯超矩形空间为止,最后一次切分得到的左、右子矩形空间就是叶节点

3. KD树更新

与其他大部分机器学习方法相比,基于实例学习的一个优势是新的实例可以在任何时候加入到训练集里。

新的数据来临时,需要用新的数据点判断其属于哪个叶子节点,并且找出叶子节点的超矩形。如果超矩形为空,就将新数据点放置在那里,否则分裂超矩形,分裂在最长的边上进行,以保持方形。

这种简单的探索式方法并不能保证在加入一系列点后,树依然会维持平衡,也不能保证为搜索最近邻塑造良好的超矩形。有时候从头开始重建数不失为一个良策。例如,当树的深度达到最合适的深度值的两倍时。

4. 搜索KD树

完成了KD树建树后,接下来讨论如何利用KD树进行高效K近邻搜索:

输入:根据train set构造的kd树;目标点x
输出:x的最近邻

  • 在KD树中找出包含目标点x的叶节点:从根节点出发,递归地向下访问KD树,若目标点x当前维的坐标小于切分点的坐标,则移动到左子结点,否则移动到右子节点,直到子节点为叶子节点(某个不含训练实例的超矩形区域)为止
  • 包含目标点的叶节点对应包含目标点的最小超矩形区域,以此叶节点的实例暂时作为“当前最近点“,注意这里说暂时是因为不一定该叶节点的实例点就真的是最近邻点了,理论上目标点的最近邻一定在以目标点为中心并且圆周通过当前最近点的超球体内部(局部最优原理),接下来的逆向回溯的目的就是尝试寻找在这个超球体区域内是否还存在其他叶节点内的实例点比“当前最近点”更近
  • 以此叶节点为"当前最近点"递归的向上回退,在每个结点(父节点)进行以下操作:重复此过程,依次回退到根节点,搜索结束,最后查看存储的"当前最近点"即为x的最近邻点
    • 如果该结点保存的实例点比当前最近点距离目标点更近,则已该实例点为"当前最近点"
    • 如果该结点的另一子结点的超矩形区域与超球体相交(可能存在另一个局部最优),那么在相交的区域内寻找与目标点更近的实例点。如果存在这样的点,将此点作为新的当前最近邻点,算法转到更上一级的父节点
    • 如果父节点的另一个子结点的超矩形区域与超球体不相交,说明另一个分支不存在另一个局部最优,则继续该分支的逆向回溯
  • 在回退的过程中,不断查找与目标点最邻近的结点,当确定不存在更近的结点时终止。这样搜索就被限制在空间的局部区域上,效率大为提高了(这也是二叉树的核心思想 - 分而治之)

用下图来说明kd树的搜索过程,根节点为A,子节点是B,C,D,E,F,G;目标实例点S,求S的最近邻

  • 首先在KD树中正向搜索,定位到最右下角那个矩形区域,随后开始逆向回溯过程
  • 该矩形区域的实例点是D,所以暂时以D作为近似最近邻。但是理论上最近邻一定在以点S为中心通过点D的圆的内部(局部最优),因此需要继续逆向回溯
  • 然后返回节点D的父节点B,在节点B的另一子结点F的区域内尝试搜索,但是因为节点F的区域与超圆不相交,不可能有最近邻点
  • 继续返回上一级父节点A,在节点A的另一子节点C的区域内尝试搜索,结点C的区域与圆相交,在超矩形区域在园内的实例点有点E,点E比点D更近,因此成为新的最近似点
  • 最后得到点E是点S的最近邻

5. KD树面临的挑战和困境

我们已经看到,KD树是可用于有效寻找最近邻的良好数据结构,但是,并不完美。当面对不均匀数据的数据集时,便面临一些基本冲突和挑战:

  • 既要求树有完美的平衡结构,又要求区域近似方形
  • 更重要的是,矩形、正方形都不是最好的使用形状,原因是它们都有角。处于边界附近的实例点的近邻搜索不太”柔和“,矩形的角是一个很难处理的问题

这里所谓的平衡结构,就是指树的两边分叉要尽量分布平均,这样可以最大程度地发挥O(logN)的优化效果,但是如果数据点的分布非常不均衡,采用中值的方法也许会在同一个方向上产多多次后续分裂,从而产生瘦长型的超矩形。一个更好的解决方法是采用平均值作为分裂点而不是中位值。这样产生的KD树会更趋向于方形。

但是均值分裂点技术依然无法完全规避KD原生的问题,为此,学界提出了超球分界面代替超矩形分界面的改进方法。

6. Ball Tree搜索

KD tree的思想非常精妙,但是也存在一些问题, 形并不是用到这里最好的方式。偏斜的数据集会造成我们想要保持树的平衡与保持区域的正方形特性的冲突。另外,矩形甚至是正方形并不是用在这里最完美的形状,由于它的角。为了解决这些问题,引入了ball tree,即使用超球面而不是超矩形划分区域

Ball Tree就是一个K维超球面来覆盖训练样本点。

上图(a)显示了一个2维平面包含16个观测实例的图,图(b)是其对应的ball tree,其中结点中的数字表示包含的观测点数。

树中的每个结点对应一个圆,结点的数字表示该区域保含的观测点数,但不一定就是图中该区域囊括的点数,因为有重叠的情况,并且一个观测点只能属于一个区域。实际的ball tree的结点保存圆心和半径。叶子结点保存它包含的观测点。

1)构造ball tree

Ball tree的建树过程和KD tree大体上一致,区别在于ball tree每次的切分点都是当前超球体的圆心。

  • 选择一个距离当前圆心最远的观测点 i1,和距离i1最远的观测点 i2
  • 将圆中所有离这两个点最近的观测点都赋给这两个簇的中心
  • 然后计算每一个簇的中心点和包含所有其所属观测点的最小半径,这样,左、右子节点又分裂成了新的超球体。

2)搜索ball tree

使用Ball tree时:

  • 先自上而下找到包含target的叶子结点,从此结点中找到离它最近的观测点。这个距离就是最近邻的距离的上界。
  • 检查它的兄弟结点中是否包含比这个上界更小的观测点,和KD tree一样,检查的标准就是兄弟的超球体和当前结点的超球体是否有交集
    • 如果没有交集,则这个兄弟结点不可能包含“更近邻点”
    • 如果有交集,则继续搜索兄弟节点

Relevant Link:

http://blog.csdn.net/pipisorry/article/details/53156836

原文地址:https://www.cnblogs.com/w4ctech/p/11826681.html

时间: 2024-11-02 20:27:42

K近邻(k-Nearest Neighbor,KNN)算法,一种基于实例的学习方法的相关文章

最邻近规则分类(K-Nearest Neighbor)KNN算法

 自写代码: 1 # Author Chenglong Qian 2 3 from numpy import * #科学计算模块 4 import operator #运算符模块 5 6 def createDaraSet(): 7 group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])#创建4行2列的数组 8 labels=['A',"A",'B','B']#标签列表 9 return group,labels 10 11 group,lab

4.2 最邻近规则分类(K-Nearest Neighbor)KNN算法应用

1 数据集介绍: 虹膜 150个实例 萼片长度,萼片宽度,花瓣长度,花瓣宽度 (sepal length, sepal width, petal length and petal width) 类别: Iris setosa, Iris versicolor, Iris virginica. 2. 利用Python的机器学习库sklearn: SkLearnExample.py from sklearn import neighbors from sklearn import datasets

基本分类方法——KNN(K近邻)算法

在这篇文章 http://www.cnblogs.com/charlesblc/p/6193867.html 讲SVM的过程中,提到了KNN算法.有点熟悉,上网一查,居然就是K近邻算法,机器学习的入门算法. 参考内容如下:http://www.cnblogs.com/charlesblc/p/6193867.html 1.kNN算法又称为k近邻分类(k-nearest neighbor classification)算法. 最简单平凡的分类器也许是那种死记硬背式的分类器,记住所有的训练数据,对于

KNN (K近邻算法) - 识别手写数字

KNN项目实战——手写数字识别 1. 介绍 k近邻法(k-nearest neighbor, k-NN)是1967年由Cover T和Hart P提出的一种基本分类与回归方法.它的工作原理是:存在一个样本数据集合,也称作为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系.输入没有标签的新数据后,将新的数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本最相似数据(最近邻)的分类标签.一般来说,我们只选择样本数据集中前k个最相似的数据,这就是

机器学习--K近邻 (KNN)算法的原理及优缺点

一.KNN算法原理 K近邻法(k-nearst neighbors,KNN)是一种很基本的机器学习方法. 它的基本思想是: 在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类. KNN算法的描述: (1)计算测试数据与各个训练数据之间的距离: (2)按照距离的递增关系进行排序: (3)选取距离最小的K个点: (4)确定前K个点所在类别的出现频率   (5

K近邻法(KNN)原理小结

K近邻法(k-nearst neighbors,KNN)是一种很基本的机器学习方法了,在我们平常的生活中也会不自主的应用.比如,我们判断一个人的人品,只需要观察他来往最密切的几个人的人品好坏就可以得出了.这里就运用了KNN的思想.KNN方法既可以做分类,也可以做回归,这点和决策树算法相同. KNN做回归和分类的主要区别在于最后做预测时候的决策方式不同.KNN做分类预测时,一般是选择多数表决法,即训练集里和预测的样本特征最近的K个样本,预测为里面有最多类别数的类别.而KNN做回归时,一般是选择平均

K近邻分类法

K近邻法 K近邻法:假定存在已标记的训练数据集,分类时对新的实例根据其K个最近邻的训练实例的类别,通过多数表决等分类决策规则进行预测. k近邻不具有显示学习的过程,是“懒惰学习”(lazy learning).分类器不需要使用训练集进行训练.实际上是利用训练数据集对特征向量空间进行划分,并作为其分类的“模型”. (标注:Lazy learning懒惰学习:训练阶段仅仅把样本保存起来,无训练时间开销,收到测试样本再进行处理: Eager laarning急切学习:训练阶段就对样本学习处理的方法.)

KNN算法的理解

一.算法 1.kNN算法又称为k近邻分类(k-nearest neighbor classification)算法. 最简单平庸的分类器或许是那种死记硬背式的分类器,记住全部的训练数据.对于新的数据则直接和训练数据匹配,假设存在同样属性的训练数据,则直接用它的分类来作为新数据的分类.这样的方式有一个明显的缺点,那就是非常可能无法找到全然匹配的训练记录. kNN算法则是从训练集中找到和新数据最接近的k条记录.然后依据他们的主要分类来决定新数据的类别.该算法涉及3个主要因素:训练集.距离或相似的衡量

KNN算法理解

一.算法概述 1.kNN算法又称为k近邻分类(k-nearest neighbor classification)算法. 最简单平庸的分类器或许是那种死记硬背式的分类器,记住全部的训练数据,对于新的数据则直接和训练数据匹配,假设存在同样属性的训练数据,则直接用它的分类来作为新数据的分类.这样的方式有一个明显的缺点,那就是非常可能无法找到全然匹配的训练记录. kNN算法则是从训练集中找到和新数据最接近的k条记录,然后依据他们的主要分类来决定新数据的类别.该算法涉及3个主要因素:训练集.距离或相似的