从Kmeans到KD树搜索

Kmeans算法是一种极为常见的聚类算法。

其算法过程大意如下:

(1)通过问题分析,确定所要聚类的类别数k;(一般是难以直接确定,可以使用交叉验证法等方法,逐步进行确定。)

(2)根据问题类型,确定计算数据间相似性的计算方法;

(3)从数据集中随机选择k个数据作为聚类中心;

(4)利用相似度计算公式,计算每个数据与聚类中心之间的相似度。选择相似度最大的聚类中心,作为该数据点所归属的类。

(5)利用(4)以确定每个数据点的类别,重新计算每一类新的聚类中心;

(6)重复步骤(4)和(5),直到所有聚类中心稳定或者达到之前所设定的停止要求(例如,小于数据类别变化的阈值)。

Kmeans聚类在数据量较小的情况下,可以表现出较好的结果。但是,在数据量较大,并且每个数据的特征维度较高的情况下,执行Kmeans聚类将是极为耗费代价的。因为,每一次聚类过程都是需要计算整个数据空间的。计算量为nxk。其中,n为数据个数,k为聚类类别数。为此,可以通过构建一种较为复杂的数据结构(KD树)来减少每次聚类的搜寻。

对于KD树知识点的讲解可以分为三个方面:1.KD树的构建;2.KD树的修改;3.KD树在Kmeans聚类中的使用。

1.KD树的构建:

(1)利用(k%j+1)=i来选择第k次计算的数据维度号;(其中%为mod运算。)

(2)计算数据第i维的中位数,把其所对应的数据作为此时数据集的划分中心;

(3)利用该划分中心,将数据集一分为二;然后再对数据集进行重复步骤(1)和(2),直到不能再划分为止。

利用该方法就可以构建一棵二叉树,这就是KD树。(这里备注,一直不明白KD树名字的由来。只是知道K是指每个数据都有k个特征维度。)

2.KD树的修改:

KD树的修改包括:KD树节点的插入和KD树节点的删除(备注,KD树的修改,其实在Kmeans聚类算法里面没有多大用处,这里只是稍微提一下,权当是学习了。)。

KD树的插入在查找过程有点类似于二叉搜索树,在插入之后,则是使用二叉平衡树在插入之后的修正方法,进行修正。

根据之前建树时,所选定的比较轴顺序,进行比较对应维度的数据的大小,来选择该数据所走的方向。直到空指针出现时,就可以知道所要插入的位置。但是只是这样插入,必然会破坏了KD树,所以需要一定的修正。而这个修正类似于二叉平衡树在插入新节点之后对树的修正。

3.KD树在Kmeans算法中的使用

如果单纯执行Kmeans算法,则每一次聚类都需要遍历空间内的所有数据,这样对数据维度较大,数据量较大的情况,所耗费的代价是极大的。对此,我们需要使用KD树让Kmeans数对数据的搜索可以再局部中进行。

对KD树的查找,我们更经常使用的是使用其查找最近邻的数据。但是,如果是K个最近邻的数据,又该如何?是找到最近邻之后,忽视最近邻,然后再找次最近邻。

时间: 2024-11-04 01:57:45

从Kmeans到KD树搜索的相关文章

python kd树 搜索

kd树就是一种对k维空间中的实例点进行存储以便对其进行快速检索的树形数据结构,可以运用在k近邻法中,实现快速k近邻搜索.构造kd树相当于不断地用垂直于坐标轴的超平面将k维空间切分,依次选择坐标轴对空间进行切分,选择训练实例点在选定坐标轴上的中位数为切分点.具体kd树的原理可以参考kd树的原理. 代码是参考<统计学习方法>k近邻 kd树的python实现得到 首先创建一个类,用于表示树的节点,包括:该节点的值,该节点的切分轴,左子树,右子树 class decisionnode: def __i

KD树

什么是KD树 Kd-树是K-dimension tree的缩写,是对数据点在k维空间(如二维(x,y),三维(x,y,z),k维(x,y,z..))中划分的一种数据结构,主要应用于多维空间关键数据的搜索(如:范围搜索和最近邻搜索).本质上说,Kd-树就是一种平衡二叉树. 首先必须搞清楚的是,k-d树是一种空间划分树,说白了,就是把整个空间划分为特定的几个部分,然后在特定空间的部分内进行相关搜索操作.想像一个三维空间,kd树按照一定的划分规则把这个三维空间划分了多个空间,如下图所示: KD树的构建

从K近邻算法、距离度量谈到KD树、SIFT+BBF算法

从K近邻算法.距离度量谈到KD树.SIFT+BBF算法 从K近邻算法.距离度量谈到KD树.SIFT+BBF算法 前言 前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1.KD树:2.神经网络:3.编程艺术第28章.你看到,blog内的文章与你于别处所见的任何都不同.于是,等啊等,等一台电脑,只好等待..”.得益于田,借了我一台电脑(借他电脑的时候,我连表示感谢,他说“能找到工作全靠你的博客,这点儿小忙还说,不地道”,有的时候,稍许感受到受人信任也是一种压力,愿我不辜负大家对我的信任)

KNN算法与Kd树

最近邻法和k-近邻法 下面图片中只有三种豆,有三个豆是未知的种类,如何判定他们的种类? 提供一种思路,即:未知的豆离哪种豆最近就认为未知豆和该豆是同一种类.由此,我们引出最近邻算法的定义:为了判定未知样本的类别,以全部训练样本作为代表点,计算未知样本与所有训练样本的距离,并以最近邻者的类别作为决策未知样本类别的唯一依据.但是,最近邻算法明显是存在缺陷的,比如下面的例子:有一个未知形状(图中绿色的圆点),如何判断它是什么形状? 显然,最近邻算法的缺陷--对噪声数据过于敏感,为了解决这个问题,我们可

k近邻法的C++实现:kd树

1.k近邻算法的思想 给定一个训练集,对于新的输入实例,在训练集中找到与该实例最近的k个实例,这k个实例中的多数属于某个类,就把该输入实例分为这个类. 因为要找到最近的k个实例,所以计算输入实例与训练集中实例之间的距离是关键! k近邻算法最简单的方法是线性扫描,这时要计算输入实例与每一个训练实例的距离,当训练集很大时,非常耗时,这种方法不可行,为了提高k近邻的搜索效率,常常考虑使用特殊的存储结构存储训练数据,以减少计算距离的次数,具体方法很多,这里介绍实现经典的kd树方法. 2.构造kd树 kd

k近邻与kd树

k近邻是一种特别简单的有监督学习算法.给定一个带标签的训练数据集,从中选择与预测样本最近的k个训练样本,用这k个样本投票决定预测样本标签. k近邻法三要素:距离度量,k值选择和分类决策规则 为了提高k近邻搜索效率,比较常用的就是线性扫描和kd树(二叉树) kd树构造:对每个维度的特征依次寻找中位数划分子集,并以此中位数作为节点 代码: pass kd树搜索代码: 主要就是舍弃当前兄弟节点与当前圆没有相交的分支,减少搜索量(这里判断交集的时候,只需要依据父节点划分所依据的那一维度的值即可) 代码

OpenCV K-d树实现之FLANN (Fast Library for Approximate Nearest Neighbors) 算法实现及解析

k-d树搜索最近点,在opencv中使用FLANN算法,其包含: 1:建树   2.查询 程序见下: #include "kdtree.h" #include <iostream> #include <iomanip> #include "cv.h" #include "highgui.h" #include <fstream> #include "cv.h" #include "

kd树 求k近邻 python 代码

  之前两篇随笔介绍了kd树的原理,并用python实现了kd树的构建和搜索,具体可以参考 kd树的原理 python kd树 搜索 代码 kd树常与knn算法联系在一起,knn算法通常要搜索k近邻,而不仅仅是最近邻,下面的代码将利用kd树搜索目标点的k个近邻. 首先还是创建一个类,用于保存结点的值,左右子树,以及用于划分左右子树的切分轴 class decisionnode: def __init__(self,value=None,col=None,rb=None,lb=None): sel

02-17 kd树

目录 kd树 一.kd树学习目标 二.kd树引入 三.kd树详解 3.1 构造kd树 3.1.1 示例 3.2 kd树搜索 3.2.1 示例 四.kd树流程 4.1 输入 4.2 输出 4.3 流程 五.kd树优缺点 5.1 优点 5.2 缺点 六.小结 更新.更全的<机器学习>的更新网站,更有python.go.数据结构与算法.爬虫.人工智能教学等着你:https://www.cnblogs.com/nickchen121/ kd树 k近邻算法中讲到它有一个较为致命的缺点就是每个实例到未来新