机器学习---K最近邻(k-Nearest Neighbour,KNN)分类算法

K最近邻(k-Nearest Neighbour,KNN)分类算法

1.K最近邻(k-Nearest Neighbour,KNN)

  K最近邻(k-Nearest Neighbour,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。

2.算法原理

  

  如上图所示,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。也就是说,现在, 我们不知道中间那个绿色的数据是从属于哪一类(蓝色小正方形or红色小三角形),下面,我们就要解决这个问题:给这个绿色的圆分类。
  我们常说,物以类聚,人以群分,判别一个人是一个什么样品质特征的人,常常可以从他/她身边的朋友入手,所谓观其友,而识其人。我们不是要判别上图中那个绿色的圆是属于哪一类数据么,好说,从它的邻居下手。但一次性看多少个邻居呢?从上图中,你还能看到:

  • 如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。
  • 如果K=5,绿色圆点的最近的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类。

  KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。KNN 算法本身简单有效,它是一种 lazy-learning 算法,分类器不需要使用训练集进行训练,训练时间复杂度为0。KNN 分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中文档总数为 n,那么 KNN 的分类时间复杂度为O(n)。

  KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。

  

  K 近邻算法使用的模型实际上对应于对特征空间的划分。K 值的选择,距离度量和分类决策规则是该算法的三个基本要素:

  (1)K 值的选择会对算法的结果产生重大影响。K值较小意味着只有与输入实例较近的训练实例才会对预测结果起作用,但容易发生过拟合;如果 K 值较大,优点是可以减少学习的估计误差,但缺点是学习的近似误差增大,这时与输入实例较远的训练实例也会对预测起作用,是预测发生错误。在实际应用中,K 值一般选择一个较小的数值,通常采用交叉验证的方法来选择最优的 K 值。随着训练实例数目趋向于无穷和 K=1 时,误差率不会超过贝叶斯误差率的2倍,如果K也趋向于无穷,则误差率趋向于贝叶斯误差率。

  (2)该算法中的分类决策规则往往是多数表决,即由输入实例的 K 个最临近的训练实例中的多数类决定输入实例的类别

  (3)距离度量一般采用 Lp 距离,当p=2时,即为欧氏距离,在度量之前,应该将每个属性的值规范化,这样有助于防止具有较大初始值域的属性比具有较小初始值域的属性的权重过大。

  KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight), 如权值与距离成反比。 该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本 时,该样本的K个邻居中大容量类的样本占多数。 该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行 结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。

3.算法不足

  该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。

  实现 K 近邻算法时,主要考虑的问题是如何对训练数据进行快速 K 近邻搜索,这在特征空间维数大及训练数据容量大时非常必要。

4.程序代码

  以下两个片段一个是算法的主题,一个是主程序调用

  1 /************************************************************************/
  2 /*KNN分类算法C++实现版本    2015/11/5                                             */
  3 /************************************************************************/
  4 #include<iostream>
  5 #include<fstream>
  6
  7 #include<map>
  8 #include<vector>
  9 #include <string>
 10 #include<cmath>
 11 #include<algorithm>
 12
 13
 14 using namespace std;
 15
 16 typedef string tLabel;    //标签
 17 typedef double tData;    //数据
 18 typedef pair<int,double>  PAIR;    //位置和使用率(概率)
 19 const int MaxColLen = 4;
 20 const int MaxRowLen = 1000;
 21 const int COLNUM = 3;
 22 ifstream fin;
 23 ofstream fout;
 24
 25 class KNN
 26 {
 27 private:
 28     tData dataSet[MaxRowLen][MaxColLen];    //数据集
 29     tLabel labels[MaxRowLen];    //分类结果的标签
 30     tData testData[MaxColLen];//保留测试数据归一化的结果,或者原来的测试数据
 31     int rowLen;
 32     int k;    //临近的K值
 33     int test_data_num;    //测试数据数量
 34     map<int,double> map_index_dis;    //训练数据集中各个数据到被测试数据的距离,并以训练数据的序号为索引
 35     map<tLabel,int> map_label_freq;    //KNN中的K个距离最近的特征分类结果与对应的频率
 36     double get_distance(tData *d1,tData *d2);
 37 public:
 38     KNN();
 39     //预处理,获得相应的距离
 40     void get_all_distance();
 41     //获取最大的标签使用频率作为最大的概率
 42     tLabel get_max_freq_label();
 43     //归一化训练数据
 44     void auto_norm_data();
 45     //测试误差率
 46     void get_error_rate();
 47     //构造比较器,内部类型
 48     struct CmpByValue
 49     {
 50         bool operator() (const PAIR& lhs,const PAIR& rhs)
 51         {
 52             return lhs.second < rhs.second;
 53         }
 54     };
 55
 56     ~KNN();
 57 };
 58
 59 KNN::~KNN()
 60 {
 61     fin.close();
 62     fout.close();
 63     map_index_dis.clear();
 64     map_label_freq.clear();
 65 }
 66 /************************************************************************/
 67 /*  KNN算法构造函数                                                     */
 68 /************************************************************************/
 69 KNN::KNN()
 70 {
 71     this->rowLen = 1000;
 72     //this->colLen = col;
 73     this->k = 7;
 74     test_data_num = 50;
 75     //训练数据的读取
 76     fin.open("D:\\VC_WorkSpace\\KNNAlg\\datingTestTrainingData.txt");
 77     //输出的结果到一个文件中保存
 78     fout.open("D:\\VC_WorkSpace\\KNNAlg\\result.txt");
 79
 80     if( !fin || !fout )
 81     {
 82         cout << "can not open the file"<<endl;
 83         exit(0);
 84     }
 85
 86     for(int i = 0; i < rowLen; i++)
 87     {
 88         for(int j = 0; j < COLNUM; j++)
 89         {
 90             //cout << dataSet[i][j] << "_";
 91             fin >> dataSet[i][j];
 92             fout << dataSet[i][j] << " ";
 93         }
 94         //输入样本中的每个值向量对应的分类结果到“分类结果空间”
 95         fin >> labels[i];
 96         fout << labels[i]<< endl;
 97         //cout << endl;
 98     }
 99
100 }
101
102 void KNN:: get_error_rate()
103 {
104     int i,j,count = 0;
105     tLabel label;
106     cout << "please input the number of test data : "<<endl;
107     cin >> test_data_num;//测试数据的数量
108     //以训练数据的前test_data_num作为测试样本
109     for( i = 0; i < test_data_num; i++ )
110     {
111         for(j = 0; j < COLNUM; j++)
112         {
113             testData[j] = dataSet[i][j];
114         }
115         //训练test_data_num之后的数据作为训练数据
116         get_all_distance();
117         label = get_max_freq_label();//返回分类结果
118         cout << "*******   the lable = " << label << endl;
119         if( label != labels[i] )
120             count++;//分类失败统计器
121         map_index_dis.clear();
122         map_label_freq.clear();
123     }
124     //计算误差
125     cout<<"the error rate is = "<<(double)count/(double)test_data_num<<endl;
126 }
127 /************************************************************************/
128 /* 以欧式距离来表示                                                      */
129 /************************************************************************/
130 double KNN:: get_distance(tData *d1,tData *d2)
131 {
132     double sum = 0;
133     for(int i=0;i<COLNUM;i++)
134     {
135         sum += pow((d1[i] - d2[i]) , 2);
136     }
137     //输出结果显示
138     //cout<<"the sum is = "<< sum << endl;
139     return sqrt(sum);
140 }
141
142 /************************************************************************/
143 /* 以测试test_data_num序号之后的样本作为训练数据                         */
144 /************************************************************************/
145 void KNN:: get_all_distance()
146 {
147     double distance;
148     int i;
149     for(i = test_data_num; i < rowLen; i++)
150     {
151         distance = get_distance(dataSet[i],testData);
152         map_index_dis[i] = distance;
153     }
154
155     //  打开注释,可以查看索引距离集合中的内容
156     //    map<int,double>::const_iterator it = map_index_dis.begin();
157     //    while(it!=map_index_dis.end())
158     //    {
159     //        cout<<"index = "<<it->first<<" distance = "<<it->second<<endl;
160     //        it++;
161     //    }
162
163 }
164
165 tLabel KNN:: get_max_freq_label()
166 {
167     vector<PAIR> vec_index_dis(map_index_dis.begin(), map_index_dis.end());
168     //对结果进行排序操作,由小到大的顺序排列
169     sort(vec_index_dis.begin(), vec_index_dis.end(), CmpByValue());
170     //取前K个距离最近的特征标签作为分类的参考依据
171     for(int i = 0; i < k; i++)
172     {
173         cout << "Index = " << vec_index_dis[i].first << " Distance = " << vec_index_dis[i].second << " Label = " << labels[vec_index_dis[i].first] << " \nCoordinate(";
174         int j;
175         for(j=0; j < COLNUM - 1; j++)
176         {
177             cout << dataSet[vec_index_dis[i].first][j]<<",";
178         }
179         cout << dataSet[vec_index_dis[i].first][j] << " )" << endl;
180         //统计K邻域的使用频率
181         map_label_freq[ labels[ vec_index_dis[i].first ]  ]++;
182     }
183
184     map<tLabel,int>::const_iterator map_it = map_label_freq.begin();
185     tLabel label;    //保留频率最大的分类结果信息
186     int max_freq = 0;    //最大的使用频率
187     while( map_it != map_label_freq.end())
188     {
189         if( map_it->second > max_freq)
190         {
191             max_freq = map_it->second;
192             label = map_it->first;
193         }
194         map_it++;
195     }
196     cout << "The test data belongs to the : " << label << " label" << endl;
197     return label;
198 }
199 /************************************************************************/
200 /* 归一化处理                                                           */
201 /************************************************************************/
202 void KNN::auto_norm_data()
203 {
204     tData maxa[COLNUM];    //
205     tData mina[COLNUM];
206     tData range[COLNUM];
207     int i,j;
208     //遍历训练数据,找出数据向量的各个极值,为后续归一化处理
209     for( i = 0; i < COLNUM; i++ )
210     {
211         maxa[i] = max(dataSet[0][i],dataSet[1][i]);
212         mina[i] = min(dataSet[0][i],dataSet[1][i]);
213     }
214
215     for( i = 2; i < rowLen; i++ )
216     {
217         for(j = 0; j < COLNUM; j++)
218         {
219             if( dataSet[i][j]>maxa[j] )
220             {
221                 maxa[j] = dataSet[i][j];
222             }
223             else if( dataSet[i][j]<mina[j] )
224             {
225                 mina[j] = dataSet[i][j];
226             }
227         }
228     }
229
230     for( i = 0; i < COLNUM; i++ )
231     {
232         range[i] = maxa[i] - mina[i] ;
233         //归一化测试数据
234         testData[i] = ( testData[i] - mina[i] )/range[i] ;
235     }
236
237     //归一化训练数据的各个分量
238     for(i=0;i<rowLen;i++)
239     {
240         for(j=0;j<COLNUM;j++)
241         {
242             dataSet[i][j] = ( dataSet[i][j] - mina[j] )/range[j];
243         }
244     }
245 }

  主程序调用

 1 // KNNAlg.cpp : 定义控制台应用程序的入口点。
 2 #include "stdafx.h"
 3 #include <iostream>
 4 #include "knnbody.h"
 5 using namespace std;
 6
 7 int _tmain(int argc, _TCHAR* argv[])
 8 {
 9
10     cout << "the KNN algothm is running ... " << endl;
11     //生成KNN算法对象
12     KNN knn = KNN();
13     //训练数据的预处理
14     knn.auto_norm_data();
15     //对测试样本进行分类操作以及进行错误率统计
16     knn.get_error_rate();
17
18     system("pause");
19     return 0;
20 }

  备注:以上代码主要是呈现KNN算法的大致结构,程序中有些许细节不尽完善,后续需要更改。

  参考网址:

(1)http://baike.baidu.com/link?url=B_MWlciVjI4Oz2UJQaa09C3xkdkOHHH5OOg3uxE1UiMtG_P4Eq3dMlVQiRqqTqpASFZV8sk1jjiS2gmQDPvZ__
(2)http://blog.csdn.net/lavorange/article/details/16924705
时间: 2024-10-16 17:17:20

机器学习---K最近邻(k-Nearest Neighbour,KNN)分类算法的相关文章

后端程序员之路 12、K最近邻(k-Nearest Neighbour,KNN)分类算法

K最近邻(k-Nearest Neighbour,KNN)分类算法,是最简单的机器学习算法之一.由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合.该算法的功能有:从目标区域抽样计算欧式或马氏距离:在交叉验证后的RMSE基础上选择启发式最优的K邻域:计算多元k-最近邻居的距离倒数加权平均. 机器学习(一)——K-近邻(KNN)算法 - oYabea - 博客园http://www.cnblo

KNN分类算法实现手写数字识别

需求: 利用一个手写数字"先验数据"集,使用knn算法来实现对手写数字的自动识别: 先验数据(训练数据)集: ?数据维度比较大,样本数比较多. ? 数据集包括数字0-9的手写体. ?每个数字大约有200个样本. ?每个样本保持在一个txt文件中. ?手写体图像本身的大小是32x32的二值图,转换到txt文件保存后,内容也是32x32个数字,0或者1,如下: 数据集压缩包解压后有两个目录:(将这两个目录文件夹拷贝的项目路径下E:/KNNCase/digits/) ?目录trainingD

监督学习算法_k-近邻(kNN)分类算法_源代码

因为自己想学着去写机器学习的源码,所以我最近在学习<机器学习实战>这本书. <机器学习实战>是利用Python2完成的机器学习算法的源代码,并利用机器学习方法来对实际问题进行分析与处理. (<机器学习实战>豆瓣读书网址:https://book.douban.com/subject/24703171/) 以下内容是我通过学习<机器学习实战>,以及我对k-近邻(kNN)分类算法的理解,所总结整理出的内容,其中kNN分类算法的源码为Python3的代码,希望大家

机器学习之基于朴素贝叶斯文本分类算法

原理 在分类(classification)问题中,常常需要把一个事物分到某个类别.一个事物具有很多属性,把它的众多属性看做一个向量,即x=(x1,x2,x3,-,xn),用x这个向量来代表这个事物.类别也是有很多种,用集合Y=y1,y2,-ym表示.如果x属于y1类别,就可以给x打上y1标签,意思是说x属于y1类别.这就是所谓的分类(Classification). x的集合记为X,称为属性集.一般X和Y的关系是不确定的,你只能在某种程度上说x有多大可能性属于类y1,比如说x有80%的可能性属

KNN分类算法--python实现

一.kNN算法分析 K最近邻(k-Nearest Neighbor,KNN)分类算法可以说是最简单的机器学习算法了.它采用测量不同特征值之间的距离方法进行分类.它的思想很简单:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别. KNN算法中,所选择的邻居都是已经正确分类的对象.该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别.由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别

在Ignite中使用k-最近邻(k-NN)分类算法

在本系列前面的文章中,简单介绍了一下Ignite的线性回归算法,下面会尝试另一个机器学习算法,即k-最近邻(k-NN)分类.该算法基于对象k个最近邻中最常见的类来对对象进行分类,可用于确定类成员的关系. 一个适合k-NN分类的数据集是鸢尾花数据集,它可以很容易地通过UCI网站获得. 鸢尾花数据集由150个样本组成,来自3种不同种类的鸢尾花各有50朵(Iris Setosa, Iris Versicolour和Iris Virginica).以下四个特征可供每个样本使用: 萼片长度(cm) 萼片宽

KNN分类算法补充

KNN补充: 1.K值设定为多大? k太小,分类结果易受噪声点影响:k太大,近邻中又可能包含太多的其它类别的点. (对距离加权,可以降低k值设定的影响) k值通常是采用交叉检验来确定(以k=1为基准) 经验规则:k一般低于训练样本数的平方根 2.类别如何判定最合适? 加权投票法更恰当一些.而具体如何加权,需要根据具体的业务和数据特性来探索 3.如何选择合适的距离衡量? 高维度对距离衡量的影响:众所周知当变量数越多,欧式距离的区分能力就越差. 变量值域对距离的影响:值域越大的变量常常会在距离计算中

kNN分类算法的Python实现

1.k-近邻算法实现 from numpy import * import operator def createDataSet(): group = array([[1.0, 1.1], [2.0, 2.0], [0, 0], [4.1, 5.1]]) labels = ['A', 'B', 'C', 'D'] return group, labels def classify0(inX, dataSet, labels, k): """ :param inX: 用于分类的

Python机器学习:7.2 结合不同的分类算法进行投票

这一节学习使用sklearn进行投票分类,看一个具体的例子,数据集采用Iris数据集,只使用sepal width和petal length两个维度特征,类别我们也只是用两类:Iris-Versicolor和Iris-Virginica,评判标准使用ROC AUC. Python机器学习中文版目录(http://www.aibbt.com/a/20787.html) 转载请注明出处,Python机器学习(http://www.aibbt.com/a/pythonmachinelearning/)