kNN算法python实现和简单数字识别

kNN算法

算法优缺点:

  • 优点:精度高、对异常值不敏感、无输入数据假定
  • 缺点:时间复杂度和空间复杂度都很高
  • 适用数据范围:数值型和标称型

算法的思路:

KNN算法(全称K最近邻算法),算法的思想很简单,简单的说就是物以类聚,也就是说我们从一堆已知的训练集中找出k个与目标最靠近的,然后看他们中最多的分类是哪个,就以这个为依据分类。

函数解析:

库函数

  • tile()

    tile(A,n)就是将A重复n次

a = np.array([0, 1, 2])
np.tile(a, 2)
array([0, 1, 2, 0, 1, 2])
np.tile(a, (2, 2))
array([[0, 1, 2, 0, 1, 2],[0, 1, 2, 0, 1, 2]])
np.tile(a, (2, 1, 2))
array([[[0, 1, 2, 0, 1, 2]],[[0, 1, 2, 0, 1, 2]]])
b = np.array([[1, 2], [3, 4]])
np.tile(b, 2)
array([[1, 2, 1, 2],[3, 4, 3, 4]])
np.tile(b, (2, 1))
array([[1, 2],[3, 4],[1, 2],[3, 4]])`

自己实现的函数

createDataSet()生成测试数组
kNNclassify(inputX, dataSet, labels, k)分类函数

  • inputX 输入的参数
  • dataSet 训练集
  • labels 训练集的标号
  • k 最近邻的数目

    1.  1 #coding=utf-8
       2 from numpy import *
       3 import operator
       4
       5 def createDataSet():
       6     group = array([[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]])
       7     labels = [‘A‘,‘A‘,‘B‘,‘B‘]
       8     return group,labels
       9 #inputX表示输入向量(也就是我们要判断它属于哪一类的)
      10 #dataSet表示训练样本
      11 #label表示训练样本的标签
      12 #k是最近邻的参数,选最近k个
      13 def kNNclassify(inputX, dataSet, labels, k):
      14     dataSetSize = dataSet.shape[0]#计算有几个训练数据
      15     #开始计算欧几里得距离
      16     diffMat = tile(inputX, (dataSetSize,1)) - dataSet
      17
      18     sqDiffMat = diffMat ** 2
      19     sqDistances = sqDiffMat.sum(axis=1)#矩阵每一行向量相加
      20     distances = sqDistances ** 0.5
      21     #欧几里得距离计算完毕
      22     sortedDistance = distances.argsort()
      23     classCount = {}
      24     for i in xrange(k):
      25         voteLabel = labels[sortedDistance[i]]
      26         classCount[voteLabel] = classCount.get(voteLabel,0) + 1
      27     res = max(classCount)
      28     return res
      29
      30 def main():
      31     group,labels = createDataSet()
      32     t = kNNclassify([0,0],group,labels,3)
      33     print t
      34
      35 if __name__==‘__main__‘:
      36     main()
      37             


kNN应用实例

手写识别系统的实现

数据集:

两个数据集:training和test。分类的标号在文件名中。像素32*32的。数据大概这个样子:

方法:

kNN的使用,不过这个距离算起来比较复杂(1024个特征),主要是要处理如何读取数据这个问题的,比较方面直接调用就可以了。

速度:

速度还是比较慢的,这里数据集是:training 2000+,test 900+(i5的CPU)

k=3的时候要32s+

  1.  1 #coding=utf-8
     2 from numpy import *
     3 import operator
     4 import os
     5 import time
     6
     7 def createDataSet():
     8     group = array([[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]])
     9     labels = [‘A‘,‘A‘,‘B‘,‘B‘]
    10     return group,labels
    11 #inputX表示输入向量(也就是我们要判断它属于哪一类的)
    12 #dataSet表示训练样本
    13 #label表示训练样本的标签
    14 #k是最近邻的参数,选最近k个
    15 def kNNclassify(inputX, dataSet, labels, k):
    16     dataSetSize = dataSet.shape[0]#计算有几个训练数据
    17     #开始计算欧几里得距离
    18     diffMat = tile(inputX, (dataSetSize,1)) - dataSet
    19     #diffMat = inputX.repeat(dataSetSize, aixs=1) - dataSet
    20     sqDiffMat = diffMat ** 2
    21     sqDistances = sqDiffMat.sum(axis=1)#矩阵每一行向量相加
    22     distances = sqDistances ** 0.5
    23     #欧几里得距离计算完毕
    24     sortedDistance = distances.argsort()
    25     classCount = {}
    26     for i in xrange(k):
    27         voteLabel = labels[sortedDistance[i]]
    28         classCount[voteLabel] = classCount.get(voteLabel,0) + 1
    29     res = max(classCount)
    30     return res
    31
    32 def img2vec(filename):
    33     returnVec = zeros((1,1024))
    34     fr = open(filename)
    35     for i in range(32):
    36         lineStr = fr.readline()
    37         for j in range(32):
    38             returnVec[0,32*i+j] = int(lineStr[j])
    39     return returnVec
    40
    41 def handwritingClassTest(trainingFloder,testFloder,K):
    42     hwLabels = []
    43     trainingFileList = os.listdir(trainingFloder)
    44     m = len(trainingFileList)
    45     trainingMat = zeros((m,1024))
    46     for i in range(m):
    47         fileName = trainingFileList[i]
    48         fileStr = fileName.split(‘.‘)[0]
    49         classNumStr = int(fileStr.split(‘_‘)[0])
    50         hwLabels.append(classNumStr)
    51         trainingMat[i,:] = img2vec(trainingFloder+‘/‘+fileName)
    52     testFileList = os.listdir(testFloder)
    53     errorCount = 0.0
    54     mTest = len(testFileList)
    55     for i in range(mTest):
    56         fileName = testFileList[i]
    57         fileStr = fileName.split(‘.‘)[0]
    58         classNumStr = int(fileStr.split(‘_‘)[0])
    59         vectorUnderTest = img2vec(testFloder+‘/‘+fileName)
    60         classifierResult = kNNclassify(vectorUnderTest, trainingMat, hwLabels, K)
    61         #print classifierResult,‘ ‘,classNumStr
    62         if classifierResult != classNumStr:
    63             errorCount +=1
    64     print ‘tatal error ‘,errorCount
    65     print ‘error rate‘,errorCount/mTest
    66
    67 def main():
    68     t1 = time.clock()
    69     handwritingClassTest(‘trainingDigits‘,‘testDigits‘,3)
    70     t2 = time.clock()
    71     print ‘execute ‘,t2-t1
    72 if __name__==‘__main__‘:
    73     main()
    74             


来自为知笔记(Wiz)

时间: 2024-10-27 10:51:34

kNN算法python实现和简单数字识别的相关文章

【机器学习】k-近邻算法应用之手写数字识别

上篇文章简要介绍了k-近邻算法的算法原理以及一个简单的例子,今天再向大家介绍一个简单的应用,因为使用的原理大体差不多,就没有没有过多的解释. 为了具有说明性,把手写数字的图像转换为txt文件,如下图所示(三个图分别为5.6.8): 要使用k-近邻算法,需要有足够的样本数据和测试数据,我放到了两个文件夹里(trainingDigits和testDigits),可以在这里(http://pan.baidu.com/s/1i3osO7N)下载使用 这里,每个数字有32X32个0或1,可以认为是一个维度

KNN算法--python实现

邻近算法 或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一.所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表. 关于K最近邻算法,非常好的一篇文章:KNN算法理解 行业应用:  客户流失预测.欺诈侦测等(更适合于稀有事件的分类问题) 写在前面的:Python2.7 数据iris: http://pan.baidu.com/s/1bHuQ0A   测试数据集: iris的第1行数据: 训练数据: iris

KNN算法Python实现

好久没有写博客了,心血来潮.写一个刚学学习的KNN算法,其实就是比相似度,靠的进的相似度高 废话不说上代码 from numpy import * import operator #创建初始矩阵 group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) label = ['A','A','B','B'] def classfy(inX,dataSet,labes,k): dataSetSize = dataSet.shape[0]#获取矩阵的维度,就是

[机器学习]kNN算法python实现(实例:数字识别)

# 使用好任何机器学习算法的前提是选好Features from numpy import * import operator from os import listdir def classify0(inX, dataSet, labels, k):     dataSetSize = dataSet.shape[0]     diffMat = tile(inX, (dataSetSize,1)) - dataSet     sqDiffMat = diffMat**2     sqDist

KNN算法——python实现

二.Python实现 对于机器学习而已,Python需要额外安装三件宝,分别是Numpy,scipy和Matplotlib.前两者用于数值计算,后者用于画图.安装很简单,直接到各自的官网下载回来安装即可.安装程序会自动搜索我们的python版本和目录,然后安装到python支持的搜索路径下.反正就python和这三个插件都默认安装就没问题了. 另外,如果我们需要添加我们的脚本目录进Python的目录(这样Python的命令行就可以直接import),可以在系统环境变量中添加:PYTHONPATH

python数据分析——手写数字识别

import numpy as np # bmp 图片后缀 import matplotlib.pyplot as plt %matplotlib inline from sklearn.neighbors import KNeighborsClassifier 提炼样本数据 In [6]: img_arr = plt.imread('./data/3/3_100.bmp') plt.imshow(img_arr) Out[6]: <matplotlib.image.AxesImage at 0

KNN分类算法实现手写数字识别

需求: 利用一个手写数字"先验数据"集,使用knn算法来实现对手写数字的自动识别: 先验数据(训练数据)集: ?数据维度比较大,样本数比较多. ? 数据集包括数字0-9的手写体. ?每个数字大约有200个样本. ?每个样本保持在一个txt文件中. ?手写体图像本身的大小是32x32的二值图,转换到txt文件保存后,内容也是32x32个数字,0或者1,如下: 数据集压缩包解压后有两个目录:(将这两个目录文件夹拷贝的项目路径下E:/KNNCase/digits/) ?目录trainingD

机器学习之KNN算法

1 KNN算法 1.1 KNN算法简介 KNN(K-Nearest Neighbor)工作原理:存在一个样本数据集合,也称为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类对应的关系.输入没有标签的数据后,将新数据中的每个特征与样本集中数据对应的特征进行比较,提取出样本集中特征最相似数据(最近邻)的分类标签.一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k近邻算法中k的出处,通常k是不大于20的整数.最后选择k个最相似数据中出现次数最多的分类作为新数据

通过KNN算法,确定球星的风格(很水)

KNN算法,故名思议,K个最邻近值的分类算法.监督学习中的一种,典型的懒人算法,通过计算所有的预测样本到学习样本的距离,选取其中K个最小值加入样本组中,样本组中的样本隶属于那个分类的个数最多,那么我们就预测我们的预测样本是属于这个类型的. 学习来源某个pdf(别人的学习笔记): 第四章 KNN(k最邻近分类算法) 最邻近分类算法) 最邻近分类算法) 最邻近分类算法) 最邻近分类算法) 最邻近分类算法) 最邻近分类算法) 最邻近分类算法) 1.算法 思路 通过计算每个训练样例到待分类品的 距离,取