logistic回归与手写识别例子的实现

本文主要介绍logistic回归相关知识点和一个手写识别的例子实现

一、logistic回归介绍:

logistic回归算法很简单,这里简单介绍一下:

1、和线性回归做一个简单的对比

下图就是一个简单的线性回归实例,简单一点就是一个线性方程表示

(就是用来描述自变量和因变量已经偏差的方程)

2、logistic回归

可以看到下图,很难找到一条线性方程能将他们很好的分开。这里也需要用到logistic回归来处理了。

logistic回归本质上是线性回归,只是在特征到结果的映射中加入了一层函数映射,即先把特征线性求和,然后使用函数g(z)将最为假设函数来预测。g(z)可以将连续值映射到0和1上。
logistic回归的假设函数如下,线性回归假设函数只是

logistic回归用来分类0/1问题,也就是预测结果属于0或者1的二值分类问题。这里假设了二值满足伯努利分布,也就是

其实这里求的是最大似然估计,然后求导,最后得到迭代公式结果为

可以看到与线性回归类似。

3、logistic回归原理介绍

(1)找一个合适的预测函数,一般表示为h函数,该函数就是我们需要找的分类函数,它用来预测输入数据的判断结果。

(2)构造一个Cost函数(损失函数),该函数表示预测的输出(h)与训练数据类别(y)之间的偏差,可以是二者之间的差(h-y)或者是其他的形式。综合考虑所有训练数据的“损失”,将Cost求和或者求平均,记为J(θ)函数,表示所有训练数据预测值与实际类别的偏差。

实际上这里的Cost函数和J(θ)函数是基于最大似然估计推导得到的,这里也就不详细讲解了。

(3)我们可以看出J(θ)函数的值越小表示预测函数越准确(即h函数越准确),所以这一步需要做的是找到J(θ)函数的最小值,Logistic Regression实现时有的是梯度下降法(Gradient Descent)。

梯度下降法是按下面的流程进行的:
1)首先对θ赋值,这个值可以是随机的,也可以让θ是一个全零的向量。
2)改变θ的值,使得J(θ)按梯度下降的方向进行减少。
梯度方向由J(θ)对θ的偏导数确定,由于求的是极小值,因此梯度方向是偏导数的反方向。结果为


迭代更新的方式有两种,一种是批梯度下降,也就是对全部的训练数据求得误差后再对θ进行更新,另外一种是增量梯度下降,每扫描一步都要对θ进行更新。前一种方法能够不断收敛,后一种方法结果可能不断在收敛处徘徊。

二、手写识别的例子实现

1、简介

手写识别的概念:是指将在手写设备上书写时产生的轨迹信息转化为具体字码。

手写识别系统是个很大的项目,识别汉字、英语、数字、其他字符。本文重点不在手写识别而在于理解logistic,因此只识别0~9单个数字。

讲到用logistic算法识别数字0~9,这是个十类别问题,如果要用logistic回归,得做10次logistic回归,第一次将0作为一个类别,1~9作为另外一个类别,这样就可以识别出0或非0。同样地可以将1作为一个类别,0、2~9作为一个类别,这样就可以识别出1或非1........

本文的实例为了简化,我只选出0和1的样本,这是个二分类问题。

输入格式:每个手写数字已经事先处理成32*32的二进制文本,存储为txt文件。

工程文件目录说明:

logistic regression.py实现的功能:从train里面读取训练数据,然后用梯度上升算法训练出参数Θ,接着用参数Θ来预测test里面的测试样本,同时计算错误率。

打开test或者train一个文件看看:

2、简单实现:

(1)将每个图片(即txt文本)转化为一个向量,即32*32的数组转化为1*1024的数组,这个1*1024的数组用机器学习的术语来说就是特征向量。

(2)训练样本中有m个图片,可以合并成一个m*1024的矩阵,每一行对应一个图片。

(3)用梯度下降法计算得到回归系数。

(4)分类,根据参数weigh对测试样本进行预测,同时计算错误率。

代码如下:

[python] view plain copy

  1. # -*- coding: utf-8 -*-
  2. from numpy import *
  3. from os import listdir
  4. """
  5. (1)将每个图片(即txt文本)转化为一个向量,即32*32的数组转化为1*1024的数组,这个1*1024的数组用机器学习的术语来说就是特征向量。
  6. 实现的功能是从文件夹中读取所有文件,并将其转化为矩阵返回
  7. 如调用loadData(‘train‘),则函数会读取所有的txt文件(‘0_0.txt‘一直到‘1_150.txt‘)
  8. 并将每个txt文件里的32*32个数字转化为1*1024的矩阵,最终返回大小是m*1024的矩阵
  9. 同时返回每个txt文件对应的数字,0或1
  10. """
  11. def loadData(direction):
  12. print(direction)
  13. trainfileList=listdir(direction)
  14. m=len(trainfileList)
  15. dataArray= zeros((m,1024))
  16. labelArray= zeros((m,1))
  17. for i in range(m):
  18. returnArray=zeros((1,1024))  #每个txt文件形成的特征向量
  19. filename=trainfileList[i]
  20. fr=open(‘%s/%s‘ %(direction,filename))
  21. for j in range(32):
  22. lineStr=fr.readline()
  23. for k in range(32):
  24. returnArray[0,32*j+k]=int(lineStr[k])
  25. dataArray[i,:]=returnArray   #存储特征向量
  26. filename0=filename.split(‘.‘)[0]
  27. label=filename0.split(‘_‘)[0]
  28. labelArray[i]=int(label)     #存储类别
  29. return dataArray,labelArray
  30. #sigmoid(inX)函数
  31. def sigmoid(inX):
  32. return 1.0/(1+exp(-inX))
  33. #用梯度下降法计算得到回归系数,alpha是步长,maxCycles是迭代步数。
  34. def gradAscent(dataArray,labelArray,alpha,maxCycles):
  35. dataMat=mat(dataArray)    #size:m*n
  36. labelMat=mat(labelArray)      #size:m*1
  37. m,n=shape(dataMat)
  38. weigh=ones((n,1))
  39. for i in range(maxCycles):
  40. h=sigmoid(dataMat*weigh)
  41. error=labelMat-h    #size:m*1
  42. weigh=weigh+alpha*dataMat.transpose()*error
  43. return weigh
  44. #分类函数,根据参数weigh对测试样本进行预测,同时计算错误率
  45. def classfy(testdir,weigh):
  46. dataArray,labelArray=loadData(testdir)
  47. dataMat=mat(dataArray)
  48. labelMat=mat(labelArray)
  49. h=sigmoid(dataMat*weigh)  #size:m*1
  50. m=len(h)
  51. error=0.0
  52. for i in range(m):
  53. if int(h[i])>0.5:
  54. print (int(labelMat[i]),‘is classfied as: 1‘)
  55. if int(labelMat[i])!=1:
  56. error+=1
  57. print (‘error‘)
  58. else:
  59. print (int(labelMat[i]),‘is classfied as: 0‘)
  60. if int(labelMat[i])!=0:
  61. error+=1
  62. print (‘error‘)
  63. print (‘error rate is:‘,‘%.4f‘ %(error/m))
  64. """
  65. 用loadData函数从train里面读取训练数据,接着根据这些数据,用gradAscent函数得出参数weigh,最后就可以用拟
  66. 合参数weigh来分类了。
  67. """
  68. def digitRecognition(trainDir,testDir,alpha=0.07,maxCycles=10):
  69. data,label=loadData(trainDir)
  70. weigh=gradAscent(data,label,alpha,maxCycles)
  71. classfy(testDir,weigh)
  72. #运行函数
  73. digitRecognition(‘train‘,‘test‘,0.01,50)

当然,digitRecognition(‘train‘,‘test‘,0.01,50)  这里面的0.01 和 50都是可以调整的
最终结果如下:

整个工程文件包括源代码、训练集、测试集,可到点击下载

参考资料:

https://www.coursera.org/course/ml

http://www.cnblogs.com/jerrylead/archive/2011/03/05/1971867.html

http://blog.csdn.net/dongtingzhizi/article/details/15962797

http://openclassroom.stanford.edu/MainFolder/HomePage.php

https://www.coursera.org/course/ml

时间: 2024-08-24 21:19:43

logistic回归与手写识别例子的实现的相关文章

机器学习与数据挖掘-logistic回归及手写识别实例的实现

本文主要介绍logistic回归相关知识点和一个手写识别的例子实现 一.logistic回归介绍: logistic回归算法很简单,这里简单介绍一下: 1.和线性回归做一个简单的对比 下图就是一个简单的线性回归实例,简单一点就是一个线性方程表示 (就是用来描述自变量和因变量已经偏差的方程) 2.logistic回归 可以看到下图,很难找到一条线性方程能将他们很好的分开.这里也需要用到logistic回归来处理了. logistic回归本质上是线性回归,只是在特征到结果的映射中加入了一层函数映射,

DeepLearning (四) 基于自编码算法与softmax回归的手写数字识别

[原创]Liu_LongPo 转载请注明出处 [CSDN]http://blog.csdn.net/llp1992 softmax 回归模型,是logistic 回归模型在多分类问题上的推广.关于logistic回归算法的介绍,前面博客已经讲得很清楚,详情可以参考博客 机器学习实战ByMatlab(五)Logistic Regression 在logistic回归模型中,我们的激励函数sigmoid的输入为: z=θ0x0+θ1x1+θ2x2+...+θnxn 则可以得到假设函数为: hθ(x)

Haskell手撸Softmax回归实现MNIST手写识别

Haskell手撸Softmax回归实现MNIST手写识别 前言 初学Haskell,看的书是Learn You a Haskell for Great Good, 才刚看到Making Our Own Types and Typeclasses这一章. 为了加深对Haskell的理解,便动手写了个Softmax回归.纯粹造轮子,只用了base. 显示图片虽然用了OpenGL,但是本文不会提到关于OpenGL的内容.虽说是造轮子, 但是这轮子造得还是使我受益匪浅.Softmax回归方面的内容参考

Tensorflow快餐教程(1) - 30行代码搞定手写识别

去年买了几本讲tensorflow的书,结果今年看的时候发现有些样例代码所用的API已经过时了.看来自己维护一个保持更新的Tensorflow的教程还是有意义的.这是写这一系列的初心. 快餐教程系列希望能够尽可能降低门槛,少讲,讲透. 为了让大家在一开始就看到一个美好的场景,而不是停留在漫长的基础知识积累上,参考网上的一些教程,我们直接一开始就直接展示用tensorflow实现MNIST手写识别的例子.然后基础知识我们再慢慢讲. Tensorflow安装速成教程 由于Python是跨平台的语言,

TensorFlow 入门之手写识别(MNIST) softmax算法

TensorFlow 入门之手写识别(MNIST) softmax算法 MNIST 卢富毓 softmax回归 softmax回归算法 TensorFlow实现softmax softmax回归算法 我们知道MNIST的每一张图片都表示一个数字,从0到9.我们希望得到给定图片代表每个数字的概率.比如说,我们的模型可能推测一张包含9的图片代表数字9的概率是80%但是判断它是8的概率是5%(因为8和9都有上半部分的小圆),然后给予它代表其他数字的概率更小的值. 这是一个使用softmax回归(sof

【机器学习算法实现】kNN算法__手写识别——基于Python和NumPy函数库

[机器学习算法实现]系列文章将记录个人阅读机器学习论文.书籍过程中所碰到的算法,每篇文章描述一个具体的算法.算法的编程实现.算法的具体应用实例.争取每个算法都用多种语言编程实现.所有代码共享至github:https://github.com/wepe/MachineLearning-Demo     欢迎交流指正! (1)kNN算法_手写识别实例--基于Python和NumPy函数库 1.kNN算法简介 kNN算法,即K最近邻(k-NearestNeighbor)分类算法,是最简单的机器学习算

基于tensorflow的MNIST手写识别

这个例子,是学习tensorflow的人员通常会用到的,也是基本的学习曲线中的一环.我也是! 这个例子很简单,这里,就是简单的说下,不同的tensorflow版本,相关的接口函数,可能会有不一样哟.在TensorFlow的中文介绍文档中的内容,有些可能与你使用的tensorflow的版本不一致了,我这里用到的tensorflow的版本就有这个问题. 另外,还给大家说下,例子中的MNIST所用到的资源图片,在原始的官网上,估计很多人都下载不到了.我也提供一下下载地址. 我的tensorflow的版

win10下通过Anaconda安装TensorFlow-GPU1.3版本,并配置pycharm运行Mnist手写识别程序

折腾了一天半终于装好了win10下的TensorFlow-GPU版,在这里做个记录. 准备安装包: visual studio 2015: Anaconda3-4.2.0-Windows-x86_64: pycharm-community: CUDA:cuda_8.0.61_win10:下载时选择 exe(local) CUDA补丁:cuda_8.0.61.2_windows: cuDNN:cudnn-8.0-windows10-x64-v6.0;如果你安装的TensorFlow版本和我一样1.

tensorflow笔记(四)之MNIST手写识别系列一

tensorflow笔记(四)之MNIST手写识别系列一 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7436310.html 前言 这篇博客将利用神经网络去训练MNIST数据集,通过学习到的模型去分类手写数字. 我会将本篇博客的jupyter notebook放在最后,方便你下载在线调试!推荐结合官方的tensorflow教程来看这个notebook! 1. MNIST数据集的导入 这里介绍一下MNIST,MNIST是在