MNIST数据集手写体识别(CNN实现)

github博客传送门

csdn博客传送门

本章所需知识:

  1. 没有基础的请观看深度学习系列视频
  2. tensorflow
  3. Python基础

    资料下载链接:

    深度学习基础网络模型(mnist手写体识别数据集)

MNIST数据集手写体识别(CNN实现)

import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data  # 导入下载数据集手写体
mnist = input_data.read_data_sets(‘../MNIST_data/‘, one_hot=True)

class CNNNet:  # 创建一个CNNNet类
    def __init__(self):
        self.x = tf.placeholder(dtype=tf.float32, shape=[None, 28, 28, 1], name=‘input_x‘)  # 创建数据占位符
        self.y = tf.placeholder(dtype=tf.float32, shape=[None, 10], name=‘input_y‘)  # 创建标签占位符

        self.w1 = tf.Variable(tf.truncated_normal(shape=[3, 3, 1, 16], dtype=tf.float32, stddev=tf.sqrt(1 / 16), name=‘w1‘))  # 定义 第一层/输入层/卷积层 w
        self.b1 = tf.Variable(tf.zeros(shape=[16], dtype=tf.float32, name=‘b1‘))  # 定义 第一层/输入层/卷积层 偏值b

        self.w2 = tf.Variable(tf.truncated_normal(shape=[3, 3, 16, 32], dtype=tf.float32, stddev=tf.sqrt(1 / 32), name=‘w2‘))  # 定义 第二层/卷积层 w
        self.b2 = tf.Variable(tf.zeros(shape=[32], dtype=tf.float32, name=‘b2‘))  # 定义 第二层/卷积层 偏值b

        self.fc_w1 = tf.Variable(tf.truncated_normal(shape=[28 * 28 * 32, 128], dtype=tf.float32, stddev=tf.sqrt(1 / 128), name=‘fc_w1‘))  # 定义 第三层/全链接层/ w
        self.fc_b1 = tf.Variable(tf.zeros(shape=[128], dtype=tf.float32, name=‘fc_b1‘))  # 定义 第三层/全链接层/ 偏值b

        self.fc_w2 = tf.Variable(tf.truncated_normal(shape=[128, 10], dtype=tf.float32, stddev=tf.sqrt(1 / 10), name=‘fc_w2‘))  # 定义 第四层/全链接层/输出层 w
        self.fc_b2 = tf.Variable(tf.zeros(shape=[10], dtype=tf.float32, name=‘fc_b2‘))  # 定义 第四层/全链接层/输出层 偏值b

    # 前向计算
    def forward(self):
        # 前向计算 第一层/输入层/卷积层
        self.conv1 = tf.nn.relu(tf.nn.conv2d(self.x, self.w1, strides=[1, 1, 1, 1], padding=‘SAME‘, name=‘conv1‘) + self.b1)
        # 前向计算 第二层/卷积层
        self.conv2 = tf.nn.relu(tf.nn.conv2d(self.conv1, self.w2, strides=[1, 1, 1, 1], padding=‘SAME‘, name=‘conv2‘) + self.b2)
        # 将第二层卷积后的数据撑开为 [批次, 数据]
        self.flat = tf.reshape(self.conv2, [-1, 28 * 28 * 32])
        # 前向计算 第三层/全链接层
        self.fc1 = tf.nn.relu(tf.matmul(self.flat, self.fc_w1) + self.fc_b1)
        # 前向计算 第四层/全链接层/输出层
        self.fc2 = tf.matmul(self.fc1, self.fc_w2) + self.fc_b2
        # 输出层 softmax分类
        self.output = tf.nn.softmax(self.fc2)

    # 后向计算
    def backward(self):
        # 定义 softmax交叉熵 求损失
        self.cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=self.fc2, labels=self.y))
        # 使用 AdamOptimizer优化器 优化cost 损失函数
        self.opt = tf.train.AdamOptimizer().minimize(self.cost)

    # 计算测试集识别精度
    def acc(self):
        # 将预测值 output 和 标签值 self.y 进行比较
        self.acc2 = tf.equal(tf.argmax(self.output, 1), tf.argmax(self.y, 1))
        #  最后对比较出来的bool值 转换为float32类型后 求均值就可以看到满值为 1的精度显示
        self.accaracy = tf.reduce_mean(tf.cast(self.acc2, dtype=tf.float32))

if __name__ == ‘__main__‘:
    net = CNNNet()  # 启动tensorflow绘图的CNNNet
    net.forward()   # 启动前向计算
    net.backward()  # 启动后向计算
    net.acc()       # 启动精度计算
    init = tf.global_variables_initializer()  # 定义初始化tensorflow所有变量操作
    with tf.Session() as sess:  # 创建一个Session会话
        sess.run(init)          # 执行init变量内的初始化所有变量的操作
        for i in range(10000):  # 训练10000次
            ax, ay = mnist.train.next_batch(100)  # 从mnist数据集中取数据出来 ax接收图片 ay接收标签
            ax_batch = ax.reshape([-1, 28, 28, 1])  # 将取出的 图片数据 reshape成 NHWC 结构
            loss, output, accaracy, _ = sess.run(fetches=[net.cost, net.output, net.accaracy, net.opt], feed_dict={net.x: ax_batch, net.y: ay})  # 将数据喂进CNN网络
            # print(loss)      # 打印损失
            # print(accaracy)  # 打印训练精度
            if i % 10 == 0:    # 每训练10次
                test_ax, test_ay = mnist.test.next_batch(100)  # 则使用测试集对当前网络进行测试
                test_ax_batch = test_ax.reshape([-1, 28, 28, 1])  # 将取出的 图片数据 reshape成 NHWC 结构
                test_output = sess.run(net.output, feed_dict={net.x: test_ax_batch})  # 将测试数据喂进网络 接收一个output值
                test_acc = tf.equal(tf.argmax(test_output, 1), tf.argmax(test_ay, 1))  # 对output值和标签y值进行求比较运算
                accaracy2 = sess.run(tf.reduce_mean(tf.cast(test_acc, dtype=tf.float32)))  # 求出精度的准确率进行打印
                print(accaracy2)  # 打印当前测试集的精度

最后附上训练截图:

原文地址:https://www.cnblogs.com/Mrzhang3389/p/9899102.html

时间: 2024-09-29 05:28:17

MNIST数据集手写体识别(CNN实现)的相关文章

MNIST数据集手写体识别(SEQ2SEQ实现)

github博客传送门 csdn博客传送门 本章所需知识: 没有基础的请观看深度学习系列视频 tensorflow Python基础 资料下载链接: 深度学习基础网络模型(mnist手写体识别数据集) MNIST数据集手写体识别(CNN实现) import tensorflow as tf import tensorflow.examples.tutorials.mnist.input_data as input_data # 导入下载数据集手写体 mnist = input_data.read

MNIST数据集手写体识别(MLP实现)

github博客传送门 csdn博客传送门 本章所需知识: 没有基础的请观看深度学习系列视频 tensorflow Python基础 资料下载链接: 深度学习基础网络模型(mnist手写体识别数据集) MNIST数据集手写体识别(MLP实现) import tensorflow as tf import tensorflow.examples.tutorials.mnist.input_data as input_data # 导入下载数据集手写体 mnist = input_data.read

实现手写体 mnist 数据集的识别任务

实现手写体 mnist 数据集的识别任务,共分为三个模块文件,分别是描述网络结构的前向传播过程文件(mnist_forward.py). 描述网络参数优化方法的反向传播 过 程 文件 ( mnist_backward.py ). 验证 模 型 准确 率 的  测试 过 程 文件(mnist_test.py). 前向传播过程文件(mnist_forward.py) 在前向传播过程中,需要定义网络模型输入层个数.隐藏层节点数.输出层个数,定义网络参数 w.偏置 b,定义由输入到输出的神经网络架构.

深度学习-mnist手写体识别

mnist手写体识别 Mnist数据集可以从官网下载,网址: http://yann.lecun.com/exdb/mnist/ 下载下来的数据集被分成两部分:55000行的训练数据集(mnist.train)和10000行的测试数据集(mnist.test).每一个MNIST数据单元有两部分组成:一张包含手写数字的图片和一个对应的标签.我们把这些图片设为“xs”,把这些标签设为“ys”.训练数据集和测试数据集都包含xs和ys,比如训练数据集的图片是 mnist.train.images ,训练

机器学习入门实践——线性回归&非线性回归&mnist手写体识别

把一本<白话深度学习与tensorflow>给啃完了,了解了一下基本的BP网络,CNN,RNN这些.感觉实际上算法本身不是特别的深奥难懂,最简单的BP网络基本上学完微积分和概率论就能搞懂,CNN引入的卷积,池化等也是数字图像处理中比较成熟的理论,RNN使用的数学工具相对而言比较高深一些,需要再深入消化消化,最近也在啃白皮书,争取从数学上把这些理论吃透 当然光学理论不太行,还是得要有一些实践的,下面是三个入门级别的,可以用来辅助对BP网络的理解 环境:win10 WSL ubuntu 18.04

MFC基于对话框 手写数字识别 SVM+MNIST数据集

完整项目下载地址: http://download.csdn.net/detail/hi_dahaihai/9892004 本项目即拿MFC做了一个画板,画一个数字后可自行识别数字.此外还 有保存图片.清空画板功能,简单实用. 识别方法为SVM调用已经训练好的MNIST数据集"SVM_DATA.xml" MNIST数据集训练方法自行百度,一大堆. 本项目基于OpenCv 2.4.6,下载的朋友自行修改配置为自己使用的OpenCv版本即可.

利用keras搭建CNN进行mnist数据集分类

当接触深度学习算法的时候,大家都很想自己亲自实践一下这个算法,但是一想到那些复杂的程序,又感觉心里面很累啊,又要学诸如tensorflow.theano这些框架.那么,有没有什么好东西能够帮助我们快速搭建这个算法呢?当然是有咯!,现如今真不缺少造轮子的大神,so,我强烈向大家推荐keras,Keras是一个高层神经网络API,Keras由纯Python编写而成并基Tensorflow或Theano.Keras为支持快速实验而生,能够把你的idea迅速转换为结果. 具体keras的安装与使用,请参

keras实现mnist数据集手写数字识别

一. Tensorflow环境的安装 这里我们只讲CPU版本,使用 Anaconda 进行安装 a.首先我们要安装 Anaconda 链接:https://pan.baidu.com/s/1AxdGi93oN9kXCLdyxOMnRA 密码:79ig 过程如下: 第一步:点击next 第二步:I Agree 第三步:Just ME 第四步:自己选择一个恰当位置放它就好 第五步:建议只选择第二个 第六步:就直接install啦啦啦啦,然后你就可以上手万能库了 b.找到Anaconda prompt

使用线性回归识别手写阿拉伯数字mnist数据集

学习了tensorflow的线性回归. 首先是一个sklearn中makeregression数据集,对其进行线性回归训练的例子.来自腾讯云实验室 import tensorflow as tf import numpy as np class linearRegressionModel: def __init__(self,x_dimen): self.x_dimen=x_dimen self._index_in_epoch=0 self.constructModel() self.sess=