实现CNN卷积神经网络

以上是模型,下面是代码:

  1 import tensorflow as tf
  2 import numpy as np
  3 import time
  4 from tensorflow.examples.tutorials.mnist import input_data
  5
  6 import os
  7 os.environ[‘TF_CPP_MIN_LOG_LEVEL‘] = ‘2‘
  8
  9 start = time.clock()
 10
 11 # 下载并载入MNIST 手写数字库
 12 mnist = input_data.read_data_sets("./data/MNIST", one_hot=True)
 13
 14 input_x = tf.placeholder(tf.float32, shape=[None, 28 * 28]) / 255  # 灰度的处理
 15 output_y = tf.placeholder(tf.float32, shape=[None, 10])   #输出10个数字的标签
 16 input_x_images = tf.reshape(input_x, shape=[-1, 28, 28, 1])  #改变形状之后的输入
 17
 18 # 从Test(测试)数据集里选取3000个手写数字的图片和对应的标签
 19 test_x = mnist.test.images[:3000]
 20 test_y = mnist.test.labels[:3000]
 21
 22 # 构建我们的卷积神经网络
 23 # 第一层卷积
 24 conv1 = tf.layers.conv2d(inputs=input_x_images,  # 形状为[28,28,1]
 25                          filters=32,  # 32个过滤器,输出的深度位32
 26                          kernel_size=[5, 5],  # 过滤器在二维的大小是(5*5)
 27                          strides=1,  # 步长是1
 28                          padding="same",  # snme表示输出大小不变,因此要在外围补零2圈
 29                          activation=tf.nn.relu  # 表示激活函数是relu
 30                          )  # 形状[28,28,32]
 31
 32 # 第一层池化(亚采样)
 33 pool1 = tf.layers.max_pooling2d(
 34     inputs=conv1,  # 形状[28,28,32]
 35     pool_size=[2, 2],  # 过滤器在二维的大小是[2,2]
 36     strides=2  # 步长是2
 37 )  # 形状[14,14,32]
 38
 39 # 第二层卷积
 40 conv2 = tf.layers.conv2d(inputs=pool1,  # 形状为[14,14,32]
 41                          filters=64,  # 64个过滤器,输出的深度位64
 42                          kernel_size=[5, 5],  # 过滤器在二维的大小是(5*5)
 43                          strides=1,  # 步长是1
 44                          padding="same",  # snme表示输出大小不变,因此要在外围补零2圈
 45                          activation=tf.nn.relu  # 表示激活函数是relu
 46                          )  # 形状[14,14,64]
 47
 48 # 第二层池化(亚采样)
 49 pool2 = tf.layers.max_pooling2d(
 50     inputs=conv2,  # 形状[14,14,64]
 51     pool_size=[2, 2],  # 过滤器在二维的大小是[2,2]
 52     strides=2  # 步长是2
 53 )  # 形状[7,7,64]
 54
 55 #平坦化(flat)
 56 flat = tf.reshape(pool2,shape=[-1,7 * 7 * 64])  #形状[7 * 7 * 64]
 57
 58 #1024个神经元的全连接层
 59 dense = tf.layers.dense(inputs=flat,units=1024,activation=tf.nn.relu)
 60
 61 #Dropout :丢弃 50%  rate = 0.5
 62 dropout = tf.layers.dropout(inputs=dense,rate=0.5)
 63
 64 #10个神经元的全连接层,这里不用激活函数来做非线性化了。
 65 logits = tf.layers.dense(inputs=dropout,units=10)  #输出形状[1,1,10]
 66
 67 #计算误差(计算 Cross entropy(交叉熵)),再用softmax计算百分比概率
 68 loss = tf.losses.softmax_cross_entropy(onehot_labels=output_y,logits=logits)
 69
 70 # Adam 优化器来最小化误差,学习率0.001
 71 train_op = tf.train.AdadeltaOptimizer(learning_rate=0.001).minimize(loss)
 72
 73 #精度,计算,预测值 和 实际标签 的匹配程度
 74 #返回 (accuracy .update_op) 会创建两个局部变量
 75 accuracy = tf.metrics.accuracy(
 76     labels=tf.argmax(input=output_y,axis=1),
 77     predictions=tf.argmax(input=logits,axis=1)
 78 )[1]
 79
 80 #创建会话
 81 with tf.Session() as sess:
 82     #初始化变量
 83     init = tf.group(tf.global_variables_initializer(),tf.local_variables_initializer())
 84     sess.run(init)
 85     for i in range(20000):
 86         batch = mnist.train.next_batch(50) #从Train(训练)数据集里下一个50个样本
 87         train_loss,train_op_ = sess.run([loss,train_op],feed_dict={input_x:batch[0],output_y:batch[1]})
 88         if i % 100 == 0:
 89             test_accuracy = sess.run(accuracy,feed_dict={input_x:test_x,output_y:test_y})
 90             print(("Step+%d,Train loss=%.4f,[Test accuracy=%.2f]") % (i,train_loss,test_accuracy))
 91
 92     #测试:打印20个 预测值 和 真实值 的对
 93     test_output = sess.run(logits,feed_dict={input_x:test_x[:20]})
 94     inference_y = np.argmax(test_output,1)
 95     print(inference_y," Inference number") #推测的数字
 96     print(np.argmax(test_y[:20],1),"Real numbers") #真实的数字
 97
 98     #显示时间
 99     end = time.clock()
100     print(end - start, "秒")

当然CNN还有很长一段路要走。代码不容易,且敲且珍惜。

原文地址:https://www.cnblogs.com/tianqianlan/p/10699172.html

时间: 2024-10-20 00:38:26

实现CNN卷积神经网络的相关文章

CNN卷积神经网络学习笔记2:网络结构

在上篇笔记<CNN卷积神经网络学习笔记1:背景介绍>中已经介绍过CNN的结构,这篇笔记中,通过一个简单的CNN的例子,梳理一下CNN的网络结构的细节. 以下是一个6层的CNN网络,这个简单的CNN网络是DeepLearning Toolbox里面CNN的一个例子,后面要通过DeepLearning Toolbox中CNN的代码来进一步理解CNN的整个过程.我们输入的是1张大小为28*28的图片. 需要注意的有: 1,这里输入的是一张图片,如果我们输入了50张图片,那么下图中的每一个方框(代表一

Deep Learning模型之:CNN卷积神经网络(一)深度解析CNN

http://m.blog.csdn.net/blog/wu010555688/24487301 本文整理了网上几位大牛的博客,详细地讲解了CNN的基础结构与核心思想,欢迎交流. [1]Deep learning简介 [2]Deep Learning训练过程 [3]Deep Learning模型之:CNN卷积神经网络推导和实现 [4]Deep Learning模型之:CNN的反向求导及练习 [5]Deep Learning模型之:CNN卷积神经网络(一)深度解析CNN [6]Deep Learn

[转]Theano下用CNN(卷积神经网络)做车牌中文字符OCR

Theano下用CNN(卷积神经网络)做车牌中文字符OCR 原文地址:http://m.blog.csdn.net/article/details?id=50989742 之前时间一直在看 Michael Nielsen 先生的 Deep Learning 教程. 用了他的代码在theano下测试了下中文车牌字符的识别.由于我没有GPU,简单的在进行了16个epoch之后,识别率达到了 98.41% ,由于图像本来质量就不高,达到这个识别率,效果挺不错了. 一共 31 类 车牌中文字符数据来源于

【转】Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现

原作者:zouxy09 原文链接:http://blog.csdn.net/zouxy09/article/details/9993371 Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现 [email protected] http://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样.所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己

DeepLearning tutorial(4)CNN卷积神经网络原理简介+代码详解

DeepLearning tutorial(4)CNN卷积神经网络原理简介+代码详解 @author:wepon @blog:http://blog.csdn.net/u012162613/article/details/43225445 本文介绍多层感知机算法,特别是详细解读其代码实现,基于python theano,代码来自:Convolutional Neural Networks (LeNet).经详细注释的代码和原始代码:放在我的github地址上,可下载. 一.CNN卷积神经网络原理

Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现(转)

Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现 [email protected] http://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样.所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一方面也方便未来自己的勘察.更好的还可以放到博客上面与大家交流.因为基础有限,所以对论文的一些理解可能不太正确,还望大家不

CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)

CNN(卷积神经网络).RNN(循环神经网络).DNN(深度神经网络)的内部网络结构有什么区别? DNN以神经网络为载体,重在深度,可以说是一个统称.RNN,回归型网络,用于序列数据,并且有了一定的记忆效应,辅之以lstm.CNN应该侧重空间映射,图像数据尤为贴合此场景. DNN以神经网络为载体,重在深度,可以说是一个统称.RNN,回归型网络,用于序列数据,并且有了一定的记忆效应,辅之以lstm.CNN应该侧重空间映射,图像数据尤为贴合此场景. Stanford University CS231

CNN卷积神经网络学习笔记3:权值更新公式推导

在上篇<CNN卷积神经网络学习笔记2:网络结构>中,已经介绍了CNN的网络结构的详细构成,我们已经可以初始化一个自己的CNN网络了,接下来就是要用训练得到一个确定的CNN的模型,也就是确定CNN的参数. CNN本质上就是人工神经网络的一种,只是在前几层的处理上有所不同,我们可以把卷积核看成是人工神经网络里的权值W,而采样层实质上也是一种卷积运算.所以可以基于人工神经网络的权值更新的方法来推导CNN里的权值更新公式.人工神经网络里是用反向传播算法将误差层层回传,利用梯度下降法更新每一层的权值,C

CNN卷积神经网络新想法

最近一直在看卷积神经网络,想改进改进弄出点新东西来,看了好多论文,写了一篇综述,对深度学习中卷积神经网络有了一些新认识,和大家分享下. 其实卷积神经网络并不是一项新兴的算法,早在上世纪八十年代就已经被提出来,但当时硬件运算能力有限,所以当时只用来识别支票上的手写体数字,并且应用于实际.2006年深度学习的泰斗在<科学>上发表一篇文章,论证了深度结构在特征提取问题上的潜在实力,从而掀起了深度结构研究的浪潮,卷积神经网络作为一种已经存在的.有一定应用经验的深度结构,重新回到人们视线,此时硬件的运算

CNN卷积神经网络在自然语言处理的应用

摘要:CNN作为当今绝大多数计算机视觉系统的核心技术,在图像分类领域做出了巨大贡献.本文从计算机视觉的用例开始,介绍CNN及其在自然语言处理中的优势和发挥的作用. 当我们听到卷积神经网络(Convolutional Neural Network, CNNs)时,往往会联想到计算机视觉.CNNs在图像分类领域做出了巨大贡献,也是当今绝大多数计算机视觉系统的核心技术,从Facebook的图像自动标签到自动驾驶汽车都在使用. 最近我们开始在自然语言处理(Natural Language Process