基于tensorflow的CNN卷积神经网络对Fasion-MNIST数据集的分类器

写一个基于tensorflow的cnn,分类fasion-MNIST数据集

这个就是fasion-mnist数据集了

先上代码,在分析:

import tensorflow as tf
import pandas as pd
import numpy as np

config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3

train_data = pd.read_csv(‘test.csv‘)
test_data = pd.read_csv(‘test.csv‘)

def Weight(shape):
    initial = tf.truncated_normal(shape, stddev=0.1)
    return tf.Variable(initial, tf.float32)

def biases(shape):
    initial = tf.constant(0.1, shape=shape)
    return tf.Variable(initial, tf.float32)

def conv(inputs, w):
    return tf.nn.conv2d(inputs, w, strides=[1, 1, 1, 1], padding=‘SAME‘)

def pool(inputs):
    return tf.nn.max_pool(inputs, ksize=[1, 1, 1, 1], strides=[1, 2, 2, 1], padding=‘SAME‘)

x = tf.placeholder(tf.float32, [None, 784])
y = tf.placeholder(tf.int64, [None])
x_image = tf.reshape(x, [-1, 28, 28, 1])

w1 = Weight([5, 5, 1, 32])
b1 = biases([32])
conv1 = tf.nn.relu(conv(x_image, w1) + b1)
p1 = pool(conv1)

w2 = Weight([5, 5, 32, 64])
b2 = biases([64])
conv2 = tf.nn.relu(conv(p1, w2) + b2)
p2 = pool(conv2)

flattended = tf.reshape(p2, [-1, 7 * 7 * 64])

w_fc1 = Weight([7 * 7 * 64, 1024])
b_fc1 = biases([1024])
fc1 = tf.matmul(flattended, w_fc1) + b_fc1
h_fc1 = tf.nn.relu(fc1)

w_fc2 = Weight([1024, 10])
b_fc2 = biases([10])
logits = tf.matmul(h_fc1, w_fc2) + b_fc2

cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits, labels=y)
correct_prediction = tf.equal(y, tf.argmax(logits, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

init = tf.global_variables_initializer()
sess = tf.Session(config=config)
sess.run(init)

for i in range(10000):
    choice = np.random.choice(6000, 100)
    batch = train_data.iloc[choice]
    labels = np.array(batch.iloc[:, 0])
    features = np.array(batch.iloc[:, 1:]).astype(np.float32)
    sess.run(train_step, feed_dict={x: features, y: labels})
    if i % 50 == 0:
        test_batch = test_data.iloc[0:1000, :]
        test_labes = np.array(test_batch.iloc[:, 0])
        test_features = np.array(test_batch.iloc[:, 1:]).astype(np.float32)
        print(sess.run(accuracy, feed_dict={x: test_features, y: test_labes}))
sess.close()

1.定义Weight, biases, conv层, pool层

def Weight(shape):
    initial = tf.truncated_normal(shape, stddev=0.1)
    return tf.Variable(initial, tf.float32)

def biases(shape):
    initial = tf.constant(0.1, shape=shape)
    return tf.Variable(initial, tf.float32)

def conv(inputs, w):
    return tf.nn.conv2d(inputs, w, strides=[1, 1, 1, 1], padding=‘SAME‘)

def pool(inputs):
    return tf.nn.max_pool(inputs, ksize=[1, 1, 1, 1], strides=[1, 2, 2, 1], padding=‘SAME‘)

在这段代码中, 卷积层的,步幅都是1, 用SAME的padding方式,池化层的步幅是x y轴都是2, 这样,数据每次经过一次卷积和池化, 图像的宽和长都会变成原来的二分之一,也就是 原先 28x28 的图像 将会经过 14*14 到 7*7的变化

2. 定义placeholder

原文地址:https://www.cnblogs.com/francischeng/p/9886422.html

时间: 2024-07-30 14:16:00

基于tensorflow的CNN卷积神经网络对Fasion-MNIST数据集的分类器的相关文章

Deep Learning模型之:CNN卷积神经网络(一)深度解析CNN

http://m.blog.csdn.net/blog/wu010555688/24487301 本文整理了网上几位大牛的博客,详细地讲解了CNN的基础结构与核心思想,欢迎交流. [1]Deep learning简介 [2]Deep Learning训练过程 [3]Deep Learning模型之:CNN卷积神经网络推导和实现 [4]Deep Learning模型之:CNN的反向求导及练习 [5]Deep Learning模型之:CNN卷积神经网络(一)深度解析CNN [6]Deep Learn

DeepLearning tutorial(4)CNN卷积神经网络原理简介+代码详解

DeepLearning tutorial(4)CNN卷积神经网络原理简介+代码详解 @author:wepon @blog:http://blog.csdn.net/u012162613/article/details/43225445 本文介绍多层感知机算法,特别是详细解读其代码实现,基于python theano,代码来自:Convolutional Neural Networks (LeNet).经详细注释的代码和原始代码:放在我的github地址上,可下载. 一.CNN卷积神经网络原理

CNN卷积神经网络学习笔记3:权值更新公式推导

在上篇<CNN卷积神经网络学习笔记2:网络结构>中,已经介绍了CNN的网络结构的详细构成,我们已经可以初始化一个自己的CNN网络了,接下来就是要用训练得到一个确定的CNN的模型,也就是确定CNN的参数. CNN本质上就是人工神经网络的一种,只是在前几层的处理上有所不同,我们可以把卷积核看成是人工神经网络里的权值W,而采样层实质上也是一种卷积运算.所以可以基于人工神经网络的权值更新的方法来推导CNN里的权值更新公式.人工神经网络里是用反向传播算法将误差层层回传,利用梯度下降法更新每一层的权值,C

CNN卷积神经网络新想法

最近一直在看卷积神经网络,想改进改进弄出点新东西来,看了好多论文,写了一篇综述,对深度学习中卷积神经网络有了一些新认识,和大家分享下. 其实卷积神经网络并不是一项新兴的算法,早在上世纪八十年代就已经被提出来,但当时硬件运算能力有限,所以当时只用来识别支票上的手写体数字,并且应用于实际.2006年深度学习的泰斗在<科学>上发表一篇文章,论证了深度结构在特征提取问题上的潜在实力,从而掀起了深度结构研究的浪潮,卷积神经网络作为一种已经存在的.有一定应用经验的深度结构,重新回到人们视线,此时硬件的运算

CNN卷积神经网络学习笔记2:网络结构

在上篇笔记<CNN卷积神经网络学习笔记1:背景介绍>中已经介绍过CNN的结构,这篇笔记中,通过一个简单的CNN的例子,梳理一下CNN的网络结构的细节. 以下是一个6层的CNN网络,这个简单的CNN网络是DeepLearning Toolbox里面CNN的一个例子,后面要通过DeepLearning Toolbox中CNN的代码来进一步理解CNN的整个过程.我们输入的是1张大小为28*28的图片. 需要注意的有: 1,这里输入的是一张图片,如果我们输入了50张图片,那么下图中的每一个方框(代表一

[转]Theano下用CNN(卷积神经网络)做车牌中文字符OCR

Theano下用CNN(卷积神经网络)做车牌中文字符OCR 原文地址:http://m.blog.csdn.net/article/details?id=50989742 之前时间一直在看 Michael Nielsen 先生的 Deep Learning 教程. 用了他的代码在theano下测试了下中文车牌字符的识别.由于我没有GPU,简单的在进行了16个epoch之后,识别率达到了 98.41% ,由于图像本来质量就不高,达到这个识别率,效果挺不错了. 一共 31 类 车牌中文字符数据来源于

【转】Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现

原作者:zouxy09 原文链接:http://blog.csdn.net/zouxy09/article/details/9993371 Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现 [email protected] http://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样.所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己

Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现(转)

Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现 [email protected] http://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样.所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一方面也方便未来自己的勘察.更好的还可以放到博客上面与大家交流.因为基础有限,所以对论文的一些理解可能不太正确,还望大家不

CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)

CNN(卷积神经网络).RNN(循环神经网络).DNN(深度神经网络)的内部网络结构有什么区别? DNN以神经网络为载体,重在深度,可以说是一个统称.RNN,回归型网络,用于序列数据,并且有了一定的记忆效应,辅之以lstm.CNN应该侧重空间映射,图像数据尤为贴合此场景. DNN以神经网络为载体,重在深度,可以说是一个统称.RNN,回归型网络,用于序列数据,并且有了一定的记忆效应,辅之以lstm.CNN应该侧重空间映射,图像数据尤为贴合此场景. Stanford University CS231