Tensorflow学习教程------tfrecords数据格式生成与读取

首先是生成tfrecords格式的数据,具体代码如下:

#coding:utf-8

import os
import tensorflow as tf
from PIL import Image

cwd = os.getcwd() 

‘‘‘
此处我加载的数据目录如下:
bt -- 14018.jpg
      14019.jpg
      14020.jpg

nbt -- 1_ddd.jpg
       1_dsdfs.jpg
       1_dfd.jpg

这里的bt nbt 就是类别,也就是代码中的classes
‘‘‘

writer = tf.python_io.TFRecordWriter("train.tfrecords")
classes = [‘bt‘,‘nbt‘]
for index, name in enumerate(classes):
    class_path = cwd + ‘/‘+ name +‘/‘ #每一类图片的目录地址
    for img_name in os.listdir(class_path):
        img_path = class_path + img_name #每一张图片的路径
        img = Image.open(img_path)
        img = img.resize((224,224))
        img_raw = img.tobytes()   #将图片转化为原生bytes
        example = tf.train.Example(features = tf.train.Features(feature={
            ‘label‘:tf.train.Feature(int64_list = tf.train.Int64List(value=[index])),
            ‘img_raw‘:tf.train.Feature(bytes_list = tf.train.BytesList(value=[img_raw]))
     }))
        print "write" + ‘ ‘ + str(img_path) + "to train.tfrecords."
        writer.write(example.SerializeToString()) #序列化为字符串
writer.close()

然后读取生成的tfrecords数据,并且将tfrecords里面的数据保存成jpg格式的图片。具体代码如下:

#coding:utf-8
import os
import tensorflow as tf
from PIL import Image
cwd = ‘/media/project/tfLearnning/dataread/pic/‘
def read_and_decode(filename):
    #根据文件名生成一个队列
    filename_queue = tf.train.string_input_producer([filename])

    reader = tf.TFRecordReader()
    _, serialized_example = reader.read(filename_queue) #返回文件名和文件

    features = tf.parse_single_example(serialized_example,
                                       features={
                                       ‘label‘:tf.FixedLenFeature([],tf.int64),
                                       ‘img_raw‘:tf.FixedLenFeature([],tf.string),
                                       })
    img = tf.decode_raw(features[‘img_raw‘],tf.uint8)
    img = tf.reshape(img,[224,224,3])
    #img = tf.cast(img,tf.float32) * (1./255) - 0.5 # 将图片变成tensor
                                                   #对图片进行归一化操作将【0,255】之间的像素归一化到【-0.5,0.5】,标准化处理可以使得不同的特征具有相同的尺度(Scale)。
                                                   #这样,在使用梯度下降法学习参数的时候,不同特征对参数的影响程度就一样了
    label = tf.cast(features[‘label‘], tf.int32) #将标签转化tensor
    print img
    print label
    return img, label

#read_and_decode(‘train.tfrecords‘)
img, label = read_and_decode(‘train.tfrecords‘)
#print img.shape, label
img_batch, label_batch = tf.train.shuffle_batch([img,label],batch_size=10,capacity=2000,min_after_dequeue=1000) #形成一个batch的数据,由于使用shuffle,因此每次取batch的时候
                                                                                                                #都是随机取的,可以使样本尽可能被充分地训练,保证min_after值小于capacit值

init = tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)
    # 创建一个协调器,管理线程
    coord = tf.train.Coordinator()
    # 启动QueueRunner, 此时文件名队列已经进队
    threads = tf.train.start_queue_runners(sess=sess, coord=coord)
    for i in range(10):
        example, l = sess.run([img, label]) #从对列中一张一张读取图片和标签
        #example, l = sess.run([img_batch,label_batch])
        print(example.shape,l)

        img1=Image.fromarray(example, ‘RGB‘) #将tensor转化成图片格式
        img1.save(cwd+str(i)+‘_‘+‘Label_‘+str(l)+‘.jpg‘)#save image
    # 通知其他线程关闭
    coord.request_stop()
    # 其他所有线程关闭之后,这一函数才能返回
    coord.join(threads)

原文地址:https://www.cnblogs.com/cnugis/p/8393807.html

时间: 2024-07-30 14:16:02

Tensorflow学习教程------tfrecords数据格式生成与读取的相关文章

Tensorflow学习教程------lenet多标签分类

本文在上篇的基础上利用lenet进行多标签分类.五个分类标准,每个标准分两类.实际来说,本文所介绍的多标签分类属于多任务学习中的联合训练,具体代码如下. #coding:utf-8 import tensorflow as tf import os def read_and_decode(filename): #根据文件名生成一个队列 filename_queue = tf.train.string_input_producer([filename]) reader = tf.TFRecordR

Tensorflow学习教程------普通神经网络对mnist数据集分类

首先是不含隐层的神经网络, 输入层是784个神经元 输出层是10个神经元 代码如下 #coding:utf-8 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #载入数据集 mnist = input_data.read_data_sets("MNIST_data", one_hot=True) #每个批次的大小 batch_size = 100 #计算一共有多少个批次

Tensorflow学习教程------利用卷积神经网络对mnist数据集进行分类_训练模型

原理就不多讲了,直接上代码,有详细注释. #coding:utf-8 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('MNIST_data',one_hot=True) #每个批次的大小 batch_size = 100 n_batch = mnist.train._num_examples // batch_

TensorFlow学习笔记(8)--网络模型的保存和读取【转】

转自:http://blog.csdn.net/lwplwf/article/details/62419087 之前的笔记里实现了softmax回归分类.简单的含有一个隐层的神经网络.卷积神经网络等等,但是这些代码在训练完成之后就直接退出了,并没有将训练得到的模型保存下来方便下次直接使用.为了让训练结果可以复用,需要将训练好的神经网络模型持久化,这就是这篇笔记里要写的东西. TensorFlow提供了一个非常简单的API,即tf.train.Saver类来保存和还原一个神经网络模型. 下面代码给

BarCode Reader SDK使用教程:用VB6实现条码的生成和读取

如何用VB6生成和读取条码?今天给大家分享两段VB6代码,关于在BarCode Reader SDK条码的生成和读取. 生成条码: Set <span data-scayt_word="bc" data-scaytid="8">bc</span> = <span data-scayt_word="CreateObject" data-scaytid="10">CreateObject<

C++基础学习教程(一)

开始自己的C++复习进阶之路. 声明: 这次写的博文纯当是一个回顾复习的教程,一些非常基础的知识将不再出现,或者一掠而过,这次的主要风格就是示例代码很多~~~ 所有代码在Ubuntu 14.04 LTS 版,GCC4.8.1(g++)编译通过.其他的平台没试过,估计有些代码在VC6.0下面通过不了,因为有些语言特性是C++11标准的. 下面就是正文的开始吧. 一.C++必须说和必须略过的一些东西 1.工具 工具的话,简答的编程貌似现在已经习惯了在GCC(g++)下了.Linux平台下面,一般不需

(转)干货|这篇TensorFlow实例教程文章告诉你GANs为何引爆机器学习?(附源码)

干货|这篇TensorFlow实例教程文章告诉你GANs为何引爆机器学习?(附源码) 该博客来源自:https://mp.weixin.qq.com/s?__biz=MzA4NzE1NzYyMw==&mid=2247492203&idx=5&sn=3020c3a43bd4dd678782d8aa24996745&chksm=903f1c73a74895652ee688d070fd807771e3fe6a8947f77f3a15a44a65557da0313ac5ad592c

【ExtJS 4.x学习教程】(5)数据包(The Data Package)

作者:周邦涛(Timen) Email:[email protected] 转载请注明出处:  http://blog.csdn.net/zhoubangtao/article/details/27707361 1. 简介 数据包主要负责加载和保存你应用程序的所有数据,它包含41个类,但是其中三个是最重要的-- Model,Store和Ext.data.proxy.Proxy.这三个类几乎在每个应用程序都有使用,并且有很多卫星类作支持. 2. Model和Store data包的核心是Ext.d

Makefile学习教程 跟我一起写 Makefile

https://github.com/zhangliyong/myknowledge/blob/master/Makefile%E5%AD%A6%E4%B9%A0%E6%95%99%E7%A8%8B%20%E8%B7%9F%E6%88%91%E4%B8%80%E8%B5%B7%E5%86%99%20Makefile.wiki ++ Makefile学习教程 跟我一起写 Makefile 0 Makefile概述 什么是makefile?或许很多Winodws的程序员都不知道这个东西,因为那些Wi