TFRecord文件的读写

前言
在跑通了官网的mnist和cifar10数据之后,笔者尝试着制作自己的数据集,并保存,读入,显示。 TensorFlow可以支持cifar10的数据格式, 也提供了标准的TFRecord 格式,而关于 tensorflow 读取数据, 官网提供了3中方法
1 Feeding: 在tensorflow程序运行的每一步, 用python代码在线提供数据
2 Reader : 在一个计算图(tf.graph)的开始前,将文件读入到流(queue)中
3 在声明tf.variable变量或numpy数组时保存数据。受限于内存大小,适用于数据较小的情况

在本文,主要介绍第二种方法,利用tf.record标准接口来读入文件

准备图片数据
笔者找了2类狗的图片, 哈士奇和吉娃娃, 全部 resize成128 * 128大小
如下图, 保存地址为D:\Python\data\dog

每类中有10张图片

现在利用这2 类 20张图片制作TFRecord文件

制作TFRECORD文件
1 先聊一下tfrecord, 这是一种将图像数据和标签放在一起的二进制文件,能更好的利用内存,在tensorflow中快速的复制,移动,读取,存储 等等..

这里注意,tfrecord会根据你选择输入文件的类,自动给每一类打上同样的标签
如在本例中,只有0,1 两类

2 先上“制作TFRecord文件”的代码,注释附详解

import os
import tensorflow as tf
from PIL import Image #注意Image,后面会用到
import matplotlib.pyplot as plt
import numpy as np

cwd=‘D:\Python\data\dog\\‘
classes={‘husky‘,‘chihuahua‘} #人为 设定 2 类
writer= tf.python_io.TFRecordWriter("dog_train.tfrecords") #要生成的文件

for index,name in enumerate(classes):
class_path=cwd+name+‘\\‘
for img_name in os.listdir(class_path):
img_path=class_path+img_name #每一个图片的地址

img=Image.open(img_path)
img= img.resize((128,128))
img_raw=img.tobytes()#将图片转化为二进制格式
example = tf.train.Example(features=tf.train.Features(feature={
"label": tf.train.Feature(int64_list=tf.train.Int64List(value=[index])),
‘img_raw‘: tf.train.Feature(bytes_list=tf.train.BytesList(value=[img_raw]))
})) #example对象对label和image数据进行封装
writer.write(example.SerializeToString()) #序列化为字符串

writer.close()

运行完这段代码后,会生成dog_train.tfrecords 文件,如下图

tf.train.Example 协议内存块包含了Features字段,通过feature将图片的二进制数据和label进行统一封装, 然后将example协议内存块转化为字符串, tf.python_io.TFRecordWriter 写入到TFRecords文件中。

读取TFRECORD文件
在制作完tfrecord文件后, 将该文件读入到数据流中。
代码如下

def read_and_decode(filename): # 读入dog_train.tfrecords
filename_queue = tf.train.string_input_producer([filename])#生成一个queue队列

reader = tf.TFRecordReader()
_, serialized_example = reader.read(filename_queue)#返回文件名和文件
features = tf.parse_single_example(serialized_example,
features={
‘label‘: tf.FixedLenFeature([], tf.int64),
‘img_raw‘ : tf.FixedLenFeature([], tf.string),
})#将image数据和label取出来

img = tf.decode_raw(features[‘img_raw‘], tf.uint8)
img = tf.reshape(img, [128, 128, 3]) #reshape为128*128的3通道图片
img = tf.cast(img, tf.float32) * (1. / 255) - 0.5 #在流中抛出img张量
label = tf.cast(features[‘label‘], tf.int32) #在流中抛出label张量
return img, label

注意,feature的属性“label”和“img_raw”名称要和制作时统一 ,返回的img数据和label数据一一对应。返回的img和label是2个 tf 张量,print出来 如下图

显示tfrecord格式的图片
有些时候我们希望检查分类是否有误,或者在之后的网络训练过程中可以监视,输出图片,来观察分类等操作的结果,那么我们就可以session回话中,将tfrecord的图片从流中读取出来,再保存。 紧跟着一开始的代码写:

filename_queue = tf.train.string_input_producer(["dog_train.tfrecords"]) #读入流中
reader = tf.TFRecordReader()
_, serialized_example = reader.read(filename_queue) #返回文件名和文件
features = tf.parse_single_example(serialized_example,
features={
‘label‘: tf.FixedLenFeature([], tf.int64),
‘img_raw‘ : tf.FixedLenFeature([], tf.string),
}) #取出包含image和label的feature对象
image = tf.decode_raw(features[‘img_raw‘], tf.uint8)
image = tf.reshape(image, [128, 128, 3])
label = tf.cast(features[‘label‘], tf.int32)
with tf.Session() as sess: #开始一个会话
init_op = tf.initialize_all_variables()
sess.run(init_op)
coord=tf.train.Coordinator()
threads= tf.train.start_queue_runners(coord=coord)
for i in range(20):
example, l = sess.run([image,label])#在会话中取出image和label
img=Image.fromarray(example, ‘RGB‘)#这里Image是之前提到的
img.save(cwd+str(i)+‘_‘‘Label_‘+str(l)+‘.jpg‘)#存下图片
print(example, l)
coord.request_stop()
coord.join(threads)

代码运行完后, 从tfrecord中取出的文件被保存了。如下图:

在这里我们可以看到,图片文件名的第一个数字表示在流中的顺序(笔者这里没有用shuffle), 第二个数字则是 每个图片的label,吉娃娃都为0,哈士奇都为1。 由此可见,我们一开始制作tfrecord文件时,图片分类正确。
---------------------
作者:miaomiaoyuan
来源:CSDN
原文:https://blog.csdn.net/miaomiaoyuan/article/details/56865361
版权声明:本文为博主原创文章,转载请附上博文链接!

原文地址:https://www.cnblogs.com/sddai/p/9904196.html

时间: 2024-11-06 03:35:10

TFRecord文件的读写的相关文章

C 文件随机读写

1 #include <stdio.h> 2 #include <stdlib.h> 3 4 void eatline(){ 5 while(getchar()!='\n') 6 continue; 7 } 8 //文件随机读写 9 int main(int argc, char * argv[]) 10 { 11 FILE *fp; 12 int offset,tel; 13 long in_stream; 14 char ch,get; 15 long pos; 16 if((

csv文件的读写

最近在搞一个比赛,经常要用到csv文件的读写,开始用的是Java,有CsvReader.CsvWriter包,读写的格式大致如下: File inFile = new File(inpath); FileInputStream fis = new FileInputStream(inFile); FileOutputStream fos = new FileOutputStream(outpath); CsvReader csvReader = new CsvReader(fis, Charse

【mfc】利用文件的读写,theApp全局变量来现实登录帐号管理系统

本文亦是在<[mfc]用对话框的切换实现重新登录>(点击打开链接)的进一步工作,也是对其的进一步改进,上次的登录只是在判断用户输入的用户名与密码是否为admin与123,这次则利用文件的读写实现用户帐号的创建.删除与修改,不再拘泥与admin与123这个帐号,用户可以创建很多帐号,并且赋予其是否有修改帐号的权限,同时,利用theApp全局变量,用户一旦成功,其登录信息则会一直被记录,类似与网页中的Session.虽然现在VC6中的mfc已经过时了,但是仍然具有研究意义,毕竟XP曾经是一个无法超

文件流读写、大文件移动 FileStream StreamWriter

文件流读写 using System; using System.Collections.Generic; using System.Linq; using System.Text; using System.IO; namespace _09文件流 { class Program { static void Main(string[] args) { //string msg = "飞流直下三千尺"; ////字符串转字节数组 //byte[] buffer = System.Tex

php高并发状态下文件的读写

背景 1.对于PV不高或者说并发数不是很大的应用,不用考虑这些,一般的文件操作方法完全没有问题 2.如果并发高,在我们对文件进行读写操作时,很有可能多个进程对进一文件进行操作,如果这时不对文件的访问进行相应的独占,就容易造成数据丢失 例如:一个在线聊天室(这里假定把聊天内容写入文件),在同一时刻,用户A和用户B都要操作数据保存文件,首先是A打开了文件,然后更新里面的数据,但这 里B也正好也打开了同一个文件,也准备更新里面的数据.当A把写好的文件保存时,这里其实B已经打开了文件.但当B再把文件保存

UI 沙盒机制 文件的读写操作

沙盒机制: 数据持久化的本质:将数据读成文件,存储在本地 沙盒机制:沙盒就是系统针对于每个应用程序在本地生成的文件夹(名字随机生成).对于不同的应用程序,不能访问其他应用程序沙盒内的内容.对于该应用内容起到保护作用. 沙盒内的文件夹: (1)Documents:用来存储长久保存的数据 (2)XXX.app: 应用程序的包,包含应用程序加载所需的所有资源,(readonly 只读,不可修改).平时使用的NSBundle就是该包. (3)Library: A: Caches:本地缓存,存储想暂时保存

iOS学习之 plist文件的读写

在做iOS开发时,经经常使用到到plist文件,  那plist文件是什么呢? 它全名是:Property List,属性列表文件,它是一种用来存储串行化后的对象的文件.属性列表文件的扩展名为.plist ,因此通常被称为 plist文件.文件是xml格式的. Plist文件通经常使用于储存用户设置,也能够用于存储捆绑的信息 我们创建一个项目来学习plist文件的读写. 1.创建项目Plistdemo 项目创建之后能够找到项目相应的plist文件,打开例如以下图所看到的: 在编辑器中显示相似与表

perl对大量大文件进行读写

在对大量文件进行读写时,最好将文件存为gz文件,可以节约读写硬盘的时间,硬盘也不会那么卡. 在写gz文件时,最好使用PerlIO::gzip模块.这个模块不用调用gzip命令,减少了程序占用的线程数量,可以有效的降低load. 下面是一个例子. #! /usr/bin/env perl use strict; use warnings; use List::Util; use FileHandle; use PerlIO::gzip; my %fh; my @a=(1..100); for(my

使用shell脚本简单模拟对特定文件同时读写操作

使用shell脚本简单模拟对特定文件同时读写操作文件内容的格式:field1    ,       field2    , field3    ,       field4以,为分隔符,但是存在空格. 脚本用法如下: ./check_write_read.sh 10 输出结果: Thu Apr 27 19:59:44 CST 2017:Read operation finished 670 Thu Apr 27 19:59:44 CST 2017:Write operation finished