TensorFlow中的TFRecord文件
TensorFlow的训练需要读入大量的数据,官方提供了一种名为TFRecord的文件格式,本文描述了如何使用自定义图片数据生成TFRecord文件。
背景:最近在学习TensorFlow,需要将自定义图像数据作为训练数据。
标准TensorFlow格式
TensorFlow的训练过程其实就是大量的数据在网络中不断流动的过程,而数据的来源在官方文档[^1](API r1.2)中介绍了三种方式,分别是:
- Feeding。通过Python直接注入数据。
- Reading from files。从文件读取数据,本文中的TFRecord属于此类方式。
- Preloaded data。将数据以constant或者variable的方式直接存储在运算图中。
当数据量较大时,官方推荐采用标准TensorFlow格式[^2](Standard TensorFlow format)来存储训练与验证数据,该格式的后缀名为tfrecord
。官方介绍如下:
A TFRecords file represents a sequence of (binary) strings. The format is not random access, so it is suitable for streaming large amounts of data but not suitable if fast sharding or other non-sequential access is desired.
从介绍不难看出,TFRecord文件适用于大量数据的顺序读取。而这正好是神经网络在训练过程中发生的事情。
如何使用TFRecord文件
对于TFRecord文件的使用,官方给出了两份示例代码,分别展示了如何生成与读取该格式的文件。
生成TFRecord文件
第一份代码convert_to_records.py
[^3]将MNIST里的图像数据转换为了TFRecord格式 。仔细研读代码,可以发现TFRecord文件中的图像数据存储在Feature
下的image_raw
里。image_raw
来自于data_set.images
,而后者又来自mnist.read_data_sets()
。因此images
的真身藏在mnist.py
这个文件里。
mnist.py
并不难找,在Pycharm里按下ctrl
后单击鼠标左键即可打开源代码。
继续追踪,可以在mnist里发现图像来自extract_images()
函数。该函数的说明里清晰的写明:
Extract the images into a 4D uint8 numpy array [index, y, x, depth].
Args:
f: A file object that can be passed into a gzip reader.
Returns:
data: A 4D uint8 numpy array [index, y, x, depth].
Raises:
ValueError: If the bytestream does not start with 2051.
很明显,返回值变量名为data
,是一个4D Numpy矩阵,存储值为uint8
类型,即图像像素的灰度值(MNIST全部为灰度图像)。四个维度分别代表了:图像的个数,每个图像行数,每个图像列数,每个图像通道数。
在获得这个存储着像素灰度值的Numpy矩阵后,使用numpy的tostring()
函数将其转换为Python bytes格式[^4],再使用tf.train.BytesList()
函数封装为tf.train.BytesList
类,名字为image_raw
。最后使用tf.train.Example()
将image_raw
和其它属性一遍打包,并调用tf.python_io.TFRecordWriter
将其写入到文件中。
至此,TFRecord文件生成完毕。
可见,将自定义图像转换为TFRecord的过程本质上是将大量图像的像素灰度值转换为Python bytes,并与其它Feature
组合在一起,最终拼接成一个文件的过程。
需要注意的是其它Feature
的类型不一定必须是BytesList,还可以是Int64List或者FloatList。
读取TFRecord文件
第二份代码fully_connected_reader.py
[1]展示了如何从TFRecord文件中读取数据。
读取数据的函数名为input()
。函数内部首先通过tf.train.string_input_producer()
函数读取TFRecord文件,并返回一个queue
;然后使用read_and_decode()
读取一份数据,函数内部用tf.decode_raw()
解析出图像的灰度值,用tf.cast()
解析出label
的值。之后通过tf.train.shuffle_batch()
的方法生成一批用来训练的数据。并最终返回可供训练的images
和labels
,并送入inference
部分进行计算。
在这个过程中,有以下几点需要留意:
tf.decode_raw()
解析出的数据是没有shape
的,因此需要调用set_shape()
函数来给出tensor的维度。read_and_decode()
函数返回的是单个的数据,但是后边的tf.train.shuffle_batch()
却能够生成批量数据。- 如果需要对图像进行处理的话,需要放在第二项提到的两个函数中间。
其中第2点的原理我暂时没有弄懂。从代码上看read_and_decode()
返回的是单个数据,shuffle_batch
接收到的也是单个数据,不知道是如何生成批量数据的,猜测与queue
有关系。
所以,读取TFRecord文件的本质,就是通过队列的方式依次将数据解码,并按需要进行数据随机化、图像随机化的过程。
Comments ()