在你的 model.py 中分析 read_data_sets.py 的输出和 parse_example 操作的输出可能会有所帮助
read_data_sets 产生什么
正如您所指出的,read_data_sets为每个图像创建 numpy 数组。它们具有高度 x 宽度 x 通道的形状 [28, 28, 1](图像是单色的),并且在您对 read_data_sets 的原始调用中,您指定要将图像数据作为 uint8 数组。当您在 uint8 numpy 数组上调用tostring时,形状信息将被丢弃,并且由于每个 uint8 都是一个字节,因此您最终会得到一个长度为 784 的字节字符串,其中原始 28x28x1 numpy 数组中的每个像素都有一个条目(行主要)命令。然后将其作为 a 存储bytes_list
在结果中tf.train.Example
。
回顾一下,该features
键下的特征图中的每个条目都有一个字节列表,其中只有一个条目。该条目是一个长度为 784 的字符串,其中字符串中的每个“字符”都是一个介于 0-255 之间的值,表示原始 28x28 图像中某个点的单色像素值。以下是tf.train.Example
Python 打印的示例实例:
features {
feature {
key: "features"
value {
bytes_list {
value: "\000\000\257..."
}
}
}
feature {
key: "labels"
value {
int64_list {
value: 10
}
}
}
}
parse_example 期望和返回什么
tf.parse_example接受一个tf.string
对象向量作为输入。这些对象是序列化的tf.train.Example
对象。在您的代码中,util.read_examples
正是如此。
另一个论点tf.parse_example
是示例的模式。如前所述,features
您的示例中的条目是tf.string
如上定义的。作为参考,您的代码具有:
def parse_examples(examples):
feature_map = {
'labels': tf.FixedLenFeature(
shape=[], dtype=tf.int64, default_value=[-1]),
'features': tf.FixedLenFeature(
shape=[], dtype=tf.string),
}
return tf.parse_example(examples, features=feature_map)
与您收到的错误消息相关的有趣的事情是形状参数。该形状参数指定单个实例的形状,在这种情况下,通过指定shape=[]
您说每个图像是一个等级为 0 的字符串,也就是说,一个普通的旧字符串(即,不是向量,不是矩阵等)。这要求bytes_list
只有一个元素。这正是您存储features
在tf.train.Example
.
尽管该shape
属性是指单个实例的形状,但字段的输出tf.parse_example
将features
是整批示例。这可能有点令人困惑。因此,虽然每个单独的示例都有一个字符串 ( shape=[]
),但批处理是字符串 ( shape=[batch_size]
) 的向量。
使用图像
将图像数据放在字符串中并不是很有用;我们需要将其转换回数字数据。执行此操作的 TensorFlow 操作是tf.decode_raw(Jeremy Lewi解释了为什么tf.string_to_number
在这里不起作用):
image_bytes = tf.decode_raw(parsed['features'], out_type=tf.uint8)
image_data = tf.cast(image_bytes, tf.float32)
(请务必设置out_type=tf.uint8
,因为那是在 中输出的数据类型read_data_sets
)。通常,您会希望将结果转换为tf.float32
. 有时,重塑张量以恢复原始形状甚至很有用,例如,
# New shape is [batch_size, height, width, channels]. We use
# -1 as the first dimension in case batches are variable size.
image_data = tf.reshape(image_data, [-1, 28, 28, 1])
(注意:您的代码中可能不需要它)。
read_data_sets
或者,您可以通过调用with dtype=tf.float32
(默认值)将数据存储为 tf.float32 。然后您可以tf.train.Example
按照 Jeremy Lewi 的解释构建您的,他还提供了解析此类示例的代码。但是,在这种情况下,形状会有所不同。现在每个实例的形状(如 FixedLenFeature 中的形状所示)为,输出中条目IMAGE_PIXELS
的形状为。features
tf.parsed_example
[batch_size, IMAGE_PIXELS]
uint8
和之间的折衷float32
当然是磁盘上的数据大约是后者的四倍,但是您避免了前者所需的额外转换。对于没有太多数据的 MNIST,直接处理浮点数据的额外清晰度可能值得额外的空间。