为了帮助澄清您的一些问题,请允许我从预测请求的基本结构开始:
{"instances": [<instance>, <instance>, ...]}
JSON 对象在哪里instance
(dict/map,我将在下文中使用 Python 术语“dict”),属性/键是输入的名称,其值包含该输入的数据。
云服务的作用(并gcloud ml-engine local predict
使用与服务相同的底层库)是获取字典列表(可以被认为是数据行),然后将其转换为列表字典(可以被认为是包含批次实例的柱状数据)具有与原始数据中相同的键。例如,
{"instances": [{"x": 1, "y": "a"}, {"x": 3, "y": "b"}, {"x": 5, "y": "c"}]}
变成(内部)
{"x": [1, 3, 5], "y": ["a", "b", "c"]}
此 dict 中的键(因此,在原始请求中的实例中)必须对应于传递给ServingInputFnReceiver
. 从这个例子中可以明显看出,服务“批处理”了所有数据,这意味着所有实例都作为一个批处理输入到图中。这就是为什么输入形状的外部维度必须是None
- 它是批处理维度,并且在发出请求之前是未知的(因为每个请求可能有不同数量的实例)。导出图表以接受上述请求时,您可以定义如下函数:
def serving_input_fn():
inputs = {'x': tf.placeholder(dtype=tf.int32, shape=[None]),
'y': tf.placeholder(dtype=tf.string, shape=[None]}
return tf.estimator.export.ServingInputReceiver(inputs, inputs)
由于 JSON 不(直接)支持二进制数据,而且 TensorFlow 无法区分“字符串”和“字节”,我们需要特别对待二进制数据。首先,我们需要输入的名称以“_bytes”结尾,以帮助区分文本字符串和字节字符串。使用上面的示例,假设y
包含二进制数据而不是文本。我们将声明以下内容:
def serving_input_fn():
inputs = {'x': tf.placeholder(dtype=tf.int32, shape=[None]),
'y_bytes': tf.placeholder(dtype=tf.string, shape=[None]}
return tf.estimator.export.ServingInputReceiver(inputs, inputs)
请注意,唯一改变的是使用y_bytes
而不是y
作为输入的名称。
接下来,我们需要对数据进行实际的base64编码;在任何可以接受字符串的地方,我们都可以使用像这样的对象:{"b64": ""}。调整正在运行的示例,请求可能如下所示:
{
"instances": [
{"x": 1, "y_bytes": {"b64": "YQ=="}},
{"x": 3, "y_bytes": {"b64": "Yg=="}},
{"x": 5, "y_bytes": {"b64": "Yw=="}}
]
}
在这种情况下,服务完全按照它之前的方式执行,但增加了一个步骤:在发送到 TensorFlow 之前,它会自动对字符串进行 base64 解码(并用字节“替换” {"b64": ...} 对象)。所以 TensorFlow 实际上最终得到了一个 dict ,就像以前一样:
{"x": [1, 3, 5], "y_bytes": ["a", "b", "c"]}
(请注意,输入的名称没有改变。)
当然,base64 文本数据有点毫无意义;您通常会这样做,例如,对于无法通过 JSON 以任何其他方式发送的图像数据,但我希望上面的示例无论如何都足以说明这一点。
还有一点很重要:该服务支持一种速记。当您的 TensorFlow 模型只有一个输入时,无需在实例列表中的每个对象中不断重复该输入的名称。为了说明,想象导出一个只有 的模型x
:
def serving_input_fn():
inputs = {'x': tf.placeholder(dtype=tf.int32, shape=[None])}
return tf.estimator.export.ServingInputReceiver(inputs, inputs)
“长格式”请求如下所示:
{"instances": [{"x": 1}, {"x": 3}, {"x": 5}]}
相反,您可以使用速记方式发送请求,如下所示:
{"instances": [1, 3, 5]}
请注意,这甚至适用于 base64 编码数据。因此,例如,如果x
我们只导出而不是导出y_bytes
,我们可以简化来自以下的请求:
{
"instances": [
{"y_bytes": {"b64": "YQ=="}},
{"y_bytes": {"b64": "Yg=="}},
{"y_bytes": {"b64": "Yw=="}}
]
}
至:
{
"instances": [
{"b64": "YQ=="},
{"b64": "Yg=="},
{"b64": "Yw=="}
]
}
在许多情况下,这只是一个小小的胜利,但它肯定有助于提高可读性,例如,当输入包含 CSV 数据时。
因此,将其完全适应您的特定场景,您的服务功能应该如下所示:
def serving_input_fn():
feature_placeholders = {
'image_bytes': tf.placeholder(dtype=tf.string, shape=[None], name='source')}
single_image = tf.decode_raw(feature_placeholders['image_bytes'], tf.float32)
return tf.estimator.export.ServingInputReceiver(feature_placeholders, feature_placeholders)
与您当前代码的显着差异:
- 输入的名称不是
b64
,但是image_bytes
(可以是以 结尾的任何内容_bytes
)
feature_placeholders
被用作两个参数
ServingInputReceiver
示例请求可能如下所示:
{
"instances": [
{"image_bytes": {"b64": "YQ=="}},
{"image_bytes": {"b64": "Yg=="}},
{"image_bytes": {"b64": "Yw=="}}
]
}
或者,可选地,简而言之:
{
"instances": [
{"b64": "YQ=="},
{"b64": "Yg=="},
{"b64": "Yw=="}
]
}
最后一点。gcloud ml-engine local predict
并gcloud ml-engine predict
根据传入的文件内容构造请求。需要注意的是,文件内容当前不是一个完整的、有效的请求,而是--json-instances
文件的每一行都成为实例列表中的一个条目。 . 特别是在您的情况下,该文件将如下所示(换行符在这里有意义):
{"image_bytes": {"b64": "YQ=="}}
{"image_bytes": {"b64": "Yg=="}}
{"image_bytes": {"b64": "Yw=="}}
或等效的速记。gcloud
将采用每一行并构造上面显示的实际请求。