3

我遵循了 TensorFlow for Poets 教程,并用我自己的一些课程替换了现有的flower_photos。现在我有我的labels.txt文件并graph.pb保存在我的本地机器上。

我有没有办法将此预训练模型部署到 Google Cloud Platform?我一直在阅读文档,我能找到的只是关于如何从他们的 ML Engine 中创建、训练和部署模型的说明。但是我不想花钱在 Google 的服务器上训练我的模型,因为我只需要它们来托管我的模型,这样我就可以调用它来进行预测。

还有其他人遇到同样的问题吗?

4

2 回答 2

1

部署本地训练的模型是受支持的用例;无论您在哪里训练,说明基本相同

要部署模型版本,您需要:

保存在 Google Cloud Storage 上的 TensorFlow SavedModel。您可以通过以下方式获取模型:

  • 按照 Cloud ML Engine 训练步骤在云中进行训练。

  • 在其他地方训练并导出到 SavedModel。

不幸的是,TensorFlow for Poets没有展示如何导出 SavedModel(我已经提交了一个功能请求来解决这个问题)。同时,您可以编写如下所示的“转换器”脚本(您也可以在训练结束时执行此操作,而不是保存graph.pb并重新读取):

input_graph = 'graph.pb'
saved_model_dir = 'my_model'

with tf.Graph() as graph:
  # Read in the export graph
  with tf.gfile.FastGFile(input_graph, 'rb') as f:
      graph_def = tf.GraphDef()
      graph_def.ParseFromString(f.read())
      tf.import_graph_def(graph_def, name='')

  # CloudML Engine and early versions of TensorFlow Serving do
  # not currently support graphs without variables. Add a
  # prosthetic variable.
  dummy_var = tf.Variable(0)

  # Define SavedModel Signature (inputs and outputs)
  in_image = graph.get_tensor_by_name('DecodeJpeg/contents:0')
  inputs = {'image_bytes': 
tf.saved_model.utils.build_tensor_info(in_image)}

  out_classes = graph.get_tensor_by_name('final_result:0')
  outputs = {'prediction': tf.saved_model.utils.build_tensor_info(out_classes)}

  signature = tf.saved_model.signature_def_utils.build_signature_def(
      inputs=inputs,
      outputs=outputs,
      method_name='tensorflow/serving/predict'
  )

  # Save out the SavedModel.
  b = saved_model_builder.SavedModelBuilder(saved_model_dir)
  b.add_meta_graph_and_variables(sess,
                                 [tf.saved_model.tag_constants.SERVING],
                                 signature_def_map={'predict_images': signature})
  b.save() 

(基于此代码实验室此 SO 帖子的未经测试的代码)。

如果您希望输出使用字符串标签而不是整数索引,请进行以下更改:

  # Loads label file, strips off carriage return
  label_lines = [line.rstrip() for line 
                 in tf.gfile.GFile("retrained_labels.txt")]
  out_classes = graph.get_tensor_by_name('final_result:0')
  out_labels = tf.gather(label_lines, ot_classes)
  outputs = {'prediction': tf.saved_model.utils.build_tensor_info(out_labels)}
于 2017-05-31T18:42:25.497 回答
1

不幸的是,仅部分回答,但我已经能够做到这一点......但有一些我尚未解决的持续问题。我将经过训练的 pb 和 txt 文件移植到我的服务器上,安装了 Tensorflow,并通过 HTTP 请求调用经过训练的模型。它完美地工作......在第一次运行时。然后每隔一段时间就会失败。

openshift 上的 tensorflow 部署,gunicorn 和 mod_wsgi 错误

令人惊讶的是,没有更多的人试图解决这个普遍问题。

于 2017-06-07T21:51:13.247 回答