2

我在这里搜索了很多,但不幸的是找不到答案。

我正在TensorFlow 1.3本地机器上运行(通过 MacOS 上的 PiP 安装),并使用提供的“ ssd_mobilenet_v1_coco”检查点创建了一个模型。

我设法在本地和 ML-Engine(运行时 1.2)上进行训练,并成功地将我的 savedModel 部署到 ML-Engine。

本地预测(下面的代码)工作正常,我得到了模型结果

gcloud ml-engine local predict --model-dir=... --json-instances=request.json

 FILE request.json: {"inputs": [[[242, 240, 239], [242, 240, 239], [242, 240, 239], [242, 240, 239], [242, 240, 23]]]}

但是,在部署模型并尝试在 ML-ENGINE 上运行以使用以下代码进行远程预测时:

gcloud ml-engine predict --model "testModel" --json-instances request.json(SAME JSON FILE AS BEFORE)

我收到此错误:

{
  "error": "Prediction failed: Exception during model execution: AbortionError(code=StatusCode.INVALID_ARGUMENT, details=\"NodeDef mentions attr 'data_format' not in Op<name=DepthwiseConv2dNative; signature=input:T, filter:T -> output:T; attr=T:type,allowed=[DT_FLOAT, DT_DOUBLE]; attr=strides:list(int); attr=padding:string,allowed=[\"SAME\", \"VALID\"]>; NodeDef: FeatureExtractor/MobilenetV1/MobilenetV1/Conv2d_1_depthwise/depthwise = DepthwiseConv2dNative[T=DT_FLOAT, _output_shapes=[[-1,150,150,32]], data_format=\"NHWC\", padding=\"SAME\", strides=[1, 1, 1, 1], _device=\"/job:localhost/replica:0/task:0/cpu:0\"](FeatureExtractor/MobilenetV1/MobilenetV1/Conv2d_0/Relu6, FeatureExtractor/MobilenetV1/Conv2d_1_depthwise/depthwise_weights/read)\n\t [[Node: FeatureExtractor/MobilenetV1/MobilenetV1/Conv2d_1_depthwise/depthwise = DepthwiseConv2dNative[T=DT_FLOAT, _output_shapes=[[-1,150,150,32]], data_format=\"NHWC\", padding=\"SAME\", strides=[1, 1, 1, 1], _device=\"/job:localhost/replica:0/task:0/cpu:0\"](FeatureExtractor/MobilenetV1/MobilenetV1/Conv2d_0/Relu6, FeatureExtractor/MobilenetV1/Conv2d_1_depthwise/depthwise_weights/read)]]\")"
}

我在这里看到了类似的东西:https ://github.com/tensorflow/models/issues/1581

关于“数据格式”参数的问题。但不幸的是,我无法使用该解决方案,因为我已经在 TensorFlow 1.3 上。

看来也可能是MobilenetV1的问题:https://github.com/tensorflow/models/issues/2153

有任何想法吗?

4

2 回答 2

3

我有一个类似的问题。此问题是由于用于训练和推理的 Tensorflow 版本不匹配造成的。我通过使用 Tensorflow - 1.4 进行训练和推理解决了这个问题。

请参考这个答案。

于 2017-11-26T06:51:00.217 回答
2

如果您想知道如何确保您的模型版本正在运行您需要运行的正确 tensorflow 版本,请先查看此模型版本列表页面

你需要知道哪个模型版本支持你需要的 Tensorflow 版本。在撰写本文时:

  • ML 1.4 版支持 TensorFlow 1.4.0 和 1.4.1
  • ML 1.2 版支持 TensorFlow 1.2.0 和
  • ML 1.0 版支持 TensorFlow 1.0.1

既然您知道您需要哪个模型版本,您需要从您的模型创建一个新版本,如下所示:

gcloud ml-engine versions create <version name> \
--model=<Name of the model> \
--origin=<Model bucket link. It starts with gs://...> \
--runtime-version=1.4

就我而言,我需要使用 Tensorflow 1.4.1 进行预测,因此我使用了运行时版本 1.4。

请参阅此官方 MNIST 教程页面,以及此ML 版本控制页面

于 2018-01-03T15:47:52.463 回答