1

我正在尝试部署一个本地训练的模型。我按照此处的所有说明进行模型准备,并设法部署它。

但是,当我尝试获取预测时,在线预测以 502 服务器错误响应并且批量预测返回('Failed to run the inference graph', 1)

有没有办法获得更好的错误信息来缩小错误范围?

谢谢

4

1 回答 1

1

错误消息表明它是在为推理图运行会话时发生的。有可能发现一些代码正在发生什么以在本地使用模型。测试它的一种方法是创建一个小型输入数据集并将其提供给推理图,以检查您是否可以在本地运行会话。

您可以参考SDK中samples/mnist/deployable/的 local_predict.py来了解如何执行此操作。这是一个使用示例:

python local_predict.py --input=/path/to/my/local/files --model_dir=/path/to/modeldir.

请注意,model_dir 指向 tensorflow 元图原型和检查点文件的保存位置。它们是通过训练产生的。这是有关如何训练模型的文档链接。https://cloud.google.com/ml/docs/how-tos/training-models。模型目录也可以在 GCS 上。

感谢您提出这个问题。我们一直在努力改善服务的整体体验,包括错误报告。

于 2016-10-11T21:23:35.710 回答