我正在尝试部署一个本地训练的模型。我按照此处的所有说明进行模型准备,并设法部署它。
但是,当我尝试获取预测时,在线预测以 502 服务器错误响应并且批量预测返回('Failed to run the inference graph', 1)
有没有办法获得更好的错误信息来缩小错误范围?
谢谢
我正在尝试部署一个本地训练的模型。我按照此处的所有说明进行模型准备,并设法部署它。
但是,当我尝试获取预测时,在线预测以 502 服务器错误响应并且批量预测返回('Failed to run the inference graph', 1)
有没有办法获得更好的错误信息来缩小错误范围?
谢谢
错误消息表明它是在为推理图运行会话时发生的。有可能发现一些代码正在发生什么以在本地使用模型。测试它的一种方法是创建一个小型输入数据集并将其提供给推理图,以检查您是否可以在本地运行会话。
您可以参考SDK中samples/mnist/deployable/中的 local_predict.py来了解如何执行此操作。这是一个使用示例:
python local_predict.py --input=/path/to/my/local/files --model_dir=/path/to/modeldir.
请注意,model_dir 指向 tensorflow 元图原型和检查点文件的保存位置。它们是通过训练产生的。这是有关如何训练模型的文档链接。https://cloud.google.com/ml/docs/how-tos/training-models。模型目录也可以在 GCS 上。
感谢您提出这个问题。我们一直在努力改善服务的整体体验,包括错误报告。