4

虽然我钦佩文档承诺通过 Bazel 调解与 TensorFlow Serving 相关的所有内容,但我对此感到有些困惑,但我对它的理解充其量是微不足道的。我想尽量减少与它的互动。

我正在通过改编 Inception + TF Serving 教程中的代码来实现我自己的 TF Serving 服务器。我发现 BUILD 文件本身就足够令人生畏,我决定简单地编辑 BUILD 以引用该.cc文件,而不是通过冗长的调试过程,而不是构建 python 的东西(据我了解?)不是绝对必要的。

但是,我的 TF Serving 功能安装无法导入 python。使用普通的 TensorFlow,您可以构建一个.whl文件并以这种方式安装它;TF Serving 可以做类似的事情吗?这样我就可以将模型的构建和导出保持在友好的 python 交互式 shell 领域,而不是编辑它,交叉所有可用的手指,在 bazel 中构建,然后/bazel-bin/path/running/whatever.

到目前为止,简单地将目录添加到我的 PYTHONPATH 是不成功的。

谢谢!

4

1 回答 1

0

你很接近,你需要像在这个脚本中那样更新环境

.../serving/bazel-bin/tensorflow_serving/example/mnist_export

我打印了环境更新,是否手动导出 PYTHONPATH=...

然后我能够导入 tensorflow_serving

于 2016-06-01T22:38:55.993 回答