10

我的 demo.sh 工作正常,我查看了 parser_eval.py 并在某种程度上理解了它。但是,我看不到如何使用 TensorFlow Serving 来服务这个模型。我可以从顶部看到两个问题:

1) 这些图没有导出模型,在每次调用时使用图构建器(例如,structured_graph_builder.py)、上下文协议缓冲区和一大堆其他我不完全理解的东西来构建图(它似乎也注册了额外的 syntaxnet.ops )。那么......是否有可能,我将如何将这些模型导出到 Serving 和所需的“捆绑”形式中SessionBundleFactory?如果不是,则似乎需要在 C++ 中重新实现图形构建逻辑/步骤,因为 Serving 仅在 C++ 上下文中运行。

2) demo.sh 实际上是两个模型,实际上是与 UNIX 管道一起通过管道传输的,因此任何 Servable 都必须(可能)构建两个会话并将数据从一个会话编组到另一个。这是一个正确的方法吗?或者是否可以构建一个“大”图,其中包含“修补”在一起的两个模型并将其导出?

4

1 回答 1

6

因此,经过大量的学习、研究等,我最终对 tensorflow/models 和 syntaxnet 提出了拉取请求,从而实现了从 TF 服务中提供 Parsey McParseface 的目标。

https://github.com/tensorflow/models/pull/250

这里没有的是实际的“服务”代码,但与解决上述问题的工作相比,这相对微不足道。

于 2016-07-12T13:55:09.427 回答